JP7484237B2 - Photographing device, photographing system, image processing method, and program - Google Patents

Photographing device, photographing system, image processing method, and program Download PDF

Info

Publication number
JP7484237B2
JP7484237B2 JP2020039043A JP2020039043A JP7484237B2 JP 7484237 B2 JP7484237 B2 JP 7484237B2 JP 2020039043 A JP2020039043 A JP 2020039043A JP 2020039043 A JP2020039043 A JP 2020039043A JP 7484237 B2 JP7484237 B2 JP 7484237B2
Authority
JP
Japan
Prior art keywords
image
angle
data
video
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020039043A
Other languages
Japanese (ja)
Other versions
JP2020162118A (en
Inventor
敬倫 加藤
喜永 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to CN202010171270.4A priority Critical patent/CN111726520B/en
Priority to US16/820,760 priority patent/US10939068B2/en
Priority to EP20164281.6A priority patent/EP3712839A1/en
Publication of JP2020162118A publication Critical patent/JP2020162118A/en
Priority to US17/120,829 priority patent/US11310459B2/en
Application granted granted Critical
Publication of JP7484237B2 publication Critical patent/JP7484237B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、撮影装置、撮影システム、画像処理方法、及びプログラムに関するものである。 The present invention relates to an imaging device, an imaging system, an image processing method, and a program.

回転台を用いたパン・チルト及びズームレンズで構成されるカメラシステムの代わりに魚眼レンズなどを使用して被写体を撮影して得られた広角画像のデータを配信し、その画像を受信側のビューアーで部分画像を生成して表示する電子的にパン・チルト・ズームする技術が既に知られている。 Instead of using a camera system consisting of a pan/tilt and zoom lens with a rotating platform, a technology is already known that electronically pans, tilts and zooms the image data obtained by photographing a subject using a fisheye lens or the like, and distributes the image data, and generates and displays a partial image on the receiving viewer.

ところが、被写体を撮影して得た広角画像のデータを配信する技術では、注目されていない領域の画像のデータも配信するため、データ通信量が多くなる問題がある。 However, with technology that distributes wide-angle image data obtained by photographing a subject, there is a problem in that the amount of data traffic increases because image data of areas that are not being focused on is also distributed.

これに対して、通信量を減らすべく、撮影装置が、広角画像の全体を縮小した低精細な全体画像と、広角画像内の注目する領域である高精細な部分画像のデータとを配信し、受信側で全体画像に部分画像を嵌め込む技術が開示されている(特許文献1参照)。 In response to this, a technology has been disclosed that reduces the amount of communication traffic by having the imaging device distribute data on a low-resolution overall image that is a reduced version of the entire wide-angle image, and a high-resolution partial image that is a region of interest within the wide-angle image, and the partial image is then fitted into the overall image on the receiving side (see Patent Document 1).

しかしながら、全体画像及び部分画像が動画の場合、全体画像を低精細にしても、データ通信量を減らすことは難しい。一方で、閲覧者は常に動画を入念に閲覧するわけではなく、注目した動画が再生された時に、部分画像だけでも入念に閲覧することができればよいというニーズがある。 However, when the entire image and partial images are videos, it is difficult to reduce the amount of data traffic even if the resolution of the entire image is reduced. On the other hand, viewers do not always watch videos carefully, and there is a need to be able to view at least a partial image carefully when a video of their interest is played.

本発明は、上述した事情に鑑みてなされたもので、全体画像等の広角動画及び部分画像等の狭角動画のデータ通信量を抑制しながらも、部分画像の精細度をできるだけ下げないようにして閲覧者がよりはっきりと注目する領域を閲覧することができるようにすることを目的とする。 The present invention has been made in consideration of the above-mentioned circumstances, and aims to enable a viewer to view the area of interest more clearly by minimizing reduction in the resolution of partial images while suppressing the amount of data communication for wide-angle videos such as entire images and narrow-angle videos such as partial images.

請求項1に係る発明は、被写体を撮影して所定の精細度の動画データを得る撮影装置であって、前記所定の精細度の動画データに係る動画の全て又は一部である広角動画を低精細に変更す変更手段と、前記広角動画の一部の領域である狭角動画を前記変更手段によって低精細に変更後の広角動画よりも高精細な状態で射影方式変換する射影方式変換手段と、前記低精細な広角動画のフレーム及び前記高精細な狭角動画のフレームのそれぞれの精細度を下げて一フレームに結合する結合手段と、を有し、前記射影方式変換手段は、前記変更手段によって低精細に変更前の広角動画のフレームとしての広角静止画の前記一部の領域である狭角静止画を前記射影方式変換することを特徴とする撮影装置である。 The invention according to claim 1 is a photographing device that photographs a subject to obtain video data of a predetermined resolution, and includes a change means for changing a wide-angle video, which is all or a part of the video related to the video data of the predetermined resolution, to a low resolution, a projection method conversion means for projecting a narrow-angle video, which is a partial area of the wide-angle video, in a state of higher resolution than the wide-angle video after being changed to a low resolution by the change means, and a combination means for lowering the resolution of each of the frames of the low-resolution wide-angle video and the frames of the high-resolution narrow-angle video and combining them into one frame, and the projection method conversion means is characterized in that the projection method conversion is performed on a narrow-angle still image, which is the partial area of a wide-angle still image as a frame of the wide-angle video before being changed to a low resolution by the change means.

以上説明したように本発明によれば、広角動画及び狭角動画のデータ通信量を抑制しながらも、狭角画像の精細度をできるだけ下げないようにすることで閲覧者がよりはっきりと注目する領域を閲覧することができるという効果を奏する。 As described above, the present invention has the effect of suppressing the amount of data communication for wide-angle video and narrow-angle video while minimizing reduction in the resolution of narrow-angle images, thereby enabling the viewer to view the area of interest more clearly.

(a)は全天球撮影装置の左側面図であり、(b)は全天球撮影装置の背面図であり、(c)は全天球撮影装置の平面図であり、(d)は全天球撮影装置の底面図である。1A is a left side view of the omnidirectional imaging device, FIG. 1B is a rear view of the omnidirectional imaging device, FIG. 1C is a plan view of the omnidirectional imaging device, and FIG. 1D is a bottom view of the omnidirectional imaging device. 全天球撮影装置の使用イメージ図である。FIG. 1 is a diagram illustrating an example of how the spherical imaging device is used. (a)は全天球撮影装置で撮影された半球画像(前)、(b)は全天球撮影装置で撮影された半球画像(後)、(c)は正距円筒図法により表された画像を示した図である。FIG. 1A is a diagram showing a hemispherical image (front) captured by an omnidirectional imaging device, FIG. 1B is a hemispherical image (back) captured by the omnidirectional imaging device, and FIG. 1C is a diagram showing an image represented by equirectangular projection. (a)は正距円筒射影画像で球を被う状態を示した概念図、(b)は全天球画像を示した図である。1A is a conceptual diagram showing a state in which a sphere is covered with an equirectangular projection image, and FIG. 1B is a diagram showing a spherical image. 全天球画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。FIG. 13 is a diagram showing the positions of a virtual camera and a predetermined area when a celestial sphere image is a three-dimensional solid sphere. (a)は図5の立体斜視図、(b)は通信端末のディスプレイに所定領域の画像が表示されている状態を示す図である。FIG. 6A is a three-dimensional perspective view of FIG. 5, and FIG. 6B is a diagram showing a state in which an image of a predetermined area is displayed on a display of a communication terminal. 部分画像パラメータの概略を説明する図である。FIG. 2 is a diagram for explaining an outline of partial image parameters. 本実施形態の撮影システムの構成の概略図である。1 is a schematic diagram of a configuration of an imaging system according to an embodiment of the present invention. 全天球撮影装置のハードウェア構成図である。FIG. 2 is a diagram illustrating a hardware configuration of the omnidirectional imaging device. 仲介端末のハードウェア構成図である。FIG. 2 is a diagram illustrating a hardware configuration of an intermediary terminal. スマートフォンのハードウェア構成図である。FIG. 1 is a hardware configuration diagram of a smartphone. 画像管理システムのハードウェア構成図である。FIG. 2 is a hardware configuration diagram of the image management system. 本実施形態の全天球撮影装置の機能ブロック図である。FIG. 2 is a functional block diagram of the omnidirectional imaging device according to the embodiment. 本実施形態のスマートフォンの機能ブロック図である。FIG. 2 is a functional block diagram of the smartphone according to the present embodiment. 画像管理システムの機能ブロック図である。FIG. 2 is a functional block diagram of the image management system. (a)水平垂直画角閾値情報の概念図、(b)水平画角と垂直画角の説明図である。1A is a conceptual diagram of horizontal/vertical angle of view threshold information, and FIG. 1B is an explanatory diagram of the horizontal angle of view and the vertical angle of view. 全体動画及び部分動画の各データの生成及び再生の処理を示したシーケンス図である。FIG. 11 is a sequence diagram showing the process of generating and playing each data of an entire moving image and a partial moving image. 全天球撮影装置が行う画像処理の過程における画像の概念図である。1A to 1C are conceptual diagrams of images in the process of image processing performed by the omnidirectional imaging device. 部分画像パラメータを説明する図である。FIG. 13 is a diagram illustrating partial image parameters. 全体動画と部分動画の各フレーム画像が結合された状態を示す概念図である。FIG. 13 is a conceptual diagram showing a state in which each frame image of an entire moving image and a partial moving image are combined. スマートフォンが行う画像処理の過程における画像の概念図である。1 is a conceptual diagram of an image during image processing performed by a smartphone. 部分平面から部分立体球の作成を説明する図である。13A and 13B are diagrams for explaining the creation of a partial solid sphere from a partial plane. 本実施形態の部分立体球作成を行わずに、全天球画像に部分画像を重畳した場合の二次元の概念図である。FIG. 11 is a two-dimensional conceptual diagram illustrating a case where a partial image is superimposed on a spherical image without creating the partial 3D sphere of the present embodiment. 本実施形態の部分立体球作成を行って、全天球画像に部分画像を重畳した場合の二次元の概念図である。FIG. 11 is a two-dimensional conceptual diagram of a case where a partial 3D sphere is created according to the present embodiment and a partial image is superimposed on a spherical image. (a)重畳表示しない場合のワイド画像の表示例、(b)重畳表示しない場合のテレ画像の表示例、(c)重畳表示する場合のワイド画像の表示例、(d)重畳表示する場合のテレ画像の表示例を示した概念図である。FIG. 1 is a conceptual diagram showing (a) an example of a wide image display when there is no superimposed display, (b) an example of a telephoto image display when there is no superimposed display, (c) an example of a wide image display when there is superimposed display, and (d) an example of a telephoto image display when there is superimposed display. 部分静止画のデータの生成及び再生の処理を示したシーケンス図である。FIG. 11 is a sequence diagram showing a process of generating and playing partial still image data.

以下、図面を用いて、本発明の実施形態について説明する。 The following describes an embodiment of the present invention with reference to the drawings.

〔実施形態の概要〕
以下、本実施形態の概要について説明する。
[Overview of the embodiment]
The outline of this embodiment will be described below.

図1乃至図6を用いて、全天球画像の生成方法について説明する。 The method for generating a spherical image will be explained using Figures 1 to 6.

まず、図1を用いて、全天球撮影装置の外観を説明する。全天球撮影装置は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は全天球撮影装置の右側面図であり、図1(b)は全天球撮影装置の正面図であり、図1(c)は全天球撮影装置の平面図であり、図1(d)は全天球撮影装置の底面図である。 First, the appearance of the omnidirectional imaging device will be described with reference to FIG. 1. The omnidirectional imaging device is a digital camera for obtaining captured images that are the basis of a omnidirectional (360°) panoramic image. FIG. 1(a) is a right side view of the omnidirectional imaging device, FIG. 1(b) is a front view of the omnidirectional imaging device, FIG. 1(c) is a plan view of the omnidirectional imaging device, and FIG. 1(d) is a bottom view of the omnidirectional imaging device.

図1(a),図1(b),図1(c),図1(d)に示されているように、全天球撮影装置の上部には、正面側(前側)に魚眼型のレンズ102a及び背面側(後側)に魚眼型のレンズ102bが設けられている全天球撮影装置の内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれレンズ102a、102bを介して被写体や風景を撮影することで、半球画像(画角180°以上)を得ることができる。全天球撮影装置の正面側と反対側の面には、シャッターボタン115aが設けられている。また、全天球撮影装置の側面には、電源ボタン115b、Wi-Fi(Wireless Fidelity)ボタン115c、及び撮影モード切替ボタン115dが設けられている。シャッターボタン115a、電源ボタン115b、及びWi-Fiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮影モード切替ボタン115dは、押下される度に、静止画の撮影モード、動画の撮影モード及び動画の配信モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、Wi-Fiボタン115c、及び撮影モード切替ボタン115dは、操作部115の一種であり、操作部115は、これらのボタンに限られない。 As shown in Fig. 1(a), Fig. 1(b), Fig. 1(c), and Fig. 1(d), a fish-eye lens 102a is provided on the front side (front side) of the upper part of the omnidirectional imaging device, and a fish-eye lens 102b is provided on the rear side (rear side). Inside the omnidirectional imaging device, imaging elements (image sensors) 103a and 103b (described later) are provided, and a hemispherical image (angle of view 180° or more) can be obtained by photographing a subject or a landscape through the lenses 102a and 102b, respectively. A shutter button 115a is provided on the surface opposite to the front side of the omnidirectional imaging device. In addition, a power button 115b, a Wi-Fi (Wireless Fidelity) button 115c, and a shooting mode switching button 115d are provided on the side of the omnidirectional imaging device. Each time the shutter button 115a, the power button 115b, and the Wi-Fi button 115c are pressed, they are switched on and off. Furthermore, each time the shooting mode switching button 115d is pressed, the mode is switched between a still image shooting mode, a video shooting mode, and a video distribution mode. Note that the shutter button 115a, the power button 115b, the Wi-Fi button 115c, and the shooting mode switching button 115d are types of the operation unit 115, and the operation unit 115 is not limited to these buttons.

また、全天球撮影装置の底部150の中央には、カメラ用三脚に全天球撮影装置を取り付けるための三脚ねじ穴151が設けられている。また、底部150の左端側には、Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(High-Definition Multimedia Interface)端子が設けられている。なお、HDMIは登録商標である。 A tripod screw hole 151 for attaching the omnidirectional imaging device to a camera tripod is provided in the center of the bottom 150 of the omnidirectional imaging device. A Micro USB (Universal Serial Bus) terminal 152 is provided on the left end of the bottom 150. An HDMI (High-Definition Multimedia Interface) terminal is provided on the right end of the bottom 150. HDMI is a registered trademark.

次に、図2を用いて、全天球撮影装置の使用状況を説明する。なお、図2は、全天球撮影装置の使用イメージ図である。全天球撮影装置は、図2に示されているように、例えば、利用者が手に持って利用者の周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれ利用者の周りの被写体が撮像されることで、2つの半球画像を得ることができる。 Next, the use of the omnidirectional imaging device will be described with reference to FIG. 2. FIG. 2 is an image diagram of the omnidirectional imaging device in use. As shown in FIG. 2, the omnidirectional imaging device is used, for example, by being held by a user in his/her hand to capture subjects around the user. In this case, two hemispherical images can be obtained by capturing images of subjects around the user using the image sensor 103a and the image sensor 103b shown in FIG. 1, respectively.

次に、図3及び図4を用いて、全天球撮影装置で撮影された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図3(a)は全天球撮影装置で撮影された半球画像(前側)、図3(b)は全天球撮影装置で撮影された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。 Next, an outline of the process for creating an equirectangular projection image EC and an omnidirectional image CE from an image captured by an omnidirectional imaging device will be described with reference to Figs. 3 and 4. Fig. 3(a) shows a hemispherical image (front side) captured by an omnidirectional imaging device, Fig. 3(b) shows a hemispherical image (rear side) captured by an omnidirectional imaging device, and Fig. 3(c) shows an image expressed by equirectangular projection (hereinafter referred to as "equirectangular projection image"). Fig. 4(a) is a conceptual diagram showing a state in which a sphere is covered with an equirectangular projection image, and Fig. 4(b) shows an omnidirectional image.

図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、全天球撮影装置によって合成され、図3(c)に示されているように、正距円筒射影画像ECが作成される。 As shown in FIG. 3(a), the image obtained by the image sensor 103a becomes a hemispherical image (front side) curved by the fisheye lens 102a described below. Also, as shown in FIG. 3(b), the image obtained by the image sensor 103b becomes a hemispherical image (rear side) curved by the fisheye lens 102b described below. Then, the hemispherical image (front side) and the hemispherical image (rear side) flipped 180 degrees are combined by the omnidirectional imaging device, and an equirectangular projection image EC is created, as shown in FIG. 3(c).

そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。本実施形態において、特段の説明がない場合には、「画像」と示した場合には、「静止画」と「動画」の両方が含まれる。 By using OpenGL ES (Open Graphics Library for Embedded Systems), the equirectangular projection image is pasted to cover the sphere as shown in FIG. 4A, and a celestial sphere image CE as shown in FIG. 4B is created. In this way, the celestial sphere image CE is represented as an image in which the equirectangular projection image EC faces the center of the sphere. Note that OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. Note that the celestial sphere image CE may be a still image or a video. In this embodiment, unless otherwise specified, the term "image" includes both a "still image" and a "video".

以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。 As described above, the spherical image CE is an image pasted to cover the spherical surface, which gives a sense of incongruity to humans when viewed. Therefore, by displaying a predetermined region of the spherical image CE (hereinafter referred to as a "predetermined region image") as a planar image with little curvature, it is possible to display the image in a way that does not give a sense of incongruity to humans. This will be described with reference to Figs. 5 and 6.

なお、図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球画像が、三次元の立体球CSで表わされている。このように生成された全天球画像CEが、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの画角を含む位置座標(x(rH),y(rV),画角α(angle))を示す所定領域情報によって特定される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。 Note that FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined area when the omnidirectional image is a three-dimensional sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the omnidirectional image CE displayed as a three-dimensional sphere. Also, FIG. 6(a) is a three-dimensional perspective view of FIG. 5, and FIG. 6(b) is a diagram showing the predetermined area image when displayed on a display. Also, in FIG. 6(a), the omnidirectional image shown in FIG. 4 is represented by a three-dimensional sphere CS. If the omnidirectional image CE generated in this way is a sphere CS, as shown in FIG. 5, the virtual camera IC is located inside the omnidirectional image CE. The predetermined area T in the omnidirectional image CE is the shooting area of the virtual camera IC, and is specified by the predetermined area information indicating the position coordinates (x(rH), y(rV), angle of view α(angle)) including the angle of view of the virtual camera IC in the three-dimensional virtual space including the omnidirectional image CE. Zooming of the specific area T can be expressed by widening or narrowing the range (arc) of the angle of view α. Zooming of the specific area T can also be expressed by moving the virtual camera IC closer to or farther away from the spherical image CE. The specific area image Q is an image of the specific area T in the spherical image CE.

そして、図6(a)に示されている所定領域画像Qは、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。なお、所定領域情報、仮想カメラICの位置座標ではなく、所定領域Tである仮想カメラICの撮影領域(X,Y,Z)によって示してもよい。 The predetermined area image Q shown in FIG. 6(a) is displayed on a predetermined display as an image of the shooting area of the virtual camera IC, as shown in FIG. 6(b). The image shown in FIG. 6(b) is a predetermined area image represented by the predetermined area information that is initially set (default). Note that the predetermined area information may be represented not by the position coordinates of the virtual camera IC, but by the shooting area (X, Y, Z) of the virtual camera IC, which is the predetermined area T.

図7は、部分画像パラメータの概略を説明する図である。ここでは、全天球画像の一部を指定する方法について説明する。全天球画像においては部分画像の中心点CPを、撮影するカメラ(ここでは、仮想カメラIC)の方向で表すことが可能である。全天球画像である全体画像の中心を全体画像正面として方位角を「aa」、仰角を「ea」とする。また、部分画像の範囲を表すために、例えば対角方向の画角αを用いて表す。また、縦横方向の範囲を表すために、画像のアスペクト比(幅w÷高さh)で表すことが可能である。ここでは範囲を表すために対角画角とアスペクトを用いたが、縦画角と横画角や縦画角とアスペクト比などを用いてもよい。また、方位角、仰角のほか回転角も用いても良い。 FIG. 7 is a diagram for explaining an outline of partial image parameters. Here, a method for specifying a part of a spherical image will be explained. In a spherical image, the center point CP of a partial image can be expressed in the direction of the camera (here, virtual camera IC) that captures the image. With the center of the entire image, which is a spherical image, facing the entire image, the azimuth angle is "aa" and the elevation angle is "ea". In addition, to express the range of a partial image, for example, a diagonal angle of view α is used. In addition, to express the range in the vertical and horizontal directions, it is possible to express it by the aspect ratio of the image (width w÷height h). Here, the diagonal angle of view and the aspect are used to express the range, but the vertical angle of view and the horizontal angle of view, or the vertical angle of view and the aspect ratio, etc. may also be used. In addition to the azimuth angle and the elevation angle, a rotation angle may also be used.

〔撮影システムの概略〕
まずは、図8を用いて、本実施形態の撮影システムの構成の概略について説明する。図8は、本実施形態の撮影システムの構成の概略図である。
[Outline of the imaging system]
First, an outline of the configuration of the imaging system of this embodiment will be described with reference to Fig. 8. Fig. 8 is a schematic diagram of the configuration of the imaging system of this embodiment.

図8に示されているように、本実施形態の撮影システムは、全天球撮影装置1、仲介端末3、スマートフォン5、及び画像管理システム7によって構成されている。 As shown in FIG. 8, the photography system of this embodiment is composed of an omnidirectional photography device 1, an intermediary terminal 3, a smartphone 5, and an image management system 7.

これらのうち、全天球撮影装置1は、上述のように、被写体や風景等を撮影して全天球(パノラマ)画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。 Of these, the spherical imaging device 1 is a special digital camera that captures subjects, landscapes, etc., and obtains two hemispherical images that serve as the basis for a spherical (panoramic) image, as described above.

仲介端末3は、インターネット等の通信ネットワーク100に直接通信できる通信端末の一例である。仲介端末3は、通信ネットワーク100に直接通信できない全天球撮影装置1と近距離無線通信を行うことで、全天球撮影装置1と画像管理システム7との通信を仲介する役割を果たす。近距離無線通信は、例えば、Wi-Fi、Bluetooth(登録商標)、NFC(Near Field Communication)等の技術を利用して行われる通信である。図8では、仲介端末3は全天球撮影装置1が設置されるドングルレシーバーのように使用されている。 The intermediary terminal 3 is an example of a communication terminal that can directly communicate with a communication network 100 such as the Internet. The intermediary terminal 3 plays a role of mediating communication between the omnidirectional imaging device 1 and the image management system 7 by performing short-distance wireless communication with the omnidirectional imaging device 1 that cannot directly communicate with the communication network 100. The short-distance wireless communication is communication performed using technologies such as Wi-Fi, Bluetooth (registered trademark), and NFC (Near Field Communication). In FIG. 8, the intermediary terminal 3 is used like a dongle receiver in which the omnidirectional imaging device 1 is installed.

スマートフォン5は、有線又は無線により、通信ネットワーク100を介して画像管理システム7と通信することができる。また、スマートフォン5では、自装置に設けられた後述のディスプレイ517に、全天球撮影装置1から取得した画像を表示することができる。 The smartphone 5 can communicate with the image management system 7 via the communication network 100, either wired or wirelessly. The smartphone 5 can also display images acquired from the omnidirectional imaging device 1 on a display 517 (described later) provided on the smartphone 5 itself.

画像管理システム7は、コンピュータによって構築されており、スマートフォン5からの動画や静止画の要求を、仲介端末3を介して全天球撮影装置1に伝える。また、画像管理システム7は、全天球撮影装置1から仲介端末3を介して送られて来た動画データ及び静止画データを、スマートフォン5に送信する。 The image management system 7 is constructed by a computer, and transmits requests for video and still images from the smartphone 5 to the omnidirectional imaging device 1 via the intermediary terminal 3. The image management system 7 also transmits video data and still image data sent from the omnidirectional imaging device 1 via the intermediary terminal 3 to the smartphone 5.

なお、図1では、全天球撮影装置1、仲介端末3の組が1つしか表されていないが、複数の組を用いてもよい。また、スマートフォン5も1つしか表されていないが、複数用いてもよい。スマートフォン5は、通信端末の一例である。通信端末には、スマートフォン5の他に、PC(Personal Computer)、スマートウォッチ、ゲーム機器、カーナビゲーション端末等も含まれる。更に、画像管理システム7は、単一だけでなく複数のコンピュータによって構築されていてもよい。 In FIG. 1, only one set of the omnidirectional imaging device 1 and the intermediary terminal 3 is shown, but multiple sets may be used. Also, only one smartphone 5 is shown, but multiple smartphones may be used. The smartphone 5 is an example of a communication terminal. In addition to the smartphone 5, communication terminals also include PCs (Personal Computers), smart watches, game devices, car navigation terminals, and the like. Furthermore, the image management system 7 may be constructed by not only a single computer but also multiple computers.

〔実施形態のハードウェア構成〕
次に、図9及び図12を用いて、本実施形態の全天球撮影装置1、仲介端末3、スマートフォン5、及び画像管理システム7のハードウェア構成を詳細に説明する。
[Hardware configuration of the embodiment]
Next, the hardware configurations of the omnidirectional imaging device 1, the intermediary terminal 3, the smartphone 5, and the image management system 7 of this embodiment will be described in detail with reference to FIG. 9 and FIG. 12.

<全天球撮影装置のハードウェア構成>
まず、図9を用いて、全天球撮影装置1のハードウェア構成を説明する。図9は、全天球撮影装置のハードウェア構成図である。以下では、全天球撮影装置1は、2つの撮像素子を使用した4πラジアンの撮影が可能な全天球(全方位)撮影装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に全天球撮影装置1と同じ機能を有するようにしてもよい。
<Hardware configuration of the omnidirectional imaging device>
First, the hardware configuration of the omnidirectional imaging device 1 will be described with reference to Fig. 9. Fig. 9 is a hardware configuration diagram of the omnidirectional imaging device. In the following, the omnidirectional imaging device 1 is an omnidirectional (all-directional) imaging device capable of imaging 4π radians using two imaging elements, but the number of imaging elements may be two or more. In addition, the device does not necessarily need to be dedicated to omnidirectional imaging, and a normal digital camera, a smartphone, or the like may be provided with an omnidirectional imaging unit as a retrofit to have substantially the same functions as the omnidirectional imaging device 1.

図9に示されているように、全天球撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120、及び端子121によって構成されている。 As shown in FIG. 9, the omnidirectional imaging device 1 is composed of an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, an SRAM (Static Random Access Memory) 113, a DRAM (Dynamic Random Access Memory) 114, an operation unit 115, a network I/F 116, a communication unit 117, an antenna 117a, an electronic compass 118, a gyro sensor 119, an acceleration sensor 120, and a terminal 121.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Of these, the imaging unit 101 includes wide-angle lenses (so-called fisheye lenses) 102a and 102b each having an angle of view of 180° or more for forming a hemispherical image, and two imaging elements 103a and 103b provided corresponding to each wide-angle lens. The imaging elements 103a and 103b include an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor that converts the optical image by the fisheye lenses 102a and 102b into image data of an electrical signal and outputs it, a timing generation circuit that generates horizontal or vertical synchronization signals and pixel clocks for the image sensors, and a group of registers in which various commands and parameters necessary for the operation of the imaging elements are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。 The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I/F bus. On the other hand, the imaging elements 103a and 103b of the imaging unit 101 are connected to the imaging control unit 105 via a serial I/F bus (such as an I2C bus). The image processing unit 104, the imaging control unit 105, and the sound processing unit 109 are connected to the CPU 111 via the bus 110. In addition, the ROM 112, the SRAM 113, the DRAM 114, the operation unit 115, the network I/F 116, the communication unit 117, and the electronic compass 118 are also connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているような正距円筒射影画像のデータを作成する。 The image processing unit 104 takes in the image data output from the image sensors 103a and 103b via the parallel I/F bus, performs a predetermined process on each piece of image data, and then synthesizes the image data to create equirectangular projection image data as shown in Figure 3(c).

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 The imaging control unit 105 generally sets commands and the like in the registers of the imaging elements 103a and 103b using the I2C bus, with the imaging control unit 105 acting as a master device and the imaging elements 103a and 103b acting as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to retrieve status data and the like from the registers of the imaging elements 103a and 103b, and send it to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。全天球撮影装置1によっては、ディスプレイ(例えば、スマートフォン5のディスプレイ517)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/秒)によって連続して行われる。 The imaging control unit 105 also instructs the imaging elements 103a and 103b to output image data when the shutter button of the operation unit 115 is pressed. Some omnidirectional imaging devices 1 have a preview display function or a function corresponding to video display on a display (e.g., the display 517 of the smartphone 5). In this case, the image data is output from the imaging elements 103a and 103b continuously at a predetermined frame rate (frames/second).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、全天球撮影装置1にはディスプレイが設けられていないが、表示部を設けてもよい。 The imaging control unit 105 also functions as a synchronization control means that cooperates with the CPU 111 to synchronize the output timing of image data from the imaging elements 103a and 103b, as described below. Note that in this embodiment, the omnidirectional imaging device 1 is not provided with a display, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 via the I/F bus and performs a predetermined process on the sound data.

CPU111は、全天球撮影装置1の全体の動作を制御すると共に必要な処理を実行する。なお、CPU111は、単一でも複数でもよい。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 The CPU 111 controls the overall operation of the omnidirectional imaging device 1 and executes necessary processing. There may be a single CPU 111 or multiple CPUs 111. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and DRAM 114 are work memories that store programs executed by the CPU 111 and data in the middle of processing. In particular, the DRAM 114 stores image data in the middle of processing by the image processing unit 104 and data of a processed equirectangular projection image.

操作部115は、シャッターボタン115aなどの操作ボタンの総称である。ユーザは操作部115を操作することで、種々の撮影モードや撮影条件などを入力する。 The operation unit 115 is a general term for operation buttons such as the shutter button 115a. The user operates the operation unit 115 to input various shooting modes, shooting conditions, and the like.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してスマートフォン5等の外部端末(装置)に送信されたりする。 The network I/F 116 is a general term for an interface circuit (such as a USB I/F) with external media such as an SD card or a personal computer. The network I/F 116 may be wireless or wired. The data of the equirectangular projection image stored in the DRAM 114 is recorded on external media via the network I/F 116, or transmitted to an external terminal (device) such as a smartphone 5 via the network I/F 116 as necessary.

通信部117は、全天球撮影装置1に設けられたアンテナ117aを介して、Wi-Fi、NFC、Bluetooth等の近距離無線通信技術によって、スマートフォン5等の外部端末(装置)と通信を行う。この通信部117によっても、正距円筒射影画像のデータをスマートフォン5等の外部端末(装置)に送信することができる。 The communication unit 117 communicates with an external terminal (device) such as the smartphone 5 by using a short-range wireless communication technology such as Wi-Fi, NFC, or Bluetooth via an antenna 117a provided in the omnidirectional imaging device 1. The communication unit 117 can also transmit data of the equirectangular projection image to an external terminal (device) such as the smartphone 5.

電子コンパス118は、地球の磁気から全天球撮影装置1の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。 The electronic compass 118 calculates the direction of the omnidirectional imaging device 1 from the Earth's magnetism and outputs the direction information. This direction information is an example of related information (metadata) according to Exif, and is used for image processing such as image correction of the captured image. The related information also includes data such as the capture date and time of the image and the data size of the image data.

ジャイロセンサ119は、全天球撮影装置1の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。 The gyro sensor 119 is a sensor that detects changes in angle (roll angle, pitch angle, yaw angle) that accompany the movement of the omnidirectional imaging device 1. The change in angle is an example of related information (metadata) according to Exif, and is used for image processing such as image correction of captured images.

加速度センサ120は、3軸方向の加速度を検出するセンサである。全天球撮影装置1は、加速度センサ120が検出した加速度に基づいて、自装置(全天球撮影装置1)の姿勢(重力方向に対する角度)を算出する。全天球撮影装置1に、ジャイロセンサ119と加速度センサ120の両方が設けられることによって、画像補正の精度が向上する。 The acceleration sensor 120 is a sensor that detects acceleration in three axial directions. The omnidirectional imaging device 1 calculates the attitude (angle with respect to the direction of gravity) of its own device (the omnidirectional imaging device 1) based on the acceleration detected by the acceleration sensor 120. By providing the omnidirectional imaging device 1 with both the gyro sensor 119 and the acceleration sensor 120, the accuracy of image correction is improved.

端子121は、Micro USB用の凹状の端子である。 Terminal 121 is a concave terminal for Micro USB.

<仲介端末のハードウェア構成>
次に、図10を用いて、仲介端末3のハードウェア構成を説明する。なお、図10は、無線通信機能を有したクレードルの場合の仲介端末3のハードウェア構成図である。
<Hardware configuration of the intermediary terminal>
Next, the hardware configuration of the intermediary terminal 3 will be described with reference to Fig. 10. Fig. 10 is a diagram showing the hardware configuration of the intermediary terminal 3 in the case of a cradle having a wireless communication function.

図10に示されているように、仲介端末3は、仲介端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305を備えている。 As shown in FIG. 10, the intermediary terminal 3 includes a CPU 301 that controls the overall operation of the intermediary terminal 3, a ROM 302 that stores basic input/output programs, a RAM 303 that is used as a work area for the CPU 301, an EEPROM (Electrically Erasable and Programmable ROM) 304 that reads or writes data under the control of the CPU 301, and a CMOS sensor 305 that serves as an imaging element that captures an image of a subject and obtains image data under the control of the CPU 301.

なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。 The EEPROM 304 stores the operating system (OS) executed by the CPU 301, other programs, and various data. A CCD sensor may be used instead of the CMOS sensor 305.

更に、仲介端末3は、アンテナ313a、このアンテナ313aを利用して無線通信信号により、通信ネットワーク100を介して画像管理システム7と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって仲介端末3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。 The intermediary terminal 3 further includes an antenna 313a, a communication unit 313 that uses the antenna 313a to communicate with the image management system 7 via the communication network 100 using wireless communication signals, a GPS receiving unit 314 that receives GPS signals containing the position information (latitude, longitude, and altitude) of the intermediary terminal 3 via a GPS (Global Positioning Systems) satellite or an IMES (Indoor Messaging System) as an indoor GPS, and bus lines 310 such as an address bus and a data bus for electrically connecting the above-mentioned units.

<スマートフォンのハードウェア構成>
次に、図11を用いて、スマートフォンのハードウェアについて説明する。図11は、スマートフォンのハードウェア構成図である。図11に示されているように、スマートフォン5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、撮像素子I/F513a、加速度・方位センサ506、メディアI/F508、GPS受信部509を備えている。
<Hardware configuration of smartphone>
Next, the hardware of the smartphone will be described with reference to Fig. 11. Fig. 11 is a hardware configuration diagram of the smartphone. As shown in Fig. 11, the smartphone 5 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM 504, a CMOS sensor 505, an image sensor I/F 513a, an acceleration/orientation sensor 506, a media I/F 508, and a GPS receiver 509.

これらのうち、CPU501は、スマートフォン5全体の動作を制御する。なお、CPU501は、単一でも複数でもよい。ROM502は、CPU501やIPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ505は、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。撮像素子I/F513aは、CMOSセンサ512の駆動を制御する回路である。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。 Of these, the CPU 501 controls the overall operation of the smartphone 5. The CPU 501 may be single or multiple. The ROM 502 stores the CPU 501 and programs used to drive the CPU 501, such as an IPL (Initial Program Loader). The RAM 503 is used as a work area for the CPU 501. The EEPROM 504 reads or writes various data, such as smartphone programs, under the control of the CPU 501. The CMOS sensor 505 captures an image of a subject (mainly a self-portrait) under the control of the CPU 501 to obtain image data. The image sensor I/F 513a is a circuit that controls the operation of the CMOS sensor 512. The acceleration/direction sensor 506 is a variety of sensors, such as an electronic magnetic compass, a gyrocompass, and an acceleration sensor, that detect geomagnetism. The media I/F 508 controls the reading or writing (storage) of data from the recording media 507, such as a flash memory. The GPS receiver 509 receives GPS signals from GPS satellites.

また、スマートフォン5は、遠距離通信回路511、アンテナ511a、CMOSセンサ512、撮像素子I/F513b、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519のアンテナ519a、及びタッチパネル521を備えている。 The smartphone 5 also includes a long-distance communication circuit 511, an antenna 511a, a CMOS sensor 512, an image sensor I/F 513b, a microphone 514, a speaker 515, an audio input/output I/F 516, a display 517, an external device connection I/F 518, a short-distance communication circuit 519, an antenna 519a of the short-distance communication circuit 519, and a touch panel 521.

これらのうち、遠距離通信回路511は、インターネット等の通信ネットワークを介して、他の機器と通信する回路である。CMOSセンサ512は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513bは、CMOSセンサ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、Wi-Fi、NFC、Bluetooth等の通信回路である。タッチパネル521は、利用者がディスプレイ517を押下することで、スマートフォン5を操作する入力手段の一種である。 Among these, the long-distance communication circuit 511 is a circuit that communicates with other devices via a communication network such as the Internet. The CMOS sensor 512 is a type of built-in imaging means that captures an image of a subject and obtains image data under the control of the CPU 501. The image sensor I/F 513b is a circuit that controls the drive of the CMOS sensor 512. The microphone 514 is a type of built-in sound collection means that inputs sound. The sound input/output I/F 516 is a circuit that processes the input/output of sound signals between the microphone 514 and the speaker 515 under the control of the CPU 501. The display 517 is a type of display means such as liquid crystal or organic EL that displays an image of a subject, various icons, etc. The external device connection I/F 518 is an interface for connecting various external devices. The short-distance communication circuit 519 is a communication circuit such as Wi-Fi, NFC, Bluetooth, etc. The touch panel 521 is a type of input means that allows a user to operate the smartphone 5 by pressing the display 517.

また、スマートフォン5は、バスライン510を備えている。バスライン510は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The smartphone 5 also includes a bus line 510. The bus line 510 is an address bus, a data bus, etc., for electrically connecting each component such as the CPU 501.

<画像管理システムのハードウェア構成>
次に、図12を用いて、画像管理システムのハードウェア構成について説明する。図12は、画像管理システムのハードウェア構成図である。
<Hardware configuration of image management system>
Next, the hardware configuration of the image management system will be described with reference to Fig. 12. Fig. 12 is a diagram showing the hardware configuration of the image management system.

図12は、画像管理システム7のハードウェア構成図である。図12に示されているように、画像管理システム7は、コンピュータによって構築されており、図12に示されているように、CPU701、ROM702、RAM703、HD704、HDD(Hard Disk Drive)コントローラ705、ディスプレイ708、メディアI/F707、ネットワークI/F709、データバス710、キーボード711、マウス712、及びDVD-RW(Digital Versatile Disk Rewritable)ドライブ714を備えている。 Figure 12 is a hardware configuration diagram of the image management system 7. As shown in Figure 12, the image management system 7 is constructed by a computer, and as shown in Figure 12, it has a CPU 701, a ROM 702, a RAM 703, a HD 704, a HDD (Hard Disk Drive) controller 705, a display 708, a media I/F 707, a network I/F 709, a data bus 710, a keyboard 711, a mouse 712, and a DVD-RW (Digital Versatile Disk Rewritable) drive 714.

これらのうち、CPU701は、画像管理システム7全体の動作を制御する。ROM702は、IPL等のCPU701の駆動に用いられるプログラムを記憶する。RAM703は、CPU701のワークエリアとして使用される。HD704は、プログラム等の各種データを記憶する。HDDコントローラ705は、CPU701の制御にしたがってHD704に対する各種データの読み出し又は書き込みを制御する。ディスプレイ708は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。メディアI/F707は、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御する。ネットワークI/F709は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。バスライン710は、図12に示されているCPU701等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Of these, the CPU 701 controls the operation of the entire image management system 7. The ROM 702 stores programs used to drive the CPU 701, such as IPL. The RAM 703 is used as a work area for the CPU 701. The HD 704 stores various data such as programs. The HDD controller 705 controls the reading or writing of various data from the HD 704 according to the control of the CPU 701. The display 708 displays various information such as a cursor, menu, window, character, or image. The media I/F 707 controls the reading or writing (storage) of data from the recording medium 706, such as a flash memory. The network I/F 709 is an interface for data communication using the communication network 100. The bus line 710 is an address bus, data bus, etc. for electrically connecting each component such as the CPU 701 shown in FIG. 12.

また、キーボード711は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。マウス712は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD-RWドライブ714は、着脱可能な記録媒体の一例としてのDVD-RW713に対する各種データの読み出し又は書き込みを制御する。なお、DVD-RWに限らず、DVD-RやBlu-ray Disc(ブルーレイディスク)等であってもよい。 The keyboard 711 is a type of input means equipped with multiple keys for inputting characters, numbers, various instructions, etc. The mouse 712 is a type of input means for selecting and executing various instructions, selecting a processing target, moving the cursor, etc. The DVD-RW drive 714 controls the reading and writing of various data from the DVD-RW 713, which is an example of a removable recording medium. Note that the medium is not limited to a DVD-RW, and may be a DVD-R, Blu-ray Disc, etc.

〔実施形態の機能構成〕
次に、図13乃至図16を用いて、本実施形態の機能構成について説明する。なお、仲介端末3は、全天球撮影装置1と画像管理システム7とも通信を仲介するための送受信部が主機能であるため、説明を省略する。
[Functional configuration of the embodiment]
Next, the functional configuration of this embodiment will be described with reference to Fig. 13 to Fig. 16. Note that the main function of the intermediary terminal 3 is a transmission/reception unit for intermediating communication between the omnidirectional imaging device 1 and the image management system 7, and therefore a description thereof will be omitted.

<全天球撮影装置の機能構成>
図13は、本実施形態の全天球撮影装置の機能ブロック図である。全天球撮影装置1は、送受信部11、部分画像パラメータ作成部12、撮影制御部13、撮像部14a,14b、画像処理部15、一時記憶部16、低精細変更部17、射影方式変換部18、結合部19、動画符号化部20a、静止画符号化部20b、受付部22、判断部25、及び静止画記憶部20を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された全天球撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。また、全天球撮影装置1は、SRAM113によって実現された閾値管理部1001を有している。
<Functional configuration of the spherical imaging device>
Fig. 13 is a functional block diagram of the omnidirectional imaging device of this embodiment. The omnidirectional imaging device 1 includes a transmitting/receiving unit 11, a partial image parameter generating unit 12, an imaging control unit 13, imaging units 14a and 14b, an image processing unit 15, a temporary storage unit 16, a low-resolution changing unit 17, a projection method conversion unit 18, a combining unit 19, a moving image encoding unit 20a, a still image encoding unit 20b, a receiving unit 22, a determining unit 25, and a still image storage unit 20. Each of these units is a function or means realized by operating any of the components shown in Fig. 9 by an instruction from the CPU 111 according to a program for the omnidirectional imaging device expanded from the SRAM 113 onto the DRAM 114. The omnidirectional imaging device 1 also includes a threshold management unit 1001 realized by the SRAM 113.

(水平垂直画角閾値情報)
閾値管理部1001には、図16(a)に示されているように、水平垂直画角閾値情報が、例えば工場出荷前から記憶されている。なお、図16(a)は水平垂直画角閾値情報の概念図、図16(b)は水平画角と垂直画角の説明図である。なお、図16(a)は、水平垂直画角閾値情報は、テーブル形式で表されているが、これに限らず、テーブル形式で表すようにしなくてもよい。
(Horizontal and vertical angle of view threshold information)
As shown in Fig. 16A, the threshold management unit 1001 stores horizontal and vertical angle of view threshold information, for example, before shipping from a factory. Fig. 16A is a conceptual diagram of the horizontal and vertical angle of view threshold information, and Fig. 16B is an explanatory diagram of the horizontal angle of view and the vertical angle of view. Fig. 16A shows the horizontal and vertical angle of view threshold information in a table format, but the present invention is not limited to this and does not have to be shown in a table format.

図16(a)に示されているように、水平垂直画角閾値情報は、全天球撮影装置1の最大撮影解像度(横W×縦H)の候補の列、利用者(閲覧者)によって設定されるスマートフォン5での最大表示解像度(横W’×縦H’)の候補の列、全天球撮影装置1から画像管理システム7を介してスマートフォン5に送信するか否かの判断に使用される画像の水平画角(AH)×垂直画角(AV)の各閾値が関連付けて管理されている。 As shown in FIG. 16(a), the horizontal and vertical angle of view threshold information is managed in association with each of the thresholds of the horizontal angle of view (AH) x vertical angle of view (AV) of the image used to determine whether to transmit the image from the omnidirectional imaging device 1 to the smartphone 5 via the image management system 7, a row of candidates for the maximum imaging resolution (W x H) of the omnidirectional imaging device 1, a row of candidates for the maximum display resolution (W' x H') of the smartphone 5 set by the user (viewer), and the horizontal angle of view (AH) x vertical angle of view (AV) of the image.

ここで、図16(b)を用いて、水平画角(AH)と垂直画角(AV)について説明する。なお、図16(b)において、中心点CP、方位角「aa」、仰角「ea」は、図7と同じであるため、説明を省略する。全天球画像(動画、静止画)においては矩形の部分画像(動画、静止画)の一フレーム全領域のサイズを、撮影するカメラ(ここでは、仮想カメラIC)の方向で表すことが可能である。部分画像の横の長さを仮想カメラICからの水平画角(AH)で表し、部分画像の縦の長さを仮想カメラICからの水平画角(AH)で表すことができる。 Now, the horizontal angle of view (AH) and the vertical angle of view (AV) will be described with reference to FIG. 16(b). In FIG. 16(b), the center point CP, azimuth angle "aa", and elevation angle "ea" are the same as in FIG. 7, and therefore will not be described. In a celestial sphere image (video, still image), the size of the entire area of one frame of a rectangular partial image (video, still image) can be expressed in terms of the direction of the camera (here, virtual camera IC) that captures the image. The horizontal length of the partial image can be expressed by the horizontal angle of view (AH) from the virtual camera IC, and the vertical length of the partial image can be expressed by the horizontal angle of view (AH) from the virtual camera IC.

水平画角(AH)と垂直画角(AV)は変換元の解像度と変換後の解像度の差がなくなる画角で、判断部25の判断に用いられる。この画角は次の(式1)及び(式2)で求めることができる。 The horizontal angle of view (AH) and vertical angle of view (AV) are angles of view at which there is no difference between the original resolution and the converted resolution, and are used for the judgment of the judgment unit 25. These angles of view can be calculated using the following (Equation 1) and (Equation 2).

AH = (360 / W) * W’ ・・・(式1)
AV = (180 / H) * (H’ / 2) ・・・(式2)
なお、全天球撮影装置1の最大撮影解像度が(W:4000,H:2000)であっても、全天球撮影装置1は図16に示されている各設定パターンを示す水平垂直画角閾値情報を管理している。但し、この場合、全天球撮影装置1は、図16において、設定1と設定2のパターンしか参照しない。同じく、利用者によって設定されるスマートフォン5での最大表示解像度が(W’:1920,H’:1080)であっても、全天球撮影装置1は図16に示されている各設定パターンを示す水平垂直画角閾値情報を管理している。
AH = (360 / W) * W' ... (Equation 1)
AV = (180 / H) * (H' / 2) ... (Equation 2)
Even if the maximum shooting resolution of the omnidirectional imaging device 1 is (W: 4000, H: 2000), the omnidirectional imaging device 1 manages horizontal and vertical angle of view threshold information indicating each setting pattern shown in Fig. 16. However, in this case, the omnidirectional imaging device 1 refers to only the patterns of setting 1 and setting 2 in Fig. 16. Similarly, even if the maximum display resolution of the smartphone 5 set by the user is (W': 1920, H': 1080), the omnidirectional imaging device 1 manages horizontal and vertical angle of view threshold information indicating each setting pattern shown in Fig. 16.

例えば、全天球撮影装置1の最大撮影解像度の横×縦が4000×2000の場合であって、利用者によってスマートフォン5から全天球撮影装置1に対して、横×縦が1920×1080の解像度の画像(動画、静止画)のデータを要求するように設定されていた場合の条件(設定1)下では、判断部25は、指示データによって要求された部分画像の画角が横172.8°かつ縦48.6°で示される閾値の未満の場合に、射影方式変換部18に超高精細な静止画像のデータへの射影方式変換を行わせないと判断する。 For example, under a condition (setting 1) in which the maximum shooting resolution of the omnidirectional imaging device 1 is 4000 x 2000 in width x height and the user has set the smartphone 5 to request image (video, still image) data with a resolution of 1920 x 1080 in width x height from the omnidirectional imaging device 1, the determination unit 25 determines not to cause the projection method conversion unit 18 to perform projection method conversion to ultra-high definition still image data if the angle of view of the partial image requested by the instruction data is less than the threshold value indicated by 172.8° in width and 48.6° in height.

(全天球撮影装置の各機能構成)
次に、図13を用いて、全天球撮影装置1の各機能構成について更に詳細に説明する。
(Functional configuration of the spherical imaging device)
Next, each functional component of the omnidirectional imaging device 1 will be described in more detail with reference to FIG.

送受信部11は、全天球撮影装置1の外部に対して画像データを送信したり、外部からデータを受信したりする。例えば、画像データとしては、超高精細の部分静止画、高精細の部分動画、低精細の全体動画の各データがある。また、送受信部11は、後述の指示データを受信したり、後述の部分画像パラメータを送信したりする。 The transmitting/receiving unit 11 transmits image data to the outside of the omnidirectional imaging device 1 and receives data from the outside. For example, the image data includes data for an ultra-high definition partial still image, a high definition partial video, and a low definition full video. The transmitting/receiving unit 11 also receives instruction data (described below) and transmits partial image parameters (described below).

なお、本実施形態では、3段階の精細度の画像が取り扱われるため、最も精細度が高い画像、次に精細度が高い画像、最も精細度が低い画像について、便宜的にそれぞれ「超高精細」、「高精細」、「低精細」と示して区別する。よって、例えば、本実施形態の「超高精細」が、一般的な超高精細を意味するものではない。 In this embodiment, since images of three levels of resolution are handled, the highest resolution image, the next highest resolution image, and the lowest resolution image are conveniently distinguished by being referred to as "ultra-high definition," "high definition," and "low definition," respectively. Therefore, for example, "ultra-high definition" in this embodiment does not mean general ultra-high definition.

部分画像パラメータ作成部12は、スマートフォン5から画像管理システム7を介して送られて来た指示データに基づいて部分画像パラメータを作成する。この指示データは、スマートフォン5の受付部52で利用者の操作によって受け付けられ、後述の重畳領域を特定するための指示を示すデータである。 The partial image parameter creation unit 12 creates partial image parameters based on instruction data sent from the smartphone 5 via the image management system 7. This instruction data is received by the reception unit 52 of the smartphone 5 through a user's operation, and is data indicating an instruction for identifying the overlapping area described below.

撮影制御部13は、撮像部14a,14bの画像データの出力タイミングの同期をとる指示を出力する。 The imaging control unit 13 outputs instructions to synchronize the output timing of image data from the imaging units 14a and 14b.

撮像部14a,14bは、それぞれ、撮影制御部13からの指示に従って被写体等を撮像し、例えば、図3(a),(b)に示されているように、全天球画像データの元になる半球画像データを出力する。 The imaging units 14a and 14b each capture an image of a subject or the like in accordance with instructions from the imaging control unit 13, and output hemispherical image data that is the basis of the omnidirectional image data, for example, as shown in Figures 3(a) and (b).

画像処理部15は、撮影部14a,14bで得られた2つの半球画像データを正距円筒射影方式の画像である正距円筒射影画像のデータに合成変換する。 The image processing unit 15 synthesizes and converts the two hemispherical image data obtained by the image capturing units 14a and 14b into equirectangular projection image data, which is an image obtained using the equirectangular projection method.

一時記憶部16は、画像処理部15で合成変換された正距円筒射影画像のデータを一時的に記憶するバッファの役割を果たす。なお、この状態の正距円筒射影画像は超高精細である。 The temporary storage unit 16 acts as a buffer that temporarily stores the data of the equirectangular projection image that has been synthesized and converted by the image processing unit 15. Note that the equirectangular projection image in this state is ultra-high definition.

低精細変更部17は、送受信部11で受信されたスマートフォン5からの指示データに従って、正距円筒射影画像を画像の縮小等により、超高精細画像(ここでは動画)から低精細画像(ここでは、動画)に変更する。これにより、低精細な正距円筒射影画像(ここでは、全体動画)が生成される。なお、低精細変更部17は、変更手段の一例である。 The low-resolution change unit 17 changes the equirectangular projection image from an ultra-high resolution image (here, a video) to a low-resolution image (here, a video) by reducing the image or the like in accordance with instruction data from the smartphone 5 received by the transmission/reception unit 11. This generates a low-resolution equirectangular projection image (here, a full video). The low-resolution change unit 17 is an example of a change means.

射影方式変換部18は、送受信部11で受信した指示データ及び動画データ要求に従って、即ち、全体画像の一部分の画像である部分画像の方向、画角及びアスペクト、並びに画像管理システム7を介してスマートフォン5へ送信する画像データのサイズに従って、正距円筒射影方式を透視射影方式に射影方式変換する。このように部分動画データが要求された場合、射影方式変換部18は、一時記憶部16に記憶されている超高精細な全体画像よりも精細度(又は解像度)が低いが、低精細変更部17によって変更されることで得られた低精細画像よりも精細度(又は解像度)が高い高精細な状態の部分画像(ここでは、部分動画)を生成する。 The projection method conversion unit 18 converts the projection method from equirectangular projection to perspective projection according to the instruction data and video data request received by the transmission/reception unit 11, i.e., according to the direction, angle of view, and aspect of the partial image, which is an image that is a part of the entire image, and the size of the image data to be transmitted to the smartphone 5 via the image management system 7. When partial video data is requested in this manner, the projection method conversion unit 18 generates a partial image (here, a partial video) in a high-definition state that has a lower definition (or resolution) than the ultra-high definition entire image stored in the temporary storage unit 16, but a higher definition (or resolution) than the low-definition image obtained by the change made by the low-definition change unit 17.

更に、射影方式変換部18は、送受信部11で受信した指示データ及び静止画データ要求に従って、即ち、全体画像の一部分の画像である部分画像の方向、画角及びアスペクト、並びに画像管理システム7を介してスマートフォン5へ送信する画像データのサイズに従って、正距円筒射影方式を透視射影方式に射影方式変換することもできる。このように部分静止画データが要求された場合、射影方式変換部18は、一時記憶部16に記憶されている超高精細な状態のままで部分画像(ここでは、部分静止画)を生成する。 Furthermore, the projection method conversion unit 18 can also convert the projection method from equirectangular projection to perspective projection according to the instruction data and still image data request received by the transmission/reception unit 11, i.e., according to the direction, angle of view, and aspect of the partial image, which is an image that is a part of the entire image, and the size of the image data to be transmitted to the smartphone 5 via the image management system 7. When partial still image data is requested in this way, the projection method conversion unit 18 generates a partial image (here, a partial still image) while keeping the ultra-high definition state stored in the temporary storage unit 16.

以上より、低精細変更部17と射影方式変更部18の相違点は、射影方式変換を実行するか否かだけでなく、低精細変更部17から出力される全体画像(ここでは、全体動画)データは、射影方式変換部18から出力される部分画像(ここでは、部分動画及び部分静止画)データよりも精細度(又は解像度)が低い。即ち、射影方式変換部18から出力される部分画像データは、低精細変更部17から出力される全体画像データよりも精細度(又は解像度)が高い。 As described above, the difference between the low-definition change unit 17 and the projection method change unit 18 is not only whether or not projection method conversion is performed, but also that the overall image (here, overall video) data output from the low-definition change unit 17 has a lower definition (or resolution) than the partial image (here, partial video and partial still image) data output from the projection method conversion unit 18. In other words, the partial image data output from the projection method conversion unit 18 has a higher definition (or resolution) than the overall image data output from the low-definition change unit 17.

ここで、超高精細の画像として、例えば、解像度が、2K、4K、8Kのいずれかの正距離円筒射影画像が出力される場合について説明する。これらの超高精細の正距離円筒射影画像のデータに基づき、射影方式変換部18から出力される「部分動画」データは、解像度が、1.5K、3K、6Kのいずれかの状態である。また、これらの超高精細の正距離円筒射影画像のデータに基づき、射影方式変換部18から出力される「部分静止画」データは、解像度が、2K、4K、8Kのいずれかのままの状態である。一方、低精細変更部17から出力される「全体動画」データは、解像度が、1K、2K、4Kのいずれかの状態である。 Here, we will explain the case where, for example, a positive distance cylindrical projection image with a resolution of 2K, 4K, or 8K is output as an ultra-high definition image. Based on the data of these ultra-high definition positive distance cylindrical projection images, the "partial video" data output from the projection method conversion unit 18 has a resolution of 1.5K, 3K, or 6K. Based on the data of these ultra-high definition positive distance cylindrical projection images, the "partial still image" data output from the projection method conversion unit 18 has a resolution of 2K, 4K, or 8K. On the other hand, the "full video" data output from the low definition change unit 17 has a resolution of 1K, 2K, or 4K.

結合部19は、低精細変更部17で変更された低精細な全体動画の各フレームと、射影方式変換部18で変換された高精細な部分動画の各フレームを、図20に示されているように、縦の解像度を半分に圧縮することで、それぞれのフレームの精細度を下げて一フレームに結合する。これにより、部分動画は、全体動画よりは精細度が高いが、部分静止画よりは精細度が低くなる。このように各フレームの精細度を下げて一フレームにすることで、データ通信量を抑制することができる。更に、結合される2つのフレームは、一時記憶部16に記憶されていた同じ正距円射影画像から生成されているため、結合される2つのフレームを関連付けるためのメタデータ等を利用しなくても、同じタイミングで撮影されて生成された2つのフレームを関連付けることができる。 The combining unit 19 reduces the resolution of each frame of the low-resolution overall video modified by the low-resolution modification unit 17 and the high-resolution partial video converted by the projection method conversion unit 18 by compressing the vertical resolution to half, as shown in FIG. 20, to combine them into one frame. As a result, the partial video has higher resolution than the overall video, but lower resolution than the partial still image. By reducing the resolution of each frame into one frame in this way, the amount of data communication can be reduced. Furthermore, since the two frames to be combined are generated from the same equidistant circular projection image stored in the temporary storage unit 16, two frames captured and generated at the same time can be associated without using metadata or the like for associating the two frames to be combined.

動画符号化部20aは、結合部19によって結合された全体動画及び部分動画のフレームデータを符号化する。静止画符号化部20bは、部分静止画のデータを符号化する。 The video encoding unit 20a encodes the frame data of the entire video and the partial video combined by the combining unit 19. The still image encoding unit 20b encodes the data of the partial still images.

受付部22は、利用者が各種要求を行う際に全天球撮影装置の操作部115に対して行う操作を受け付ける。 The reception unit 22 receives operations performed on the operation unit 115 of the spherical imaging device when the user makes various requests.

判断部25は、全体動画の一部の領域である部分画像の一フレームの全領域が、閾値管理部1001で管理されている水平垂直画角閾値情報(図16参照)の所定の閾値で示される所定領域よりも小さいか否かを判断する。そして、小さい場合には、判断部25は、射影方式変換部18に、超高精細な全体動画データから超高精細な部分静止画のデータを生成させないようにする。また、大きい場合には、判断部25は、射影方式変換部18に、超高精細な全体動画データから超高精細な部分静止画のデータを生成させるようにする。 The determination unit 25 determines whether the entire area of one frame of a partial image, which is a part of the entire video, is smaller than a predetermined area indicated by a predetermined threshold of the horizontal and vertical angle of view threshold information (see FIG. 16) managed by the threshold management unit 1001. If it is smaller, the determination unit 25 prevents the projection method conversion unit 18 from generating ultra-high definition partial still image data from the ultra-high definition entire video data. If it is larger, the determination unit 25 causes the projection method conversion unit 18 to generate ultra-high definition partial still image data from the ultra-high definition entire video data.

例えば、全天球撮影装置1の最大撮影解像度の横×縦が4000×2000の場合であって、利用者によってスマートフォン5から全天球撮影装置1に対して、スマートフォン5における最大表示解像度の横×縦が1920×1080に設定されていた場合の条件(設定1)下で、指示データによって要求されている画像の横の画角が172.8°未満かつ縦の画角が48.6°未満の場合には、判断部25は、射影方式変換部18に超高精細な静止画のデータに射影方式変換させないと判断する。このように、スマートフォン5から要求された画像の解像度(精細度)が低い場合には、全天球撮影装置1は、高精細な部分動画のデータを送っても、又は超高精細な部分静止画のデータを送っても、利用者はスマートフォン5で高精細な部分動画と超高精細な部分静止画の区別を付けづらいため、全天球撮影装置1は、わざわざ超高精細な部分静止画のデータを送る必要はないからである。なお、閾値の範囲に示した「未満」は「以下」としてもよい。 For example, when the maximum shooting resolution of the omnidirectional shooting device 1 is 4000×2000 in width×height, and the maximum display resolution of the smartphone 5 is set to 1920×1080 in width×height by the user from the smartphone 5 to the omnidirectional shooting device 1 (setting 1), if the horizontal angle of view of the image requested by the instruction data is less than 172.8° and the vertical angle of view is less than 48.6°, the determination unit 25 determines that the projection method conversion unit 18 will not convert the projection method to ultra-high definition still image data. In this way, when the resolution (definition) of the image requested by the smartphone 5 is low, even if the omnidirectional shooting device 1 sends data of a high-definition partial video or data of an ultra-high definition partial still image, the user will find it difficult to distinguish between a high-definition partial video and an ultra-high definition partial still image on the smartphone 5, so the omnidirectional shooting device 1 does not need to bother to send data of an ultra-high definition partial still image. Note that "less than" in the threshold range can also be changed to "equal to or less."

一方、上記と同じ条件(設定1)下で、指示データによって要求されている画像の横の画角が172.8°超または縦の画角が48.6°超の場合には、判断部25は、射影方式変換部18に超高精細な静止画のデータに射影方式変換させると判断する。この場合、スマートフォン5が、高精細な部分動画を超高精細な静止画に切り替えて表示することで、利用者(閲覧者)は注目する領域をよりはっきりと(鮮明に)閲覧することができるため、入念に閲覧することができる。なお、閾値の範囲に示した「超」は「以上」としてもよい。 On the other hand, under the same conditions as above (setting 1), if the horizontal angle of view of the image requested by the instruction data exceeds 172.8° or the vertical angle of view exceeds 48.6°, the judgment unit 25 judges that the projection method conversion unit 18 should perform projection method conversion to ultra-high definition still image data. In this case, the smartphone 5 switches the high definition partial video to an ultra-high definition still image for display, allowing the user (viewer) to view the area of interest more clearly (crisply), thereby enabling careful viewing. Note that the word "ultra" shown in the threshold range may be replaced with "above or equal to."

<スマートフォンの機能構成>
図14は、本実施形態のスマートフォンの機能ブロック図である。スマートフォン5は、送受信部51、受付部52、動画復号化部53a、静止画符号化部53b、重畳領域作成部54、画像作成部55、画像重畳部56、射影変換部57、及び表示制御部58を有している。これら各部は、図11に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたスマートフォン用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of smartphone>
Fig. 14 is a functional block diagram of the smartphone of this embodiment. The smartphone 5 has a transmission/reception unit 51, a reception unit 52, a moving image decoding unit 53a, a still image encoding unit 53b, a superimposition area creation unit 54, an image creation unit 55, an image superimposition unit 56, a projective transformation unit 57, and a display control unit 58. Each of these units is a function or means realized by any of the components shown in Fig. 11 operating in response to an instruction from the CPU 501 in accordance with the smartphone program expanded from the EEPROM 504 onto the RAM 503.

(スマートフォンの各機能構成)
次に、図14を用いて、スマートフォン5の各機能構成について更に詳細に説明する。
(Smartphone functional configuration)
Next, each functional configuration of the smartphone 5 will be described in more detail with reference to FIG.

送受信部51は、スマートフォン5の外部に対してデータを送信したり、外部からデータを受信したりする。例えば、送受信部51は、全天球撮影装置1の送受信部11から画像データを受信したり、全天球撮影装置1の送受信部11に対して指示データを送信したりする。また、送受信部51は、全天球撮影装置1の送受信部11から送られて来た画像データ(図20に示す全体動画のデータ及び部分動画データ)と部分画像パラメータとを分離する。 The transmitting/receiving unit 51 transmits data to the outside of the smartphone 5 and receives data from the outside. For example, the transmitting/receiving unit 51 receives image data from the transmitting/receiving unit 11 of the omnidirectional imaging device 1 and transmits instruction data to the transmitting/receiving unit 11 of the omnidirectional imaging device 1. The transmitting/receiving unit 51 also separates the image data (the entire video data and partial video data shown in FIG. 20 ) sent from the transmitting/receiving unit 11 of the omnidirectional imaging device 1 from the partial image parameters.

受付部52は、利用者から、部分画像の方向、画角及びアスペクト、並びにスマートフォン5で受信する画像データのサイズの指定操作を受け付ける。また、受付部52は、利用者から、スマートフォン5における最大表示解像度(図16の横W’×縦H’参照)の設定を受け付ける。 The reception unit 52 receives from the user a specification operation for the direction, angle of view, and aspect of the partial image, as well as the size of the image data to be received by the smartphone 5. The reception unit 52 also receives from the user a setting for the maximum display resolution of the smartphone 5 (see width W' × height H' in FIG. 16).

動画復号化部53aは、動画符号化部20aで符号化された低精細な全体動画及び高精細な部分動画の各データを復号化する。静止画復号化部53bは、静止画符号化部20bで符号化された超高精細な部分静止画のデータを復号化する。 The video decoding unit 53a decodes each of the low-definition overall video data and high-definition partial video data encoded by the video encoding unit 20a. The still image decoding unit 53b decodes the ultra-high-definition partial still image data encoded by the still image encoding unit 20b.

重畳領域作成部54は、部分画像パラメータにより指定された重畳領域を作成する。この重畳領域は、全体動画である全天球画像CE上において、部分動画(又は部分静止画)である重畳画像S及びマスク画像Mの重畳位置及び重畳範囲を示している。 The overlapping area creation unit 54 creates an overlapping area specified by the partial image parameters. This overlapping area indicates the overlapping position and overlapping range of the overlapping image S and mask image M, which are partial videos (or partial still images), on the omnidirectional image CE, which is the entire video.

画像作成部55は、重畳領域に従って、重畳画像S及びマスク画像を作成し、低精細な全体画像から全天球画像CEを作成する。 The image creation unit 55 creates a superimposed image S and a mask image according to the superimposed area, and creates a spherical image CE from the low-resolution overall image.

画像重畳部56は、全天球画像CE上の重畳領域に対して、重畳画像S及びマスク画像Mを重畳することで、最終的な全天球画像CEを作成する。 The image overlay unit 56 overlays the overlay image S and the mask image M onto the overlay area on the omnidirectional image CE to create the final omnidirectional image CE.

射影変換部57は、受付部52で受けられた利用者の指示に従って、最終的な全天球画像CEを透視射影方式の画像に変換する。 The projection transformation unit 57 converts the final spherical image CE into a perspective projection image in accordance with the user's instructions received by the reception unit 52.

表示制御部58は、透視射影方式に変換後の画像をディスプレイ517等に表示させる制御を行う。 The display control unit 58 controls the display of the image converted to the perspective projection method on the display 517, etc.

<画像管理システムの機能構成>
図15は、画像管理システムの機能ブロック図である。画像管理システム7は、送受信部71を有している。送受信部71は、図12に示されているネットワークI/Fが、HD704からRAM703上に展開された画像管理システム用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。また、画像管理システム7は、HD704によって実現された記憶部7000を有している。
<Functional configuration of the image management system>
Fig. 15 is a functional block diagram of the image management system. The image management system 7 has a transmission/reception unit 71. The transmission/reception unit 71 is a function or means realized by the network I/F shown in Fig. 12 operating in response to commands from the CPU 701 in accordance with the image management system program loaded from the HD 704 onto the RAM 703. The image management system 7 also has a storage unit 7000 realized by the HD 704.

(画像管理システムの機能構成)
次に、図15を用いて、画像管理システム7の機能構成について更に詳細に説明する。
(Functional configuration of image management system)
Next, the functional configuration of the image management system 7 will be described in more detail with reference to FIG.

送受信部71は、画像管理システム7の外部に対してデータを送信したり、外部からデータを受信したりする。例えば、送受信部71は、全天球撮影装置1の送受信部11から仲介端末3を介して画像データを受信したり、全天球撮影装置1の送受信部11に対して仲介端末3を介して指示データを送信したりする。また、送受信部71は、全天球撮影装置1の送受信部11から仲介端末3を介して送られて来た画像データ(図20に示す全体動画のデータ及び部分動画データ)や部分画像パラメータをスマートフォン5に送信する。更に、全天球撮影装置1の送受信部11から仲介端末3を介して送られて来た超高精細な静止画のデータを記憶部7000に一時的に記憶したり、記憶部7000から超高精細な静止画のデータを読み出してスマートフォン5に送信したりする。 The transmitting/receiving unit 71 transmits data to the outside of the image management system 7 and receives data from the outside. For example, the transmitting/receiving unit 71 receives image data from the transmitting/receiving unit 11 of the omnidirectional shooting device 1 via the intermediary terminal 3, and transmits instruction data to the transmitting/receiving unit 11 of the omnidirectional shooting device 1 via the intermediary terminal 3. The transmitting/receiving unit 71 also transmits image data (the whole video data and the partial video data shown in FIG. 20 ) and partial image parameters transmitted from the transmitting/receiving unit 11 of the omnidirectional shooting device 1 via the intermediary terminal 3 to the smartphone 5. Furthermore, the transmitting/receiving unit 71 temporarily stores the ultra-high definition still image data transmitted from the transmitting/receiving unit 11 of the omnidirectional shooting device 1 via the intermediary terminal 3 in the storage unit 7000, and reads out the ultra-high definition still image data from the storage unit 7000 and transmits it to the smartphone 5.

〔実施形態の処理又は動作〕
続いて、図17乃至図26を用いて、本実施形態の処理又は動作について説明する。本実施形態では、全天球撮影装置1で生成されてから送られて来るデータに係る全体動画及び部分動画をスマートフォン5で再生中に、閲覧者がある部分動画の1シーンをより高精細(つまり超高精細)な静止画で入念に閲覧する場合について説明する。
[Processing or Operation of the Embodiment]
Next, the processing or operation of this embodiment will be described with reference to Fig. 17 to Fig. 26. In this embodiment, a case will be described in which, while an entire video and a partial video related to data generated by and transmitted from the omnidirectional imaging device 1 are being played back on the smartphone 5, a viewer carefully views one scene of a partial video as a still image with higher definition (i.e., ultra-high definition).

<<全体動画及び部分動画の生成及び再生>>
まずは、図17を用いて、全体動画と部分動画の各データの生成及び再生の処理について説明する。図17は、全体動画及び部分動画の各データの生成及び再生の処理を示したシーケンス図である。
<<Creating and playing full videos and partial videos>>
First, the process of generating and playing each data of the entire moving image and the partial moving images will be described with reference to Fig. 17. Fig. 17 is a sequence diagram showing the process of generating and playing each data of the entire moving image and the partial moving images.

図17に示されているように、閲覧者(利用者)がスマートフォン5を操作することで、受付部52が動画の配信サービスを開始する要求を受け付ける(S11)。これにより、次に、スマートフォン5の送受信部51は、画像管理システム7の送受信部71に動画データの要求を送信する(S12)。この際、閲覧者が指定した部分画像パラメータも送信される。なお、送信開始のタイミングに関して、全天球撮影装置1の送受信部11が通信ネットワークの帯域制御などを行ってもよい。この帯域制御を行うことで、より安定してデータを送受信することが可能となる。 As shown in FIG. 17, the viewer (user) operates the smartphone 5, and the reception unit 52 receives a request to start a video distribution service (S11). This causes the transmission/reception unit 51 of the smartphone 5 to transmit a request for video data to the transmission/reception unit 71 of the image management system 7 (S12). At this time, partial image parameters specified by the viewer are also transmitted. Note that the transmission/reception unit 11 of the omnidirectional imaging device 1 may perform bandwidth control of the communication network with respect to the timing of the start of transmission. By performing this bandwidth control, data can be transmitted and received more stably.

次に、画像管理システム7の送受信部71は、仲介端末3の送受信部に対して動画データの要求を転送する(S13)。そして、仲介端末3の送受信部は、全天球撮影装置1の送受信部11に対して、動画データ要求を転送する(S14)。 Next, the transmitting/receiving unit 71 of the image management system 7 transfers the request for video data to the transmitting/receiving unit of the intermediary terminal 3 (S13). Then, the transmitting/receiving unit of the intermediary terminal 3 transfers the request for video data to the transmitting/receiving unit 11 of the omnidirectional imaging device 1 (S14).

次に、全天球撮影装置1は、動画データの生成処理を行う(S15)。このステップS15の処理は、後ほど詳細に説明する(図18乃至図20参照)。 Next, the spherical imaging device 1 performs a process of generating video data (S15). The process of step S15 will be described in detail later (see Figs. 18 to 20).

次に、全天球撮影装置1の送受信部11は、仲介端末31の送受信部に対して、要求に応じた動画データを送信する(S16)。この動画データには、低精細の全体動画及び高精細の部分動画の各データが含まれている。これにより、仲介端末3の送受信部は、画像管理システム7の送受信部71に動画データを転送する(S17)。更に、画像管理システム7の送受信部71は、スマートフォン5の送受信部51に動画データを転送する(S18)。 Next, the transmitting/receiving unit 11 of the omnidirectional imaging device 1 transmits video data in response to the request to the transmitting/receiving unit of the intermediary terminal 31 (S16). This video data includes data for the low-resolution overall video and the high-resolution partial video. As a result, the transmitting/receiving unit of the intermediary terminal 3 transfers the video data to the transmitting/receiving unit 71 of the image management system 7 (S17). Furthermore, the transmitting/receiving unit 71 of the image management system 7 transfers the video data to the transmitting/receiving unit 51 of the smartphone 5 (S18).

次に、スマートフォン5は、動画データの再生処理を行う(S19)。このステップS19の処理は、後ほど詳細に説明する(図21乃至図25参照)。 Next, the smartphone 5 performs a playback process of the video data (S19). The process of step S19 will be described in detail later (see Figures 21 to 25).

<全天球撮影装置の動画生成処理>
次に、図18乃至図20を用いて、上述のステップS15で示した全天球撮影装置の動画データの生成処理について詳細に説明する。図18は、全天球撮影装置が行う画像処理の過程における画像の概念図である。
<Video Generation Process of Omnidirectional Camera>
Next, the generation process of video data by the omnidirectional imaging device shown in step S15 will be described in detail with reference to Fig. 18 to Fig. 20. Fig. 18 is a conceptual diagram of an image in the process of image processing performed by the omnidirectional imaging device.

画像処理部15は、撮影部14a,14bで得られた2つの半球画像データを正距円筒射影方式の画像(ここでは、動画)である正距円筒射影画像のデータに合成変換する(S120)。この変換後のデータは、一旦、超高精細画像の状態のままで一時記憶部16に記憶される。 The image processing unit 15 synthesizes and converts the two hemispherical image data obtained by the image capturing units 14a and 14b into equirectangular projection image data, which is an image (here, a video) using the equirectangular projection method (S120). This converted data is temporarily stored in the temporary storage unit 16 in the state of an ultra-high definition image.

次に、部分画像パラメータ作成部12は、スマートフォン5から送られて来た指示データに基づいて部分画像パラメータを作成する(S130)。 Next, the partial image parameter creation unit 12 creates partial image parameters based on the instruction data sent from the smartphone 5 (S130).

次に、低精細変更部17は、送受信部11で受信されたスマートフォン5からの指示データに従って、超高精細画像から低精細画像に変更する(S140)。これにより、低精細な正距円筒射影画像(ここでは、全体動画)が生成される。 Next, the low-definition change unit 17 changes the ultra-high definition image to a low-definition image in accordance with the instruction data received by the transmission/reception unit 11 from the smartphone 5 (S140). This generates a low-definition equirectangular projection image (here, the whole video).

更に、射影方式変換部18は、送受信部11で受信した指示データに従って、即ち、全体動画の各フレームの一部の領域である部分動画の方向、部分動画のフレームの画角及びアスペクト、並びにスマートフォン5へ送信する動画データのサイズに従って、正距円筒射影方式を透視射影方式に射影方式変換する(S150)。これにより、高精細な状態の部分動画が生成される。 Furthermore, the projection method conversion unit 18 converts the projection method from equirectangular projection to perspective projection in accordance with the instruction data received by the transmission/reception unit 11, i.e., in accordance with the orientation of the partial video, which is a partial area of each frame of the entire video, the angle of view and aspect of the frame of the partial video, and the size of the video data to be transmitted to the smartphone 5 (S150). This generates a high-definition partial video.

次に、結合部19は、低精細な全体動画、高精細な部分動画の各データを結合する(S160)。この結合の処理については、後ほど詳細に説明する(図20参照)。 Next, the combining unit 19 combines the data of the low-resolution overall video and the high-resolution partial video (S160). This combining process will be described in detail later (see FIG. 20).

ここで、図19及び図20を用いて、図18に示した処理を更に詳細に説明する。図19は、部分画像パラメータを説明する図である。 The process shown in FIG. 18 will now be described in more detail with reference to FIG. 19 and FIG. 20. FIG. 19 is a diagram explaining partial image parameters.

(部分画像パラメータ)
まずは、図19を用いて、部分画像パラメータについて詳細に説明する。図19(a)はS120による画像合成後の全体画像を示す。図19(b)は部分画像パラメータの一例を示す図である。図19(c)はS150により射影方式が変換された後の部分画像を示す。
(Partial image parameters)
First, the partial image parameters will be described in detail with reference to Fig. 19. Fig. 19(a) shows the entire image after image synthesis in S120. Fig. 19(b) shows an example of the partial image parameters. Fig. 19(c) shows the partial image after the projection method has been converted in S150.

図7で説明した方位角は図19(a)で示す正距円筒図法では横方向(緯度λ)となり、図7で説明した仰角は正距円筒射影方式では縦方向(経度φ)となる。図7の対角画角及びアスペクト比を合わせて、図19(b)で示すパラメータが部分画像パラメータである。図19(c)は図19(a)の正距円筒図法上の枠で囲まれた部分を部分画像パラメータで切出した部分画像の例である。 The azimuth angle described in FIG. 7 corresponds to the horizontal direction (latitude λ) in the equirectangular projection shown in FIG. 19(a), and the elevation angle described in FIG. 7 corresponds to the vertical direction (longitude φ) in the equirectangular projection method. The parameters shown in FIG. 19(b), combining the diagonal angle of view and aspect ratio in FIG. 7, are the partial image parameters. FIG. 19(c) is an example of a partial image cut out from the area surrounded by the frame in the equirectangular projection of FIG. 19(a) using the partial image parameters.

ここで、射影方式の変換について説明する。図4(a)に示すように、正距円筒射影画像によって立体球を被うことで、全天球画像を作成している。よって、正距円筒射影画像の各画素データは、3次元の全天球画像の立体球の表面における各画素データに対応させることができる。そこで、射影方式変換部18による変換式は、正距円筒射影画像における座標を(緯度,経度)=(e,a)と表現し、3次元の立体球上の座標を直行座標(x,y,z)で表わすと、以下の(式3)で表わすことができる。
(x, y, z) = (cos(ea) × cos(aa), cos(ea) × sin(aa), sin(ea)) ・・・(式3)
但し、このときの立体球の半径は1とする。
Here, the conversion of the projection method will be described. As shown in FIG. 4A, a celestial sphere image is created by covering a stereoscopic sphere with an equirectangular projection image. Therefore, each pixel data of the equirectangular projection image can be made to correspond to each pixel data on the surface of the stereoscopic sphere of the three-dimensional celestial sphere image. Therefore, the conversion formula by the projection method conversion unit 18 can be expressed by the following (Formula 3) when the coordinates in the equirectangular projection image are expressed as (latitude, longitude)=(e, a) and the coordinates on the three-dimensional stereoscopic sphere are expressed as Cartesian coordinates (x, y, z).
(x, y, z) = (cos(ea) × cos(aa), cos(ea) × sin(aa), sin(ea)) ... (Equation 3)
In this case, the radius of the three-dimensional sphere is set to 1.

一方で、透視射影画像である部分画像は2次元画像であるが、これを2次元の極座標(動径,偏角)=(r,a)で表現すると、動径rは対角画角に対応し、取り得る範囲は0 ≦ r ≦ tan(対角画角/2)となる。また、部分画像を2次元の直交座標系(u,v)で表わすと、極座標(動径,偏角)=(r,a)との変換関係は、以下の(式4)で表わすことができる。
u = r × cos(a), v = r × sin(a) ・・・(式4)
次に、この(式3)を3次元の座標(動径,極角,方位角)に対応させることを考える。今、立体球CSの表面のみを考えているため、3次元極座標における動径は「1」である。また、立体球CSの表面に張り付けた正距円筒射影画像を透視射影変換する射影は、立体球の中心に仮想カメラがあると考えると、上述の2次元極座標(動径,偏角)=(r,a)を使うと、以下の(式5)、(式6)で表わすことができる。
r = tan(極角) ・・・(式5)
a = 方位角 ・・・(式6)
ここで極角をtとすると、t = arctan(r)となるため、3次元極座標(動径、極角、方位角)は、(動径、極角、方位角)=(1, arctan(r), a)と表現することができる。
On the other hand, a partial image, which is a perspective projection image, is a two-dimensional image, but when this is expressed in two-dimensional polar coordinates (radius, argument) = (r, a), the radius r corresponds to the diagonal angle of view, and the possible range is 0 ≦ r ≦ tan (diagonal angle of view/2). In addition, when a partial image is expressed in a two-dimensional orthogonal coordinate system (u, v), the conversion relationship with the polar coordinates (radius, argument) = (r, a) can be expressed by the following (Equation 4).
u = r × cos(a), v = r × sin(a) ... (Equation 4)
Next, consider making this (Equation 3) correspond to three-dimensional coordinates (radius, polar angle, azimuth angle). Since only the surface of the solid sphere CS is considered, the radius in the three-dimensional polar coordinates is "1". Furthermore, if we consider the virtual camera to be at the center of the solid sphere, the projection that performs perspective transformation on the equirectangular projection image pasted onto the surface of the solid sphere CS can be expressed by the following (Equation 5) and (Equation 6) using the above-mentioned two-dimensional polar coordinates (radius, deviation angle) = (r, a).
r = tan(polar angle) ... (Equation 5)
a = azimuth angle ... (Equation 6)
Here, if the polar angle is t, then t = arctan(r), so three-dimensional polar coordinates (radius, polar angle, azimuth angle) can be expressed as (radius, polar angle, azimuth angle) = (1, arctan(r), a).

また3次元極座標から、直行座標系(x,y,z)へ変換するための変換式は、以下の(式7)で表わすことができる。
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) ・・・(式7)
上記の(式7)により、正距円筒射影方式による全体画像と、透視射影方式による部分画像の相互変換ができるようになった。即ち、作成すべき部分画像の対角画角に対応する動径rを用いることで、部分画像の各画素が、正距円筒射影画像のどの座標に対応するかを表す変換マップ座標を算出でき、この変換マップ座標に基づいて、正距円筒射影画像から、透視射影画像である部分画像作成することができる。
The conversion equation for converting from three-dimensional polar coordinates to a Cartesian coordinate system (x, y, z) can be expressed by the following (Equation 7).
(x, y, z) = (sin(t) × cos(a), sin(t) × sin(a), cos(t)) ... (Equation 7)
The above formula (7) enables mutual conversion between an entire image by equirectangular projection and a partial image by perspective projection. That is, by using the radius vector r corresponding to the diagonal angle of view of the partial image to be created, it is possible to calculate conversion map coordinates that indicate which coordinates of the equirectangular projection image each pixel of the partial image corresponds to, and based on the conversion map coordinates, it is possible to create a partial image that is a perspective projection image from the equirectangular projection image.

ところで、上記射影方式の変換は、正距円筒射影画像の(緯度,経度)が(90°,0°)となる位置が、透視射影画像である部分画像の中心点となるような変換を示している。そこで、正距円筒射影画像の任意の点を注視点として透視射影変換をする場合は、正距円筒射影画像を貼り付けた立体球を回転させることで、注視点の座標(緯度、経度)が(90°,0°)の位置に配置されるような座標回転を行えば良い。 The above projection transformation method involves a transformation in which the position where the (latitude, longitude) of the equirectangular projection image is (90°, 0°) becomes the center point of the partial image, which is a perspective projection image. Therefore, when performing perspective projection transformation with an arbitrary point of the equirectangular projection image as the gaze point, it is sufficient to rotate the three-dimensional sphere to which the equirectangular projection image is attached, thereby performing coordinate rotation so that the coordinates (latitude, longitude) of the gaze point are positioned at a position of (90°, 0°).

この立体球の回転に関する変換公式は、一般の座標回転公式であるため、説明を省略する。 The transformation formula for the rotation of this three-dimensional sphere is a general coordinate rotation formula, so we will not explain it here.

(結合の処理)
次に、図20を用いて、結合部19が行うステップS160の結合の処理について説明する。図20は、全体動画と部分動画の各フレーム画像が結合された状態を示す概念図である。図20に示しているように、一枚のフレームの上部に全体画像、下部に部分画像が配置されるように結合されている。本実施形態では、一般的はHD等のアスペクトである16:9に合わせて配置されるがアスペクトは問わない。また、配置も上下に限らず左右でもよい。部分画像が複数あった場合は、例えば上半分に全体動画、下半分に部分動画個数分だけ分割して配置してもよい。全体動画と部分画像をフレーム毎に1つにまとめることにより、画像間の同期を保障することができる。また、全天球撮影装置1は、スマートフォン5に対して、全体動画データ及び部分動画データを別々に送信してもよい。
(Joining process)
Next, the combining process of step S160 performed by the combining unit 19 will be described with reference to FIG. 20. FIG. 20 is a conceptual diagram showing a state in which each frame image of the entire video and the partial video are combined. As shown in FIG. 20, the entire image is combined so as to be arranged at the top of one frame and the partial image is combined at the bottom. In this embodiment, the images are generally arranged according to 16:9, which is an aspect ratio of HD, but the aspect ratio does not matter. The arrangement may be not only top and bottom but also left and right. When there are multiple partial images, for example, the entire video may be arranged in the upper half and the partial video may be arranged in the lower half by dividing them by the number of partial videos. By combining the entire video and the partial images into one for each frame, it is possible to ensure synchronization between the images. In addition, the omnidirectional imaging device 1 may transmit the entire video data and the partial video data separately to the smartphone 5.

但し、全体動画及び部分動画は、縦を半分にするため、半分にしない場合に比べてそれぞれ解像度は半分に落ちる。即ち、一時記憶部16に記憶されていた超高精細画像よりは精細度が下がる。その結果、精細度は、高い順に、一時記憶部16に記憶された全体画像、射影方式変換部18によって変換された後の部分画像、及び低精細変更部17によって変換された後の全体画像となる。 However, because the entire video and partial video are halved vertically, their resolution is reduced by half compared to when they are not halved. In other words, the resolution is lower than the ultra-high definition image stored in the temporary storage unit 16. As a result, the resolution is, in descending order, the entire image stored in the temporary storage unit 16, the partial image after conversion by the projection method conversion unit 18, and the entire image after conversion by the low definition change unit 17.

<スマートフォンの動画再生処理>
続いて、図21を用いて、スマートフォン5の動画データの再生処理について説明する。図21は、スマートフォンが行う画像処理の過程における画像の概念図である。図7に示された重畳領域作成部54は、図21で示されているように部分画像パラメータで指示された部分立体球PSを作成する(S320)。
<Video playback processing on smartphones>
Next, the playback process of video data by the smartphone 5 will be described with reference to Fig. 21. Fig. 21 is a conceptual diagram of an image in the process of image processing performed by the smartphone. The overlapping area creation unit 54 shown in Fig. 7 creates a partial 3D sphere PS specified by the partial image parameters as shown in Fig. 21 (S320).

次に、画像作成部55は、部分立体球PSに対して、透視射影方式である部分画像を重畳することで、重畳画像Sを作成する(S330)。また、画像作成部55は、部分立体球PSに基づいて、マスク画像Mを作成する(S340)。更に、画像作成部55は、立体球CSに対して正距円筒射影方式である全体画像を貼り付けることで全天球画像CEを作成する(S350)。そして、画像重畳部56は、全天球画像CEに対して重畳画像S及びマスク画像Mを重畳する(S360)。これにより、境目が目立たないように高精細の重畳画像(ここでは、高精細な部分動画)Sが重畳された低精細の全天球画像(ここでは、低精細な全体動画)CEが完成する。 Next, the image creation unit 55 creates a superimposed image S by superimposing a partial image in the perspective projection method on the partial 3D sphere PS (S330). The image creation unit 55 also creates a mask image M based on the partial 3D sphere PS (S340). The image creation unit 55 also creates a celestial sphere image CE by pasting an entire image in the equirectangular projection method onto the 3D sphere CS (S350). Then, the image superimposition unit 56 superimposes the superimposed image S and the mask image M on the celestial sphere image CE (S360). This completes a low-resolution celestial sphere image (here, a low-resolution entire video) CE on which a high-resolution superimposed image (here, a high-resolution partial video) S is superimposed so that the boundary is not noticeable.

次に、射影変換部57は、予め定められた仮想カメラの視線方向と画角に基づいて、重畳画像Sが重畳された状態の全天球画像CEにおける所定領域をディスプレイ517で閲覧できるように射影変換を行う(S370)。 Next, the projective transformation unit 57 performs projective transformation based on the line of sight and angle of view of the predetermined virtual camera so that a specific area of the spherical image CE with the superimposed image S superimposed can be viewed on the display 517 (S370).

図22は、部分平面から部分立体球の作成を説明する図である。通常、透視射影方式では平面に射影するため、図22(a)で示すように3次元空間上に平面で表すことが多い。本実施形態では、図22(b)のように全天球画像に合わせて球の一部である部分立体球とする。ここでは、平面から部分立体球への変換について説明する。 Fig. 22 is a diagram for explaining the creation of a partial three-dimensional sphere from a partial plane. Normally, in the perspective projection method, projection is performed onto a plane, and therefore it is often expressed as a plane in three-dimensional space, as shown in Fig. 22(a). In this embodiment, a partial three-dimensional sphere that is a part of a sphere is created to match the spherical image, as shown in Fig. 22(b). Here, the conversion from a plane to a partial three-dimensional sphere is explained.

図22(a)で示すように適切な大きさ(画角)で配置された平面上の各点(X,Y,Z)を球面上への射影を考える。球面への射影は球の原点から各点(X,Y,Z)を通る直線と球面との交点となる。球面上の各点は原点からの距離が球の半径と等しい点である。よって球の半径を1とすると図22(b)で示される球面上の点(X’,Y’,Z’)は下記の(式8)で表される。 Consider the projection onto a sphere of each point (X, Y, Z) on a plane arranged at an appropriate size (angle of view) as shown in Figure 22 (a). The projection onto the sphere is the intersection of the straight line passing from the origin of the sphere through each point (X, Y, Z) and the sphere. Each point on the sphere is a point whose distance from the origin is equal to the radius of the sphere. Therefore, if the radius of the sphere is 1, then the point (X', Y', Z') on the sphere shown in Figure 22 (b) can be expressed by the following (Equation 8).

(X’,Y’,Z’)=(X,Y,Z)×1/√(X+Y+Z)・・・(式8)
図23は、本実施形態の部分立体球作成を行わずに、全天球画像に部分画像を重畳した場合の二次元の概念図である。図24は、本実施形態の部分立体球作成を行って、全天球画像に部分画像を重畳した場合の二次元の概念図である。
(X', Y', Z') = (X, Y, Z) x 1 / √( X2 + Y2 + Z2 ) ... (Equation 8)
Fig. 23 is a two-dimensional conceptual diagram of a case where a partial image is superimposed on a celestial sphere image without creating the partial 3D sphere of this embodiment. Fig. 24 is a two-dimensional conceptual diagram of a case where a partial image is superimposed on a celestial sphere image by creating the partial 3D sphere of this embodiment.

図23(a)に示されているように、仮想カメラICが立体球CSの中心点に位置している場合を基準にすると、被写体P1は、全天球画像CE上で像P2として表され、重畳画像S上で像P3として表されている。図23(a)に示されているように、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置しているため、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。しかし、図23(b)に示されているように、仮想カメラICが立体球CSの中心点から離れると(画角αを小さくすると)、仮想カメラICと被写体P1とを結ぶ直線上に、像P2は位置しているが、像P3はやや内側に位置している。このため、仮想カメラICと被写体P1とを結ぶ直線上における重畳画像S上の像を像P3’とすると、全天球画像CEと重畳画像Sに、像P3と像P3’との間のズレ量g分のズレが生じてしまう。これにより、全天球画像CEに対して重畳画像Sがズレて表示されてしまうが、このように、重畳した表示であっても良い。 23(a), when the virtual camera IC is located at the center point of the three-dimensional sphere CS, the subject P1 is represented as an image P2 on the omnidirectional image CE and as an image P3 on the superimposed image S. As shown in FIG. 23(a), the images P2 and P3 are located on a straight line connecting the virtual camera IC and the subject P1, so even if the superimposed image S is displayed in a state where it is superimposed on the omnidirectional image CE, no misalignment occurs between the omnidirectional image CE and the superimposed image S. However, as shown in FIG. 23(b), when the virtual camera IC moves away from the center point of the three-dimensional sphere CS (when the angle of view α is reduced), the image P2 is located on the straight line connecting the virtual camera IC and the subject P1, but the image P3 is located slightly inside. For this reason, if the image on the superimposed image S on the straight line connecting the virtual camera IC and the subject P1 is image P3', a shift occurs between the spherical image CE and the superimposed image S by the amount of shift g between the images P3 and P3'. As a result, the superimposed image S is displayed shifted relative to the spherical image CE, but such a superimposed display is also acceptable.

これに対して、さらに、本実施形態では、部分立体球作成を行っているため、図24(a)、(b)に示されているように、重畳画像Sを全天球画像CEに沿って重畳することができる。これにより、図24(a)に示されているように、仮想カメラICが立体球CSの中心点に位置する場合だけでなく、図24(b)に示されているように、仮想カメラが立体球CSの中心点から離れた場合であっても、像P2及び像P3は、仮想カメラICと被写体P1とを結ぶ直線上に位置することになる。よって、全天球画像CEに重畳画像Sが重畳された状態で表示されても、全天球画像CEと重畳画像Sにズレが生じない。 In contrast to this, in this embodiment, since a partial 3D sphere is created, the superimposed image S can be superimposed along the omnidirectional image CE as shown in Figs. 24(a) and (b). As a result, not only when the virtual camera IC is located at the center point of the 3D sphere CS as shown in Fig. 24(a), but also when the virtual camera is away from the center point of the 3D sphere CS as shown in Fig. 24(b), the images P2 and P3 are located on a straight line connecting the virtual camera IC and the subject P1. Therefore, even if the superimposed image S is displayed superimposed on the omnidirectional image CE, no misalignment occurs between the omnidirectional image CE and the superimposed image S.

図25(a)は重畳表示しない場合のワイド画像の表示例、図25(b)は重畳表示しない場合のテレ画像の表示例、図25(c)は重畳表示する場合のワイド画像の表示例、図25(d)は重畳表示する場合のテレ画像の表示例を示した概念図である。なお、図中の波線は、説明の便宜上表しただけであり、実際にディスプレイ517上には表示されてもよく、表示されなくてもよい。 Fig. 25(a) is a conceptual diagram showing an example of a wide image without superimposed display, Fig. 25(b) is an example of a telephoto image without superimposed display, Fig. 25(c) is an example of a wide image with superimposed display, and Fig. 25(d) is an example of a telephoto image with superimposed display. Note that the wavy lines in the diagrams are shown only for the convenience of explanation, and may or may not actually be displayed on the display 517.

図25(a)に示されているように、全天球画像(ここでは、低精細な全体動画)CEに対して部分画像(ここでは、高精細な部分動画)Pを重畳して表示しない場合、図25(a)における波線で示される領域まで拡大表示すると、図25(b)に示されているように、低精細の画像のままとなっており、利用者は鮮明でない画像を見ることになってしまう。これに対して、図25(c)に示されているように、全天球画像CEに対して部分画像Pを重畳して表示する場合、図25(c)における波線で示される領域まで拡大表示すると、図25(d)に示されているように、高精細の画像が表示され、利用者は鮮明な画像を見ることができる。特に、波線で示されている領域に、文字が描かれた看板等が表示されている場合、高精細な部分画像Pを重畳表示しなければ、拡大表示させても文字がぼやけてしまい、何が書かれてあるのか分からない。しかし、高精細な部分画像Pを重畳表示すれば、拡大表示させても文字が鮮明に見えるため、利用者は何が書かれているのかを把握することができる。 25(a), when the partial image P (here, a high-definition partial video) is not superimposed on the omnidirectional image CE (here, a low-definition overall video) as shown in FIG. 25(a), if the area shown by the wavy line in FIG. 25(a) is enlarged, the image remains low-definition as shown in FIG. 25(b), and the user ends up seeing a blurred image. On the other hand, when the partial image P is superimposed on the omnidirectional image CE as shown in FIG. 25(c), if the area shown by the wavy line in FIG. 25(c) is enlarged, a high-definition image is displayed as shown in FIG. 25(d), and the user can see a clear image. In particular, if a signboard or the like with letters is displayed in the area shown by the wavy line, unless the high-definition partial image P is superimposed, the letters will be blurred even when enlarged, and it will be difficult to understand what is written. However, if the high-definition partial image P is superimposed, the letters will be clearly visible even when enlarged, and the user will be able to understand what is written.

<<部分静止画の生成及び再生>>
続いて、図26を用いて部分静止画のデータの生成及び再生の処理について説明する。図26は、部分静止画のデータの生成及び再生の処理を示したシーケンス図である。
<<Creation and playback of partial still images>>
Next, the process of generating and playing back partial still image data will be described with reference to Fig. 26. Fig. 26 is a sequence diagram showing the process of generating and playing back partial still image data.

閲覧者(利用者)が図17に示されているステップS19によって、図25(c)に示されているような部分画像(ここでは、高精細な部分動画)Pが重畳された全体画像(ここでは、低精細な全体動画)を閲覧中に、部分動画を更に高精細な静止画として閲覧したい場合に、図26に示されているように、閲覧者(利用者)がスマートフォン5を操作することで、受付部52が部分静止画の配信サービスを開始する要求を受け付ける(S31)。これにより、次に、スマートフォン5の送受信部51は、画像管理システム7の送受信部71に静止画データの要求を送信する(S32)。この際、閲覧者が指定した部分画像パラメータも送信される。 When a viewer (user) is viewing an entire image (here, a low-definition entire video) on which a partial image (here, a high-definition partial video) P as shown in FIG. 25(c) is superimposed in step S19 shown in FIG. 17, and wishes to view the partial video as a still image with even higher resolution, the viewer (user) operates the smartphone 5 as shown in FIG. 26, causing the reception unit 52 to receive a request to start a distribution service for the partial still image (S31). This then causes the transmission/reception unit 51 of the smartphone 5 to transmit a request for still image data to the transmission/reception unit 71 of the image management system 7 (S32). At this time, the partial image parameters specified by the viewer are also transmitted.

次に、画像管理システム7の送受信部71は、仲介端末3の送受信部に対して静止画データの要求を転送する(S33)。そして、仲介端末3の送受信部は、全天球撮影装置1の送受信部11に対して、静止画データ要求を転送する(S34)。 Next, the transmitting/receiving unit 71 of the image management system 7 transfers the request for still image data to the transmitting/receiving unit of the intermediary terminal 3 (S33). Then, the transmitting/receiving unit of the intermediary terminal 3 transfers the request for still image data to the transmitting/receiving unit 11 of the omnidirectional imaging device 1 (S34).

次に、全天球撮影装置1は、静止画データの生成処理を行う(S35)。このステップS35の処理は、後ほど詳細に説明する。 Next, the spherical imaging device 1 performs processing to generate still image data (S35). The processing of step S35 will be described in detail later.

次に、全天球撮影装置1の送受信部11は、仲介端末31の送受信部に対して、要求に応じた静止画データを送信する(S36)。この静止画データは、超高精細の部分静止画のデータである。なお、静止画データの送信を開始するタイミングは、夜間などネットワークのトラフィック量が少ない時間帯や、遅延時間を測定し、所定の遅延時間より短くなる時に送信するようにしてもよい。これにより、仲介端末3の送受信部は、画像管理システム7の送受信部71に静止画データを転送する(S37)。 Next, the transmitting/receiving unit 11 of the omnidirectional imaging device 1 transmits still image data in response to the request to the transmitting/receiving unit of the intermediary terminal 31 (S36). This still image data is data of a partial still image with ultra-high resolution. Note that the timing to start transmitting the still image data may be during a time period when network traffic is low, such as at night, or when the delay time is measured and becomes shorter than a predetermined delay time. As a result, the transmitting/receiving unit of the intermediary terminal 3 transfers the still image data to the transmitting/receiving unit 71 of the image management system 7 (S37).

次に、画像管理システム7の送受信部71が、静止画データを受信した場合は、記憶部7000に静止画データを記憶させる(S38)。 Next, when the transmission/reception unit 71 of the image management system 7 receives still image data, it stores the still image data in the storage unit 7000 (S38).

そして、画像管理システム7の送受信部7は、スマートフォン5の送受信部51に静止画データを転送する(S39)。この際、転送開始のタイミングに関しては、全天球撮影装置1から仲介端末3を介して画像管理システムへのデータ送信と同様、通信ネットワーク100の帯域制御などを行う。 Then, the transmission/reception unit 7 of the image management system 7 transfers the still image data to the transmission/reception unit 51 of the smartphone 5 (S39). At this time, in regard to the timing of the start of transfer, the bandwidth control of the communication network 100 is performed in the same manner as in the data transmission from the omnidirectional imaging device 1 to the image management system via the intermediary terminal 3.

次に、スマートフォン5は、全体動画上にこれまで重畳していた高精細な部分動画に代えて、超高精細な部分静止画を重畳して表示させる(S40)。この重畳の方法は、全体動画に部分動画を重畳した場合と共通する処理を含むが、異なる処理があるため、後ほど詳細に説明する。 Next, the smartphone 5 superimposes and displays an ultra-high definition partial still image in place of the high definition partial video that has been superimposed on the entire video (S40). This method of superimposition includes processes common to the case where a partial video is superimposed on the entire video, but there are also different processes, which will be described in detail later.

なお、上記ステップS35において、判断部25が射影方式変換部18に、超高精細な静止画のデータに射影方式変換させないと判断した場合には、上記ステップS36~S37において、静止画データの代わりに、「静止画を送信しない」旨、「画角は不足している」旨等のメッセージを送信するようにしてもよい。この場合、ステップS40では、全体動画上に部分動画が重畳されたままの状態で上記メッセージが表示される。 If the judgment unit 25 judges in step S35 that the projection method conversion unit 18 should not convert the projection method to ultra-high definition still image data, a message such as "still image not to be transmitted" or "angle of view is insufficient" may be transmitted in place of the still image data in steps S36 to S37. In this case, in step S40, the message is displayed with the partial video still superimposed on the entire video.

<全天球撮影装置の静止画の生成>
次に、上述のステップS35で示した全天球撮影装置の静止画データの生成処理について詳細に説明する。
<Generation of Still Images from an Omnidirectional Camera>
Next, the process of generating still image data of the omnidirectional imaging device shown in step S35 above will be described in detail.

全天球撮影装置1において静止画データの要求を受信した場合、静止画撮影判定を行う。これは部分画像の画角が比較的に狭い場合、元画像からの変換によって作成された部分静止画の解像度が送信中の部分動画の解像度との差がなくなるためである。この場合、図16に示されている水平垂直画角閾値情報の水平画角(AH)と垂直画角(AV)を最低画角とし、部分画像パラメータで指定された画角が、当該画角より広い場合は静止画生成処理を実行する(S210)。 When a request for still image data is received in the omnidirectional imaging device 1, a still image capture determination is performed. This is because, if the angle of view of the partial image is relatively narrow, there is no difference between the resolution of the partial still image created by conversion from the original image and the resolution of the partial video being transmitted. In this case, the horizontal angle of view (AH) and vertical angle of view (AV) of the horizontal/vertical angle of view threshold information shown in FIG. 16 are set as the minimum angles of view, and if the angle of view specified by the partial image parameters is wider than the relevant angles of view, a still image generation process is executed (S210).

より具体的には、全天球撮影装置1の送受信部11が動画データの送信中に、静止画データの要求を受信した場合、射影方式変換部18は、部分動画のデータの生成と同様に、超高精細の部分静止画のデータに対し、部分画像パラメータに従って正距円筒射影方式を透視射影方式に射影方式変換を行う。この場合、生成される静止画像のサイズは可変とし、超高精細画像の解像度を維持したまま変換を行う。超高精細画像の水平解像度をW、指定された水平画角をahとすると、生成される静止画の水平解像度Wpは以下のように求めることができる。 More specifically, when the transmitter/receiver 11 of the omnidirectional imaging device 1 receives a request for still image data while transmitting video data, the projection method conversion unit 18 performs projection method conversion from equirectangular projection to perspective projection for the ultra-high definition partial still image data in accordance with the partial image parameters, in the same way as when generating the partial video data. In this case, the size of the generated still image is variable, and conversion is performed while maintaining the resolution of the ultra-high definition image. If the horizontal resolution of the ultra-high definition image is W and the specified horizontal angle of view is ah, the horizontal resolution Wp of the generated still image can be calculated as follows:

Wp= W / 360 * ah ・・・(式9)
ここでのWのサイズは、全天球撮影装置1の起動時に読み込まれた水平垂直画角閾値情報(図16(a)参照)のW列から取得される。
Wp = W / 360 * ah ... (Equation 9)
The size of W here is obtained from the W column of the horizontal/vertical angle of view threshold information (see FIG. 16A ) that is read when the omnidirectional imaging device 1 is started up.

同様に指定された垂直画角をavとすると、生成される静止画の垂直解像度Hpは次式で求めることができる。 Similarly, if the specified vertical angle of view is av, the vertical resolution Hp of the generated still image can be calculated using the following formula.

Hp= H/180 * av ・・・(式10)
更に、静止画符号化部20bは、部分静止画のデータの符号化を行い、画像バッファに格納する。そして、送受信部11は、ステップS16,S17と同様に、上述した通信ネットワーク帯域の制御を行い、仲介端末3を介して画像管理システム7に部分静止画のデータを送信する。この場合も部分画像パラメータが送信される。
Hp=H/180*av... (Equation 10)
Further, the still image encoding unit 20b encodes the data of the partial still image and stores it in the image buffer. Then, the transmitting/receiving unit 11 controls the communication network bandwidth as described above, as in steps S16 and S17, and transmits the data of the partial still image to the image management system 7 via the intermediary terminal 3. In this case, the partial image parameters are also transmitted.

<スマートフォンの静止画の再生>
次に、上述のステップS40で示したスマートフォン5の静止画データの再生処理について詳細に説明する。
<Playing still images from a smartphone>
Next, the playback process of the still image data by the smartphone 5 shown in step S40 above will be described in detail.

スマートフォン5側では、送受信部51が全天球撮影装置1から送られてきた静止画データを通信部で受信した部分静止画のデータと部分画像パラメータに分離する。静止画復号化部53bは、分離された後の部分静止画のデータを復号化する。その後は、上述の全体動画と部分動画の各データに対する処理が、全体動画と部分静止画の各データに対する処理に置き換わっただけであるため、その説明を省略する。 On the smartphone 5 side, the transmission/reception unit 51 separates the still image data sent from the omnidirectional imaging device 1 into partial still image data and partial image parameters received by the communication unit. The still image decoding unit 53b decodes the partial still image data after separation. After that, the above-mentioned processing for each data of the entire video and partial video is simply replaced with processing for each data of the entire video and partial still images, so a description thereof will be omitted.

〔実施形態の主な効果〕
以上説明したように本実施形態によれば、全体動画及び部分動画のデータ通信量を抑制しながらも、部分画像の精細度をできるだけ下げないようにすることで閲覧者がよりはっきりと注目する領域を閲覧することができるという効果を奏する。
[Main Effects of the Embodiments]
As described above, according to this embodiment, the amount of data communication for the entire video and partial video is reduced, while the resolution of the partial images is not reduced as much as possible, thereby enabling the viewer to more clearly view the area that interests them.

また、全天球撮影装置1は、超高精細の全天球画像から低精細の全体画像(ここでは、低精細の全体動画)を作成し(S140)、同じ超高精細の全天球画像から射影方式の異なる高精細の部分画像(ここでは、高精細の部分動画)を作成する(S150)。そして、全天球撮影装置1が、スマートフォン5に対して、低精細の全体画像及び高精細の部分画像の各データを送信する。これに対して、スマートフォン5は、低精細の全体画像上に高精細の部分画像を重畳して(S360)、利用者(閲覧者)が指定する視線方向及び画角に応じて射影方式を変換する(S370)。このように、全天球撮影装置1は、被写体等を撮像することによって得られた超高精細な全天球画像のうち、注目されている領域である部分画像については高精細に下げて送信し、注目されていない(全天球画像の全体を把握するための)全体画像については低精細に下げて送信し、しかも、高精細の部分画像については射影方式を変換してから送信する。更に、この送信前に、結合部19が、図20に示されているように、低精細の全体動画データ及び高精細の部分動画データの縦の解像度を半分に圧縮することで、それぞれのフレームの精細度を下げて一フレームに結合する。これにより、受信側のスマートフォン5では、従来に比べて、データ量が削減できるため、早く全体画像に部分画像を重畳した状態の全天球画像を表示させることができるという効果を奏する。 The omnidirectional imaging device 1 also creates a low-resolution whole image (here, a low-resolution whole video) from an ultra-high-resolution omnidirectional image (S140), and creates a high-resolution partial image (here, a high-resolution partial video) with a different projection method from the same ultra-high-resolution omnidirectional image (S150). Then, the omnidirectional imaging device 1 transmits data of the low-resolution whole image and the high-resolution partial image to the smartphone 5. In response to this, the smartphone 5 superimposes the high-resolution partial image on the low-resolution whole image (S360), and converts the projection method according to the line of sight and angle of view specified by the user (viewer) (S370). In this way, the omnidirectional imaging device 1 transmits the partial image, which is the area of interest, of the ultra-high-resolution omnidirectional image obtained by capturing an object or the like, with the resolution reduced to high, and transmits the whole image (for grasping the entire omnidirectional image) that is not of interest with the resolution reduced to low, and transmits the high-resolution partial image after converting the projection method. Furthermore, before this transmission, the combining unit 19 reduces the resolution of each frame by compressing the vertical resolution of the low-definition overall video data and the high-definition partial video data by half, as shown in Fig. 20, and combines them into one frame. This reduces the amount of data on the receiving smartphone 5 compared to the conventional method, and has the effect of quickly displaying a celestial sphere image in which a partial image is superimposed on an overall image.

よって、本実施形態によれば、通信量を減らすべく、全天球撮影装置1が、全天球画像の全体を縮小した低精細な全体画像と、全天球画像(全体画像)内の注目する領域である高精細な部分画像のデータとを配信し、受信側のスマートフォン5で全体画像に部分画像を合成するだけでなく、低精細な全体画像と高精細な部分画像が異なる射影方式であっても、スマートフォン5で合成して表示可能であるため、射影方式に関する汎用性が高いという効果を奏する。 Therefore, according to this embodiment, in order to reduce the amount of communication, the omnidirectional imaging device 1 distributes data of a low-resolution overall image obtained by reducing the entire omnidirectional image and data of a high-resolution partial image that is a region of interest within the omnidirectional image (overall image), and the smartphone 5 on the receiving side not only composites the partial image onto the overall image, but also composites and displays the low-resolution overall image and the high-resolution partial image on the smartphone 5 even if they are different projection methods, resulting in an effect of high versatility in terms of projection methods.

〔補足〕
上記実施形態では、判断部25は、全体動画の一部の領域である部分画像の一フレームの全領域が、閾値管理部1001で管理されている水平垂直画角閾値情報(図16参照)の所定の閾値で示される所定領域よりも小さいか否かを判断する。そして、小さい場合には、判断部25は、射影方式変換部18に対して超高精細な静止画のデータに射影方式変換させないようにし、大きい場合には、判断部25は、射影方式変換部18に対して超高精細な静止画のデータに射影方式変換させるようにしたが、これに限るものではない。例えば、小さい場合には、送受信部11が静止画記憶部29に記憶されている射影方式変換後の部分静止画のデータをスマートフォン5側に送信させない処理を行い、大きい場合には、送受信部11が静止画記憶部29に記憶されている射影方式変換後の部分静止画のデータをスマートフォン5側に送信させる処理を行うようにしてもよい。この場合、判断部25が送受信部11に送信させるか否かを指示しても良いし、判断部25が静止画記憶部29に対して、記憶部29に記憶されている射影方式変換後の部分静止画のデータを、送受信部11側に送信させるか否かを指示してもよい。
〔supplement〕
In the above embodiment, the determination unit 25 determines whether or not the entire area of one frame of a partial image, which is a part of the entire video, is smaller than a predetermined area indicated by a predetermined threshold of the horizontal/vertical angle of view threshold information (see FIG. 16 ) managed by the threshold management unit 1001. If it is smaller, the determination unit 25 prevents the projection method conversion unit 18 from performing projection method conversion to data of an ultra-high definition still image, and if it is larger, the determination unit 25 causes the projection method conversion unit 18 to perform projection method conversion to data of an ultra-high definition still image, but this is not limited thereto. For example, if it is smaller, the transmission/reception unit 11 may perform a process of not transmitting the data of the partial still image after the projection method conversion stored in the still image storage unit 29 to the smartphone 5 side, and if it is larger, the transmission/reception unit 11 may perform a process of transmitting the data of the partial still image after the projection method conversion stored in the still image storage unit 29 to the smartphone 5 side. In this case, the judgment unit 25 may instruct the transmission/reception unit 11 as to whether or not to transmit, or the judgment unit 25 may instruct the still image memory unit 29 as to whether or not to transmit the data of the partial still image after projection method conversion stored in the memory unit 29 to the transmission/reception unit 11.

また、全天球撮影装置1は撮影装置の一例であり、撮影装置には、通常の平面画像を得るデジタルカメラやスマートフォン等も含まれる。通常の平面画像を得るデジタルカメラやスマートフォンの場合、全天球画像を得るのではなく、比較的広角な画像(広角画像)を得ることができる。 The spherical imaging device 1 is an example of an imaging device, and imaging devices also include digital cameras and smartphones that capture normal planar images. Digital cameras and smartphones that capture normal planar images can capture relatively wide-angle images (wide-angle images) rather than spherical images.

また、スマートフォン5は、通信端末又は画像処理装置の一例であり、通信端末又は画像処理装置には、タブレット型PC(Personal Computer:パーソナルコンピュータ)、ノートPC、デスクトップPC等のPCも含まれる。また、通信端末又は画像処理装置には、スマートウォッチ、ゲーム機器、又は車両等に搭載するカーナビゲーション端末等が含まれる。 The smartphone 5 is also an example of a communication terminal or image processing device, and examples of the communication terminal or image processing device include PCs such as tablet PCs (Personal Computers), notebook PCs, and desktop PCs. Examples of the communication terminal or image processing device include smart watches, game devices, and car navigation terminals installed in vehicles, etc.

上記実施形態では、低精細画像として、撮像部14a,14bから得られた画像データの画像の全体領域である全体動画と、高精細画像として、全体領域の一部の領域である部分動画について説明したが、これに限るものではない。低精細画像は、撮像部14a,14bから得られた動画データの画像の全体領域の一部の領域A1の画像であってもよい。この場合、高精細画像は、一部の領域A1の更に一部の領域A2の画像となる。即ち、低精細な全体動画と高精細な部分動画との関係は、前者が広角動画であるのに対して後者が狭角動画像である。なお、部分静止画についても、部分動画と同様の考えで、狭角静止画ということができる。また、本実施形態において、広角画像(静止画、動画のいずれも含む)は、いわゆる広角レンズや魚眼レンズを備える撮像装置で撮影された画像の歪みが発生するような画像。また、狭角画像(静止画、動画のいずれも含む)は、広角レンズや魚眼レンズを備える撮像装置で撮影された画像の一部で、画角が広角画像よりも狭い画角の画像。 In the above embodiment, the low-definition image is an entire video, which is the entire area of the image of the image data obtained from the imaging units 14a and 14b, and the high-definition image is a partial video, which is a part of the entire area, but the present invention is not limited to this. The low-definition image may be an image of a part of the area A1 of the entire area of the image of the video data obtained from the imaging units 14a and 14b. In this case, the high-definition image is an image of a part of the area A2 of the part A1. That is, the relationship between the low-definition entire video and the high-definition partial video is that the former is a wide-angle video, whereas the latter is a narrow-angle video. In addition, the partial still image can also be called a narrow-angle still image, in the same way as the partial video. In this embodiment, the wide-angle image (including both still images and videos) is an image that is captured by an imaging device equipped with a so-called wide-angle lens or fisheye lens, and in which distortion occurs. In addition, the narrow-angle image (including both still images and videos) is a part of an image captured by an imaging device equipped with a wide-angle lens or fisheye lens, and has a narrower angle of view than the wide-angle image.

上記実施形態では、全天球画像に平面画像を重畳する場合について説明したが、重畳は、合成の一例である。合成には、重畳の他に、貼り付け、嵌め込み、重ね合わせ等も含まれる。また、上記重畳画像は、合成画像の一例である。合成画像には、重畳画像の他に、貼り付け画像、嵌め込み画像、重ね合わせ画像等も含まれる。更に、画像重畳部56は、画像合成部の一例である。 In the above embodiment, a case where a planar image is superimposed on a spherical image has been described, but superimposition is an example of compositing. In addition to superimposition, compositing also includes pasting, embedding, and superimposing. Furthermore, the above superimposed image is an example of a composite image. In addition to superimposition images, composite images also include pasting images, embedding images, and superimposed images. Furthermore, the image superimposition unit 56 is an example of an image composition unit.

また、正距円筒射影画像ECと平面画像Pは、両方とも静止画の場合、両方とも動画のフレームの場合、一方が静止画で他方が動画のフレームの場合のいずれであってもよい。 Furthermore, the equirectangular projection image EC and the planar image P may both be still images, both be video frames, or one may be a still image and the other a video frame.

更に、上記実施形態では、射影方式変換部18は、一時記憶部16から取得した高精細の画像データをそのままの精細度で射影方式を変換しているが、これに限るものではない。例えば、低精細変更部17から出力される全体画像データよりも高い精細度であれば、射影方式変換部18は、射影方式を変換する際に一時記憶部16から取得した画像データの精細度を低くしてもよい。 In addition, in the above embodiment, the projection method conversion unit 18 converts the projection method of the high-resolution image data acquired from the temporary storage unit 16 while maintaining the same resolution, but this is not limited to this. For example, if the resolution is higher than the overall image data output from the low-resolution change unit 17, the projection method conversion unit 18 may lower the resolution of the image data acquired from the temporary storage unit 16 when converting the projection method.

図13及び図14に示されている各機能構成は、ソフトウェア機能ユニットの形で実現し、且つ、独立製品として販売または使用する場合に、コンピュータ読取り可能な記憶媒体に記憶することができる。この場合に、本実施形態の技術方案は、本質的、または従来技術に貢献する部分若しくは上記技術方案の部分はソフトウェア製品の形で表現される。上記コンピュータソフトウェア製品は、記憶媒体に記憶され、コンピュータ装置(パーソナルコンピュータ、サーバ、或はネットワークデバイスなど)に上記各実施形態にかかる上記方法の全部或は一部のステップを実行させる複数の指令を含む。なお、上述の記憶媒体は、USBメモリ、リムーバブルディスク、ROM、RAM、磁気ディスク、あるいは光ディスクなど、プログラムコードを格納できる様々な媒体を含む。 Each functional configuration shown in FIG. 13 and FIG. 14 can be realized in the form of a software functional unit and stored in a computer-readable storage medium when sold or used as an independent product. In this case, the technical solution of the present embodiment is expressed in the form of a software product, either essentially or as a part of the prior art. The computer software product is stored in a storage medium and includes a number of instructions that cause a computer device (such as a personal computer, a server, or a network device) to execute all or some of the steps of the method according to each of the above embodiments. The above-mentioned storage medium includes various media capable of storing program code, such as a USB memory, a removable disk, a ROM, a RAM, a magnetic disk, or an optical disk.

また、上記実施形態にかかる方法は、プロセッサに適用され、またはプロセッサによって実現される。プロセッサは信号を処理する能力を持つ集積回路基板である。上記各実施形態の方法の各ステップはプロセッサにおけるハードウェアである集積論理回路又はソフトウェア形式の指令によって実現される。上記プロセッサは汎用プロセッサ、デジタル信号プロセッサ(DSP)、専用集積回路(ASIC)、既製プログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタ論理デバイス、ディスクリートハードウェア部品であり、上記各実施形態に開示される各方法、ステップ及び論理ボックスを実現又は実行可能なものである。汎用処理器はマイクロプロセッサ又は任意の一般処理器などである。上記各実施形態にかかる方法の各ステップは、ハードウェアであるデコーダにより実行されることで実現されてもよく、または、デコーダにおけるハードウェアとソフトウェアとの組み合わせによって実現されても良い。ソフトウェアモジュールはランダムメモリ、フラッシュメモリ、読出し専用メモリ、プログラマブル読出し専用メモリ、あるいは電気的消去可能なプログラマブルメモリ、レジスタなど、本分野で成熟した記憶媒体に記憶される。このソフトウェアが記憶される記憶媒体を備えるメモリから、プロセッサは情報を読み取り、ハードウェアに合わせて上記方法のステップを実現させる。 The methods according to the above embodiments are applied to a processor or are realized by a processor. The processor is an integrated circuit board capable of processing signals. Each step of the method according to the above embodiments is realized by an integrated logic circuit, which is hardware, or by instructions in the form of software in the processor. The processor may be a general-purpose processor, a digital signal processor (DSP), an application-specific integrated circuit (ASIC), a field-programmable gate array (FPGA) or other programmable logic device, a discrete gate or transistor logic device, or a discrete hardware component, which can realize or execute each method, step, and logic box disclosed in each of the above embodiments. The general-purpose processor may be a microprocessor or any general processor. Each step of the method according to the above embodiments may be realized by being executed by a decoder, which is hardware, or may be realized by a combination of hardware and software in the decoder. The software module is stored in a storage medium mature in the field, such as a random memory, a flash memory, a read-only memory, a programmable read-only memory, or an electrically erasable programmable memory, a register, or the like. The processor reads information from the memory comprising the storage medium in which the software is stored, and realizes the steps of the method according to the hardware.

以上に説明した実施形態は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、またはそれらの組み合わせで実現される。その中に、ハードウェアの実現に関して、処理ユニットは一つまたは複数の専用集積回路(ASIC)、デジタル信号処理プロセッサ(DSP)、デジタル信号プロセッサ(DSPD)、プログラム可能論理回路(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、汎用プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、本発明の機能を実行する他の電子ユニット或はその組合せにより実現される。また、ソフトウェアの実現に関しては、上述した機能を実現するモジュール(たとえばプロセス、関数など)により上記技術が実現される。ソフトウェアコードは、メモリに保存され、プロセッサによって実行される。なお、メモリはプロセッサの内部または外部で実現される。 The above-described embodiments may be realized by hardware, software, firmware, middleware, microcode, or a combination thereof. In the case of hardware, the processing unit may be realized by one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processors (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), general-purpose processors, controllers, microcontrollers, microprocessors, other electronic units that perform the functions of the present invention, or a combination thereof. In the case of software, the above techniques are realized by modules (e.g., processes, functions, etc.) that realize the above-described functions. The software code is stored in a memory and executed by a processor. The memory may be realized inside or outside the processor.

1 全天球撮影装置(撮影装置の一例)
5 スマートフォン(通信端末の一例、画像処理装置の一例)
13 撮像制御部
14a 撮像部
14b 撮像部
15 画像処理部
16 一時記憶部
17 低精細変更部(変更手段の一例)
18 射影方式変換部(射影方式変換手段の一例)
19 結合部(結合手段の一例)
20a 動画符号化部
20b 静止画符号化部
22 受付部
51 送受信部
52 受付部
53a 動画復号化部
53b 静止画号化部
54 重畳領域作成部
55 画像作成部
56 画像重畳部
57 射影変換部
58 表示制御部
1. Omnidirectional imaging device (an example of an imaging device)
5. Smartphone (an example of a communication terminal, an example of an image processing device)
13 Imaging control unit 14a Imaging unit 14b Imaging unit 15 Image processing unit 16 Temporary storage unit 17 Low-definition change unit (an example of a change means)
18 projection method conversion unit (an example of a projection method conversion means)
19 Joint (an example of a joining means)
20a: moving image encoding unit 20b: still image encoding unit 22: reception unit 51: transmission/reception unit 52: reception unit 53a: moving image decoding unit 53b: still image encoding unit 54: superimposition area creation unit 55: image creation unit 56: image superimposition unit 57: projection transformation unit 58: display control unit

特開2006-340091号公報JP 2006-340091 A

Claims (10)

被写体を撮影して所定の精細度の動画データを得る撮影装置であって、
前記所定の精細度の動画データに係る動画の全て又は一部である広角動画を低精細に変更す変更手段と、
前記広角動画の一部の領域である狭角動画を前記変更手段によって低精細に変更後の広角動画よりも高精細な状態で射影方式変換する射影方式変換手段と、
前記低精細な広角動画のフレーム及び前記高精細な狭角動画のフレームのそれぞれの精細度を下げて一フレームに結合する結合手段と、
を有し、
前記射影方式変換手段は、前記変更手段によって低精細に変更前の広角動画のフレームとしての広角静止画の前記一部の領域である狭角静止画を前記射影方式変換することを特徴とする撮影装置。
An imaging device for capturing an image of a subject and obtaining video data of a predetermined resolution,
A change means for changing a wide-angle moving image, which is all or a part of the moving image related to the moving image data of the predetermined resolution, to a low resolution image;
a projection method conversion means for converting a narrow-angle moving image, which is a partial area of the wide-angle moving image, into a state of higher resolution than the wide-angle moving image after the narrow-angle moving image is converted to a low resolution by the conversion means;
a combining means for combining the frames of the low-definition wide-angle video and the frames of the high-definition narrow-angle video into one frame by reducing the resolution of each of the frames;
having
The projection method conversion means converts the projection method of a narrow-angle still image, which is a partial area of a wide-angle still image as a frame of a wide-angle video before being converted to low resolution by the conversion means.
請求項1に記載の撮影装置であって、
画像データを管理する画像管理システムが受信するように、前記結合手段によって一フレームに結合された前記広角動画のフレームデータ及び前記狭角動画のフレームデータを送信する送信手段と、
通信端末が送信した静止画の要求を受信する受信手段と、
を有し、
前記受信手段による前記静止画の要求の受信に基づき、前記送信手段は前記画像管理システムが受信するように前記射影方式変換手段による変換後の前記狭角静止画のデータを送信することを特徴とする撮影装置。
The imaging device according to claim 1 ,
a transmitting means for transmitting the frame data of the wide-angle video and the frame data of the narrow-angle video, which have been combined into one frame by the combining means, so that the frame data can be received by an image management system that manages image data;
A receiving means for receiving a request for a still image transmitted by a communication terminal;
having
an imaging device characterized in that, based on reception of a request for the still image by the receiving means, the transmitting means transmits data of the narrow-angle still image after conversion by the projection method conversion means so as to be received by the image management system.
前記狭角動画の一フレームの全領域が所定領域よりも小さい場合には、前記射影方式変換手段は、前記狭角静止画を前記射影方式変換しない、又は、前記送信手段は、前記射影方式変換手段による変換後の前記狭角静止画のデータを送信しないことを特徴とする請求項2に記載の撮影装置。 The photographing device described in claim 2, characterized in that if the entire area of one frame of the narrow-angle moving image is smaller than a predetermined area, the projection method conversion means does not perform the projection method conversion of the narrow-angle still image, or the transmission means does not transmit data of the narrow-angle still image after conversion by the projection method conversion means. 前記広角動画は、前記被写体を撮影して得られた所定の精細度の動画データのフレームの全領域によって構成されていることを特徴とする請求項1乃至3のいずれか一項に記載の撮影装置。 The imaging device according to any one of claims 1 to 3, characterized in that the wide-angle video is composed of the entire area of a frame of video data of a predetermined resolution obtained by photographing the subject. 前記射影方式変換手段は、前記所定の精細度のままの状態で前記狭角静止画を前記射影方式変換することを特徴とする請求項1乃至4のいずれか一項に記載の撮影装置。 The imaging device according to any one of claims 1 to 4, characterized in that the projection method conversion means converts the projection method of the narrow-angle still image while keeping the specified resolution. 前記撮影装置は、被写体を撮影して全天球画像データを得る全天球撮影装置であることを特徴とする請求項1乃至5のいずれか一項に記載の撮影装置。 The imaging device according to any one of claims 1 to 5, characterized in that the imaging device is an omnidirectional imaging device that captures an object and obtains omnidirectional image data. 請求項に記載の撮影装置と、
前記画像管理システムと、
を有することを特徴とする撮影システム。
The imaging device according to claim 2 ;
the image management system;
1. An imaging system comprising:
請求項に記載の撮影装置と、
前記画像管理システムと、
前記画像管理システムから、前記広角動画のデータ及び前記狭角動画のデータを受信して、前記広角動画上の前記一部の領域に前記狭角動画を合成して表示し、前記画像管理システムから、前記狭角静止画のデータを受信して、前記広角静止画上の前記一部の領域に前記狭角静止画を合成して、前記狭角動画に替えて前記狭角静止画を表示する通信端末と、
を有することを特徴とする撮影システム。
The imaging device according to claim 2 ;
the image management system;
a communication terminal that receives data of the wide-angle video and data of the narrow-angle video from the image management system, synthesizes and displays the narrow-angle video in the partial area on the wide-angle video, and receives data of the narrow-angle still image from the image management system, synthesizes the narrow-angle still image in the partial area on the wide-angle still image , and displays the narrow-angle still image in place of the narrow-angle video;
1. An imaging system comprising:
被写体を撮影して所定の精細度の動画データを処理する画像処理方法であって、
前記所定の精細度の動画データに係る動画の全て又は一部である広角動画を低精細に変更す変更ステップと、
前記広角動画の一部の領域である狭角動画を前記変更ステップによって低精細に変更後の広角動画よりも高精細な状態で射影方式変換する射影方式変換ステップと、
前記低精細な広角動画のフレーム及び前記高精細な狭角動画のフレームのそれぞれの精細度を下げて一フレームに結合する結合ステップと、
を実行し、
前記射影方式変換ステップは、前記変更ステップによって低精細に変更前の広角動画のフレームとしての広角静止画の前記一部の領域である狭角静止画を前記射影方式変換する処理を含むことを特徴とする画像処理方法。
An image processing method for photographing a subject and processing video data of a predetermined resolution, comprising the steps of:
a change step of changing a wide-angle moving image, which is all or a part of the moving image related to the moving image data of the predetermined resolution, to a low resolution moving image;
a projection method conversion step of performing projection method conversion on a narrow-angle moving image, which is a partial area of the wide-angle moving image, in a state of higher resolution than the wide-angle moving image after being changed to a low resolution by the change step;
a combining step of combining the low-definition wide-angle video frame and the high-definition narrow-angle video frame into one frame by reducing the resolution of each of the frames;
Run
An image processing method characterized in that the projection method conversion step includes a process of converting the projection method of a narrow-angle still image, which is a portion of a wide-angle still image as a frame of a wide-angle video before being converted to low resolution by the conversion step.
コンピュータに、請求項に記載の方法を実行させることを特徴とするプログラム。 A program causing a computer to execute the method according to claim 9 .
JP2020039043A 2019-03-20 2020-03-06 Photographing device, photographing system, image processing method, and program Active JP7484237B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202010171270.4A CN111726520B (en) 2019-03-20 2020-03-12 Imaging device, imaging system, and image processing method
US16/820,760 US10939068B2 (en) 2019-03-20 2020-03-17 Image capturing device, image capturing system, image processing method, and recording medium
EP20164281.6A EP3712839A1 (en) 2019-03-20 2020-03-19 Image capturing device, image capturing system, image processing method, and carrier means
US17/120,829 US11310459B2 (en) 2019-03-20 2020-12-14 Image capturing device, image capturing system, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019052601 2019-03-20
JP2019052601 2019-03-20

Publications (2)

Publication Number Publication Date
JP2020162118A JP2020162118A (en) 2020-10-01
JP7484237B2 true JP7484237B2 (en) 2024-05-16

Family

ID=72640194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020039043A Active JP7484237B2 (en) 2019-03-20 2020-03-06 Photographing device, photographing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7484237B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120341A (en) 2002-09-26 2004-04-15 Riosu Corp:Kk Video image monitoring system
US20050275721A1 (en) 2004-06-14 2005-12-15 Yusuke Ishii Monitor system for monitoring suspicious object
US20120007866A1 (en) 2010-07-12 2012-01-12 Cme Advantage, Inc. Systems and methods for networked, in-context, composed, high resolution image viewing
JP2018042105A (en) 2016-09-07 2018-03-15 東芝テリー株式会社 Monitoring image processing device and monitoring image processing method
WO2018124267A1 (en) 2016-12-28 2018-07-05 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120341A (en) 2002-09-26 2004-04-15 Riosu Corp:Kk Video image monitoring system
US20050275721A1 (en) 2004-06-14 2005-12-15 Yusuke Ishii Monitor system for monitoring suspicious object
JP2006033793A (en) 2004-06-14 2006-02-02 Victor Co Of Japan Ltd Tracking video reproducing apparatus
US20120007866A1 (en) 2010-07-12 2012-01-12 Cme Advantage, Inc. Systems and methods for networked, in-context, composed, high resolution image viewing
JP2018042105A (en) 2016-09-07 2018-03-15 東芝テリー株式会社 Monitoring image processing device and monitoring image processing method
WO2018124267A1 (en) 2016-12-28 2018-07-05 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium

Also Published As

Publication number Publication date
JP2020162118A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
US10939068B2 (en) Image capturing device, image capturing system, image processing method, and recording medium
JP7400195B2 (en) Image communication system, imaging device, communication terminal, mode switching method, program
JP7192592B2 (en) Imaging device, image communication system, image processing method, program
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019057903A (en) Image processing apparatus, photographing system, image processing method, and program
JP2018110375A (en) Display device, program, and display method
JP2019057264A (en) Image processing apparatus, photographing system, image processing method, and program
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US11250540B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019164782A (en) Image processing apparatus, image capturing system, image processing method, and program
JP2018110384A (en) Image processing apparatus, imaging system, image processing method and program
JP2018056889A (en) Display terminal, display method, and program
US11102448B2 (en) Image capturing apparatus, image processing system, image processing method, and recording medium
JP2018109946A (en) Display device, program, and method for display
JP7424031B2 (en) Communication terminal, photographing system, image processing method and program
JP7415544B2 (en) Photography system and method
JP2018026642A (en) Image management system, image communication system, image management method, and program
US11533430B2 (en) Image capturing device with display control, image communication system, and method for display control, and recording medium
JP7484237B2 (en) Photographing device, photographing system, image processing method, and program
JP2019185757A (en) Image processing device, imaging system, image processing method, and program
JP2019164783A (en) Image processing apparatus, image capturing system, image processing method, and program
JP2018109971A (en) Image processing device, image processing system, photographing system, image processing method, and program
JP2018061243A (en) Communication terminal, display method, and program
JP7400407B2 (en) Communication terminal, photographing system, image processing method and program
JP7358938B2 (en) Communication terminal, image communication system, display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7484237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150