JP6816403B2 - Image management system, image communication system, image management method, and program - Google Patents

Image management system, image communication system, image management method, and program Download PDF

Info

Publication number
JP6816403B2
JP6816403B2 JP2016158865A JP2016158865A JP6816403B2 JP 6816403 B2 JP6816403 B2 JP 6816403B2 JP 2016158865 A JP2016158865 A JP 2016158865A JP 2016158865 A JP2016158865 A JP 2016158865A JP 6816403 B2 JP6816403 B2 JP 6816403B2
Authority
JP
Japan
Prior art keywords
image
management system
attached
drawn
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016158865A
Other languages
Japanese (ja)
Other versions
JP2017068832A (en
Inventor
聖 三井
聖 三井
達也 永渕
達也 永渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US15/270,583 priority Critical patent/US10147160B2/en
Priority to EP16191016.1A priority patent/EP3151541B1/en
Publication of JP2017068832A publication Critical patent/JP2017068832A/en
Application granted granted Critical
Publication of JP6816403B2 publication Critical patent/JP6816403B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像管理システム、画像通信システム、画像管理方法、及びプログラムに関するものである。 The present invention relates to an image management system, an image communication system, an image management method, and a program.

近年、一度の撮影で、360°の全天球パノラマ画像を得る特殊なデジタルカメラが提供されている(特許文献1参照)。但し、この特殊なデジタルカメラは、全天球パノラマ画像を得るが、そのままでは画像が湾曲して利用者が見えづらい。そのため、スマートフォン等が、全天球パノラマ画像の一部であって、所定の視点からの視野に入る所定領域における所定領域画像を表示することで、利用者は従来のデジタルカメラで撮影された画像と同じ平面画像を閲覧する感覚で所定領域画像を閲覧することができる。 In recent years, a special digital camera that obtains a 360 ° spherical panoramic image with a single shooting has been provided (see Patent Document 1). However, although this special digital camera obtains an omnidirectional panoramic image, the image is curved and difficult for the user to see as it is. Therefore, a smartphone or the like is a part of the spherical panoramic image, and by displaying a predetermined area image in a predetermined area that enters the field of view from a predetermined viewpoint, the user can take an image taken by a conventional digital camera. You can browse the predetermined area image as if you were browsing the same plane image as.

一方、従来から、利用者によって平面画像上に描画された描画像に基づいて、この描画像を含む添付画像を作成し、この添付画像を平面画像に添付することが知られている。 On the other hand, conventionally, it is known that an attached image including this drawn image is created based on a drawn image drawn on a flat image by a user, and the attached image is attached to the flat image.

しかしながら、全天球パノラマ画像の一部である所定領域画像に添付画像を添付する場合、実際には添付画像を立体球表面に合わせて湾曲させた状態で添付することになる。そのため、上記視点の位置を変更すると、描画時の描画像の形状とは異なる形状の描画像が表示されることになるため、利用者が困惑するという課題が生じる。 However, when the attached image is attached to the predetermined region image which is a part of the spherical panoramic image, the attached image is actually attached in a curved state according to the surface of the three-dimensional sphere. Therefore, if the position of the viewpoint is changed, a drawn image having a shape different from the shape of the drawn image at the time of drawing is displayed, which causes a problem that the user is confused.

請求項1に係る発明は、撮影画像を管理する画像管理システムであって、全天球パノラマ画像である前記撮影画像上に描画された描画像に基づいて、当該描画像を含み前記撮影画像に添付するための添付画像を作成する作成手段と、前記作成された添付画像を前記撮影画像に平面画像として添付する添付手段と、を有することを特徴とする画像管理システムである。
The invention according to claim 1 is an image management system that manages captured images, and includes the captured image in the captured image based on the captured image drawn on the captured image which is an all-sky panoramic image. The image management system is characterized by having a creating means for creating an attached image for attachment and an attaching means for attaching the created attached image to the captured image as a flat image.

以上説明したように本発明によれば、添付画像を湾曲させないで平面画像として撮影画像に添付するため、利用者が困惑することを解消することができる。 As described above, according to the present invention, since the attached image is attached to the captured image as a flat image without being curved, it is possible to eliminate the confusion of the user.

(a)は撮影装置の左側面図であり、(b)は撮影装置の正面図であり、(c)は撮影装置の平面図である。(A) is a left side view of the photographing device, (b) is a front view of the photographing device, and (c) is a plan view of the photographing device. 撮影装置の使用イメージ図である。It is a use image figure of a photographing apparatus. (a)は撮影装置で撮影された半球画像(前)、(b)は撮影装置で撮影された半球画像(後)、(c)はメルカトル図法により表された画像を示した図である。(A) is a hemispherical image (front) taken by the photographing device, (b) is a hemispherical image (rear) taken by the photographing device, and (c) is a diagram showing an image represented by the Mercator projection. (a)メルカトル画像で球を被う状態を示した概念図、(b)全天球パノラマ画像を示した図である。(A) is a conceptual diagram showing a state of covering a sphere in a Mercator image, and (b) is a diagram showing a panoramic image of an omnidirectional sphere. 全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is a figure which showed the position of the virtual camera and a predetermined area when the whole celestial sphere panoramic image is made into a three-dimensional three-dimensional sphere. (a)は図5の立体斜視図、(b)はディスプレイに所定領域の画像が表示された通信端末を示す図である。(A) is a three-dimensional perspective view of FIG. 5, and (b) is a diagram showing a communication terminal in which an image of a predetermined area is displayed on a display. 所定領域情報と所定領域画像との関係を示した図である。It is a figure which showed the relationship between the predetermined area information and a predetermined area image. 本発明の実施形態に係る画像通信システムの概略図である。It is the schematic of the image communication system which concerns on embodiment of this invention. 撮影装置のハードウェア構成図である。It is a hardware block diagram of a photographing apparatus. 通信端末3のハードウェア構成図である。It is a hardware configuration diagram of a communication terminal 3. 画像管理システム及び通信端末7のハードウェア構成図である。It is a hardware block diagram of an image management system and a communication terminal 7. 画像データの登録及び取得の処理の概略を示した図である。It is a figure which showed the outline of the process of registration and acquisition of image data. 撮影画像管理テーブルを示す概念図である。It is a conceptual diagram which shows the photographed image management table. 添付画像管理テーブルを示す概念図である。It is a conceptual diagram which shows the attached image management table. 撮影画像における添付画像の添付位置を導出する処理を示したフローチャートである。It is a flowchart which showed the process of deriving the attachment position of the attachment image in the photographed image. 添付画像を撮影画像に添付する処理を示したフローチャートである。It is a flowchart which showed the process of attaching an attached image to a photographed image. (a)は画像管理システム5及び通信端末7における二次元の描画領域を示した概念図、(b)は画像管理システム5における三次元の仮想空間を示した概念図である。(A) is a conceptual diagram showing a two-dimensional drawing area in the image management system 5 and the communication terminal 7, and (b) is a conceptual diagram showing a three-dimensional virtual space in the image management system 5. (a)は画像管理システム5及び通信端末7における二次元の描画領域を示した概念図、(b)は画像管理システム5における三次元の仮想空間を示した概念図である。(A) is a conceptual diagram showing a two-dimensional drawing area in the image management system 5 and the communication terminal 7, and (b) is a conceptual diagram showing a three-dimensional virtual space in the image management system 5. (a)は画像管理システム5及び通信端末7における二次元の描画領域を示した概念図、(b)は画像管理システム5における三次元の仮想空間を示した概念図である。(A) is a conceptual diagram showing a two-dimensional drawing area in the image management system 5 and the communication terminal 7, and (b) is a conceptual diagram showing a three-dimensional virtual space in the image management system 5. (a)は画像管理システム5及び通信端末7における二次元の描画領域を示した概念図、(b)は画像管理システム5における三次元の仮想空間を示した概念図である。(A) is a conceptual diagram showing a two-dimensional drawing area in the image management system 5 and the communication terminal 7, and (b) is a conceptual diagram showing a three-dimensional virtual space in the image management system 5. (a)は画像管理システム5及び通信端末7における二次元の描画領域を示した概念図、(b)は画像管理システム5における三次元の仮想空間を示した概念図である。(A) is a conceptual diagram showing a two-dimensional drawing area in the image management system 5 and the communication terminal 7, and (b) is a conceptual diagram showing a three-dimensional virtual space in the image management system 5. (a)は画像管理システム5及び通信端末7における二次元の描画領域を示した概念図、(b)は画像管理システム5における三次元の仮想空間を示した概念図である。(A) is a conceptual diagram showing a two-dimensional drawing area in the image management system 5 and the communication terminal 7, and (b) is a conceptual diagram showing a three-dimensional virtual space in the image management system 5. (a)は画像管理システム5及び通信端末7における二次元の描画領域を示した概念図、(b)は画像管理システム5における三次元の仮想空間を示した概念図である。(A) is a conceptual diagram showing a two-dimensional drawing area in the image management system 5 and the communication terminal 7, and (b) is a conceptual diagram showing a three-dimensional virtual space in the image management system 5. (a)は画像管理システム5及び通信端末7における二次元の描画領域を示した概念図、(b)は画像管理システム5における三次元の仮想空間を示した概念図である。(A) is a conceptual diagram showing a two-dimensional drawing area in the image management system 5 and the communication terminal 7, and (b) is a conceptual diagram showing a three-dimensional virtual space in the image management system 5. (a)は画像管理システム5及び通信端末7における二次元の描画領域を示した概念図、(b)は画像管理システム5における三次元の仮想空間を示した概念図である。(A) is a conceptual diagram showing a two-dimensional drawing area in the image management system 5 and the communication terminal 7, and (b) is a conceptual diagram showing a three-dimensional virtual space in the image management system 5. (a)は透過処理ありで歪み補正ありの場合の所定領域画像における描画像g1を示した概念図であり、(b)は透過処理ありで歪み補正なしの場合の所定領域画像における描画像g9を示した概念図である。(A) is a conceptual diagram showing a drawn image g1 in a predetermined area image with transparency processing and distortion correction, and (b) is a drawn image g9 in a predetermined area image with transparency processing and no distortion correction. It is a conceptual diagram which showed. (a)は透過処理ありで歪み補正なしの場合の全天球パノラマ画像における描画像g9を示した概念図であり、(b)は透過処理なしで歪み補正なしの場合の全天球パノラマ画像における描画像g9を示した概念図である。(A) is a conceptual diagram showing a drawn image g9 in an omnidirectional panoramic image with transparency processing and no distortion correction, and (b) is an omnidirectional panoramic image without distortion correction without transmission processing. It is a conceptual diagram which showed the drawing image g9 in.

以下、図面を用いて、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<<実施形態の概略>>
<全天球パノラマ画像の生成方法>
図1乃至図7を用いて、全天球パノラマ画像の生成方法について説明する。
<< Outline of Embodiment >>
<How to generate spherical panoramic images>
A method of generating a spherical panoramic image will be described with reference to FIGS. 1 to 7.

まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の正面図であり、図1(c)は撮影装置の平面図である。 First, the appearance of the photographing apparatus 1 will be described with reference to FIG. The photographing device 1 is a digital camera for obtaining a photographed image that is the basis of the spherical panoramic image. Note that FIG. 1A is a left side view of the photographing device, FIG. 1B is a front view of the photographing device, and FIG. 1C is a plan view of the photographing device.

図1(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図1(a),(b),(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。これら撮像素子103a,103bは、半球画像(画角180°以上)の撮影が可能な光学部材(例えば、後述する魚眼レンズ102a,102b)と併せて用いられる。また、図1(b)に示されているように、撮影装置1の背面側(後側)には、シャッターボタン等の操作部115が設けられている。 As shown in FIG. 1A, the photographing device 1 has a size that a human can hold with one hand. Further, as shown in FIGS. 1A, 1B, and 1C, the image sensor 103a is on the front side (front side) and the image sensor is on the back side (rear side) on the upper part of the photographing device 1. 103b is provided. These image pickup devices 103a and 103b are used in combination with an optical member (for example, a fisheye lens 102a and 102b described later) capable of capturing a hemispherical image (angle of view of 180 ° or more). Further, as shown in FIG. 1B, an operation unit 115 such as a shutter button is provided on the back side (rear side) of the photographing device 1.

次に、図2を用いて、撮影装置1の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置1は、図2に示されているように、例えば、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。 Next, the usage state of the photographing apparatus 1 will be described with reference to FIG. Note that FIG. 2 is an image diagram of the use of the photographing apparatus. As shown in FIG. 2, the photographing device 1 is used, for example, for the user to hold in his / her hand and photograph a subject around the user. In this case, two hemispherical images can be obtained by taking an image of a subject around the user by the image sensor 103a and the image sensor 103b shown in FIG.

次に、図3及び図4を用いて、撮影装置1で撮影された画像から全天球パノラマ画像が作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。図4(a)はメルカトル画像で球を被う状態を示した概念図、図4(b)は全天球パノラマ画像を示した図である。 Next, the outline of the process from the image taken by the photographing apparatus 1 to the creation of the spherical panoramic image will be described with reference to FIGS. 3 and 4. Note that FIG. 3 (a) is a hemispherical image (front side) taken by the photographing device, FIG. 3 (b) is a hemispherical image (rear side) taken by the photographing device, and FIG. 3 (c) is represented by the Mercator projection. It is a figure which showed the image (hereinafter, referred to as "Mercator image"). FIG. 4A is a conceptual diagram showing a state of covering a sphere in a Mercator image, and FIG. 4B is a diagram showing a panoramic image of a spherical image.

図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。 As shown in FIG. 3A, the image obtained by the image sensor 103a is a hemispherical image (front side) curved by the fisheye lens 102a described later. Further, as shown in FIG. 3B, the image obtained by the image sensor 103b is a hemispherical image (rear side) curved by the fisheye lens 102b described later. Then, the hemispherical image (front side) and the hemispherical image (rear side) inverted 180 degrees are combined by the photographing apparatus 1, and a Mercator image is created as shown in FIG. 3 (c).

そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、メルカトル画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球パノラマ画像が作成される。このように、全天球パノラマ画像は、メルカトル画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球パノラマ画像は、静止画であっても動画であってもよい。 Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), as shown in FIG. 4 (a), the Mercator image is pasted so as to cover the spherical surface, and in FIG. 4 (b). An omnidirectional panoramic image as shown is created. In this way, the spherical panoramic image is represented as an image in which the Mercator image faces the center of the sphere. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. The spherical panoramic image may be a still image or a moving image.

以上のように、全天球パノラマ画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球パノラマ画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。 As described above, since the spherical panoramic image is an image pasted so as to cover the spherical surface, it gives a sense of discomfort to humans. Therefore, by displaying a part of a predetermined region of the spherical panoramic image (hereinafter, referred to as “predetermined region image”) as a flat image with less curvature, it is possible to display the image without giving a sense of discomfort to humans. This will be described with reference to FIGS. 5 and 6.

なお、図5は、全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、3次元の立体球として表示されている全天球パノラマ画像に対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球パノラマ画像が、3次元の立体球CSで表わされている。このように生成された全天球パノラマ画像が、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球パノラマ画像の外部に位置している。全天球パノラマ画像における所定領域Tは、この全天球パノラマ画像における仮想カメラICの位置の所定領域情報によって特定される。この所定領域情報は、例えば、座標(x(rH)、y(rV)、及び画角α(angle))又は座標(X,Y,Z)によって示される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球パノラマ画像に近づいたり、遠ざけたりすることで表現することもできる。 Note that FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined area when the spherical panoramic image is a three-dimensional three-dimensional sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who sees the panoramic image of the spherical image displayed as a three-dimensional three-dimensional sphere. Further, FIG. 6A is a three-dimensional perspective view of FIG. 5, and FIG. 6B is a diagram showing a predetermined area image when displayed on a display. Further, in FIG. 6A, the spherical panoramic image shown in FIG. 4 is represented by a three-dimensional three-dimensional sphere CS. Assuming that the spherical panoramic image generated in this way is a three-dimensional sphere CS, the virtual camera IC is located outside the spherical panoramic image as shown in FIG. The predetermined area T in the spherical panoramic image is specified by the predetermined area information of the position of the virtual camera IC in the spherical panoramic image. This predetermined area information is indicated by, for example, coordinates (x (rH), y (rV), and angle of view α (angle)) or coordinates (X, Y, Z). The zoom of the predetermined region T can be expressed by expanding or contracting the range (arc) of the angle of view α. Further, the zoom of the predetermined area T can be expressed by moving the virtual camera IC closer to or further away from the spherical panoramic image.

そして、図6(a)で示されているように、全天球パノラマ画像における所定領域Tの画像は、図6(b)に示されているように、所定のディスプレイに、所定領域画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報(x,y,α)によって表された画像である。 Then, as shown in FIG. 6 (a), the image of the predetermined region T in the spherical panoramic image is displayed as a predetermined region image on the predetermined display as shown in FIG. 6 (b). Is displayed. The image shown in FIG. 6B is an image represented by the predetermined area information (x, y, α) that has been initialized (default).

ここで、図7を用いて、所定領域情報と所定領域画像の関係について説明する。なお、図7は、所定領域情報と所定領域画像の関係との関係を示した図である。図7に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角線画角2Lとした場合の中心点CPが、所定領域情報の(x,y)パラメータとなる。fは仮想カメラICから中心点CPまでの距離である。そして、図7では、一般的に以下の式(1)で示される三角関数が成り立つ。 Here, the relationship between the predetermined area information and the predetermined area image will be described with reference to FIG. 7. Note that FIG. 7 is a diagram showing the relationship between the predetermined area information and the predetermined area image. As shown in FIG. 7, the center point CP when the diagonal angle of view 2L of the predetermined area T represented by the angle of view α of the virtual camera IC is set is the (x, y) parameter of the predetermined area information. .. f is the distance from the virtual camera IC to the center point CP. Then, in FIG. 7, the trigonometric function generally represented by the following equation (1) holds.

Lf=tan(α/2)・・・(式1)
<画像通信システムの概略>
続いて、図8を用いて、本実施形態の画像通信システムの構成の概略について説明する。図8は、本実施形態の画像通信システムの構成の概略図である。
Lf = tan (α / 2) ... (Equation 1)
<Outline of image communication system>
Subsequently, the outline of the configuration of the image communication system of the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram of the configuration of the image communication system of the present embodiment.

図8に示されているように、本実施形態の画像通信システムは、撮影装置1、通信端末3、画像管理システム5、及び通信端末7によって構成されている。 As shown in FIG. 8, the image communication system of the present embodiment is composed of a photographing device 1, a communication terminal 3, an image management system 5, and a communication terminal 7.

このうち、撮影装置1は、上述のように、全天球パノラマ画像を得るためのデジタルカメラである。なお、この撮影装置1は、一般的なデジタルカメラであっても良く、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために全天球パノラマ画像を得るためのデジタルカメラとして説明を行う。通信端末3は、WiFi等の無線通信技術を利用し、撮影装置1とデータ通信すると共に、通信ネットワーク9を介して画像管理システム5とデータ通信を行なうことができる。なお、通信ネットワーク9は、例えば、インターネットである。 Of these, the photographing device 1 is a digital camera for obtaining a spherical panoramic image as described above. The photographing device 1 may be a general digital camera, and when the communication terminal 3 is equipped with a camera, the communication terminal 3 can be a digital camera. In the present embodiment, in order to make the explanation easy to understand, the description will be given as a digital camera for obtaining a spherical panoramic image. The communication terminal 3 can perform data communication with the photographing device 1 and data communication with the image management system 5 via the communication network 9 by using a wireless communication technology such as WiFi. The communication network 9 is, for example, the Internet.

また、画像管理システム5は、例えば、サーバコンピュータであり、通信ネットワーク9を介して、通信端末3,7とデータ通信を行なうことができる。画像管理システム5には、OpenGL ESがインストールされており、全天球パノラマ画像を作成する。また、画像管理システム5は、全天球パノラマ画像の一部の領域を示す所定領域情報(又は、この所定領域情報で示される画像である所定領域画像を作成し、通信端末7に撮影画像データ及び所定領域情報(又は所定領域画像)を提供する。 Further, the image management system 5 is, for example, a server computer, and can perform data communication with the communication terminals 3 and 7 via the communication network 9. OpenGL ES is installed in the image management system 5, and a spherical panoramic image is created. Further, the image management system 5 creates predetermined area information (or a predetermined area image which is an image indicated by the predetermined area information) indicating a part of the panoramic image of the whole sky, and captures image data on the communication terminal 7. And provide predetermined area information (or predetermined area image).

また、通信端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理システム5とデータ通信を行なうことができる。なお、画像管理システム5は、単一のサーバコンピュータによって構成されてもよいし、複数のサーバコンピュータによって構成されてもよい。 Further, the communication terminal 7 is, for example, a notebook PC (Personal Computer), and can perform data communication with the image management system 5 via the communication network 9. The image management system 5 may be configured by a single server computer or may be configured by a plurality of server computers.

更に、撮影装置1及び通信端末3は、撮影者Xによって利用される。通信端末7は、閲覧者Yによって利用される。画像管理システム5は、各拠点の通信端末3から送られて来た撮影画像データを通信端末7に提供するサービスを行なうサービス会社等に設置されている。 Further, the photographing device 1 and the communication terminal 3 are used by the photographer X. The communication terminal 7 is used by the viewer Y. The image management system 5 is installed in a service company or the like that provides a service of providing captured image data sent from the communication terminal 3 of each base to the communication terminal 7.

<実施形態のハードウェア構成>
次に、図9乃至図11を用いて、本実施形態の撮影装置1、通信端末3,7、及び画像管理システム5のハードウェア構成を詳細に説明する。
<Hardware configuration of the embodiment>
Next, the hardware configurations of the photographing device 1, the communication terminals 3 and 7, and the image management system 5 of the present embodiment will be described in detail with reference to FIGS. 9 to 11.

まず、図9を用いて、撮影装置1のハードウェア構成を説明する。なお、図9は、撮影装置のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全方位撮影装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。 First, the hardware configuration of the photographing device 1 will be described with reference to FIG. Note that FIG. 9 is a hardware configuration diagram of the photographing device. In the following, the photographing device 1 is an omnidirectional image pickup device using two image pickup elements, but the number of image pickup devices may be three or more. Further, the device does not necessarily have to be a device dedicated to omnidirectional shooting, and by attaching a retrofitted omnidirectional shooting unit to a normal digital camera, smartphone, or the like, it may have substantially the same function as the shooting device 1. ..

図9に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。 As shown in FIG. 9, the photographing device 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, and a ROM (Read Only Memory). ) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, and antenna 117a.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Of these, the image pickup unit 101 includes wide-angle lenses (so-called fisheye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two image pickups provided corresponding to each wide-angle lens. It includes elements 103a and 103b. The image sensors 103a and 103b are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) sensors and CCD (Charge Coupled Device) sensors that convert optical images from fisheye lenses into image data of electrical signals and output them, or the horizontal or horizontal of these image sensors. It has a timing generation circuit that generates a vertical synchronization signal, a pixel clock, and the like, and a group of registers in which various commands and parameters necessary for the operation of this image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。 The image sensors 103a and 103b of the image pickup unit 101 are each connected to the image processing unit 104 by a parallel I / F bus. On the other hand, the image pickup elements 103a and 103b of the image pickup unit 101 are connected by a serial I / F bus (I2C bus or the like) separately from the image pickup control unit 105. The image processing unit 104 and the image pickup control unit 105 are connected to the CPU 111 via the bus 110. Further, a ROM 112, a SRAM 113, a DRAM 114, an operation unit 115, a network I / F 116, a communication unit 117, an electronic compass 118, and the like are also connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているようなメルカトル画像のデータを作成する。 The image processing unit 104 takes in the image data output from the image pickup elements 103a and 103b through the parallel I / F bus, performs predetermined processing on each image data, and then synthesizes these image data. , Create data for a Mercator image as shown in FIG. 3 (c).

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 The image pickup control unit 105 generally uses the image pickup control unit 105 as a master device and the image pickup elements 103a and 103b as slave devices, and sets commands and the like in the register group of the image pickup elements 103a and 103b by using the I2C bus. Necessary commands and the like are received from the CPU 111. Further, the image pickup control unit 105 also uses the I2C bus to take in the status data of the register group of the image pickup elements 103a and 103b and send it to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Further, the image pickup control unit 105 instructs the image pickup devices 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Depending on the shooting device, it may have a preview display function on a display or a function corresponding to a moving image display. In this case, the output of the image data from the image sensors 103a and 103b is continuously performed at a predetermined frame rate (frames / minute).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置には表示部が設けられていないが、表示部を設けてもよい。 Further, as will be described later, the image pickup control unit 105 also functions as a synchronization control means for synchronizing the output timings of the image data of the image pickup elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the photographing device is not provided with a display unit, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。 The CPU 111 controls the overall operation of the photographing device 1 and executes necessary processing. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data in the middle of processing, and the like. In particular, the DRAM 114 stores image data during processing by the image processing unit 104 and data of the processed Mercator image.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。 The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel having both display and operation functions, and the like. By operating the operation buttons, the user inputs various shooting modes and shooting conditions.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。 Network I / F116 is a general term for interface circuits (USB I / F, etc.) with external media such as SD cards and personal computers. Further, the network I / F116 may be a network interface regardless of whether it is wireless or wired. The Mercator image data stored in the DRAM 114 is recorded on an external medium via the network I / F 116, or if necessary, the communication terminal 3 or the like via the network I / F 116 which becomes the network I / F. It may be sent to an external device.

通信部117は、撮影装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)やNFC等の短距離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。 The communication unit 117 communicates with an external device such as a communication terminal 3 by a short-range wireless technology such as WiFi (wireless fidelity) or NFC via an antenna 117a provided in the photographing device 1. The communication unit 117 can also transmit the Mercator image data to the external device of the communication terminal 3.

電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。 The electronic compass 118 calculates the direction and tilt (Roll rotation angle) of the photographing device 1 from the magnetism of the earth, and outputs the direction / tilt information. This orientation / tilt information is an example of related information (metadata) along with Exif, and is used for image processing such as image correction of a captured image. The related information also includes each data of the shooting date and time of the image and the data capacity of the image data.

次に、図10を用いて、通信端末3のハードウェア構成を説明する。図10は、通信端末3のハードウェア構成図である。図10に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種加速度・方位センサ306、フラッシュメモリ等の記録メディア307に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ308を備えている。そして、メディアドライブ308の制御に従って、既に記録されていたデータが読み出され、又は新たにデータが書き込まれて記憶する記録メディア307が着脱自在な構成となっている。 Next, the hardware configuration of the communication terminal 3 will be described with reference to FIG. FIG. 10 is a hardware configuration diagram of the communication terminal 3. As shown in FIG. 10, the communication terminal 3 includes a CPU 301 that controls the operation of the entire communication terminal 3, a ROM 302 that stores basic input / output programs, and a RAM (Random Access Memory) 303 that is used as a work area of the CPU 301. , EEPROM (Electrically Erasable and Programmable ROM) 304 that reads or writes data under the control of CPU 301, CMOS sensor 305 as an imaging element that images a subject and obtains image data under the control of CPU 301, and an electronic magnetic compass that detects geomagnetism. It is equipped with various acceleration / orientation sensors 306 such as a gyro compass and an acceleration sensor, and a media drive 308 that controls reading or writing (storage) of data to a recording medium 307 such as a flash memory. Then, according to the control of the media drive 308, the recording medium 307 in which the already recorded data is read out or the data is newly written and stored is detachable.

なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。 The EEPROM 304 stores an operating system (OS) executed by the CPU 301, other programs, and various data. Further, a CCD sensor may be used instead of the CMOS sensor 305.

更に、通信端末3は、音声を音声信号に変換する音声入力部311、音声信号を音声に変換する音声出力部312、アンテナ313a、このアンテナ313aを利用して無線通信信号により、最寄の基地局等と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、被写体の画像や各種アイコン等を表示する液晶や有機ELなどのディスプレイ315、このディスプレイ315上に載せられ、感圧式又は静電式のパネルによって構成され、指やタッチペン等によるタッチによってディスプレイ315上におけるタッチ位置を検出するタッチパネル316、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。 Further, the communication terminal 3 uses a voice input unit 311 that converts voice into a voice signal, a voice output unit 312 that converts voice signals into voice, an antenna 313a, and a wireless communication signal using the antenna 313a to obtain a nearest base. Receives GPS signals including position information (latitude, longitude, and altitude) of the communication terminal 3 by the communication unit 313 that communicates with stations, GPS (Global Positioning Systems) satellites, or IMES (Indoor MEssaging System) as indoor GPS. GPS receiver 314, display 315 such as liquid crystal or organic EL that displays images of subjects and various icons, mounted on this display 315, composed of pressure-sensitive or electrostatic panels, with fingers, touch pens, etc. It includes a touch panel 316 that detects a touch position on the display 315 by touch, and a bus line 310 such as an address bus or a data bus for electrically connecting each of the above parts.

なお、音声入力部311は、音声を入力するマイクが含まれ、音声出力部312には、音声を出力するスピーカが含まれている。 The voice input unit 311 includes a microphone for inputting voice, and the voice output unit 312 includes a speaker for outputting voice.

次に、図11を用いて、画像管理システム5及びノートPCの場合の通信端末7のハードウェア構成を説明する。なお、図11は、画像管理システム5及び通信端末7のハードウェア構成図である。画像管理システム5、及び通信端末7は、ともにコンピュータであるため、以下では、画像管理システム5の構成について説明し、通信端末7の構成の説明は省略する。 Next, the hardware configuration of the communication terminal 7 in the case of the image management system 5 and the notebook PC will be described with reference to FIG. Note that FIG. 11 is a hardware configuration diagram of the image management system 5 and the communication terminal 7. Since both the image management system 5 and the communication terminal 7 are computers, the configuration of the image management system 5 will be described below, and the description of the configuration of the communication terminal 7 will be omitted.

画像管理システム5は、画像管理システム5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、画像管理システム5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を図11に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。 The image management system 5 includes a CPU 501 that controls the operation of the entire image management system 5, a ROM 502 that stores a program used to drive the CPU 501 such as an IPL, a RAM 503 that is used as a work area of the CPU 501, and a program for the image management system 5. HD504 that stores various data such as, HDD (Hard Disk Drive) 505 that controls reading or writing of various data to HD504 according to the control of CPU501, reading or writing (storage) of data to recording media 506 such as flash memory. Media drive 507 to control, display 508 that displays various information such as cursors, menus, windows, characters, or images, network I / F 509 for data communication using communication network 9, characters, numerical values, various instructions, etc. A keyboard 511 equipped with multiple keys for inputting data, a mouse 512 for selecting and executing various instructions, selecting a processing target, moving a cursor, etc., and a CD-ROM (Compact Disc) as an example of a removable recording medium. Read Only Memory) A CD-ROM drive 514 that controls reading or writing of various data to 513, and an address bus, data bus, etc. for electrically connecting each of the above components as shown in FIG. It is equipped with a bus line 510.

<<実施形態の機能構成>>
次に、図9乃至図14を用いて、本実施形態の機能構成について説明する。図12は、本実施形態の画像通信システムの一部を構成する、撮影装置1、通信端末3、画像管理システム5、及通信端末7の各機能ブロック図である。図12では、画像管理システム5が、通信ネットワーク9を介して、通信端末3及び通信端末7とデータ通信することができる。
<< Functional configuration of the embodiment >>
Next, the functional configuration of the present embodiment will be described with reference to FIGS. 9 to 14. FIG. 12 is a functional block diagram of the photographing device 1, the communication terminal 3, the image management system 5, and the communication terminal 7, which form a part of the image communication system of the present embodiment. In FIG. 12, the image management system 5 can perform data communication with the communication terminal 3 and the communication terminal 7 via the communication network 9.

<撮影装置1の機能構成>
図12に示されているように、撮影装置1は、受付部12、撮像部13、集音部14、通信部18、及び記憶・読出部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of photographing device 1>
As shown in FIG. 12, the photographing apparatus 1 includes a reception unit 12, an imaging unit 13, a sound collecting unit 14, a communication unit 18, and a storage / reading unit 19. Each of these parts is a function or means realized by operating any of the components shown in FIG. 9 by a command from the CPU 111 according to a program for photographing and storing developed on the DRAM 113 from the SRAM 113. Is.

また、撮影装置1は、図9に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。 Further, the photographing apparatus 1 has a storage unit 1000 constructed by the ROM 112, the SRAM 113, and the DRAM 114 shown in FIG.

(撮影装置1の各機能構成)
次に、図9及び図12を用いて、撮影装置1の各機能構成について更に詳細に説明する。
(Each function configuration of the photographing device 1)
Next, each functional configuration of the photographing apparatus 1 will be described in more detail with reference to FIGS. 9 and 12.

撮影装置1の受付部12は、主に、図9に示されている操作部115及びCPU111の処理によって実現され、利用者(図8では、撮影者X)からの操作入力を受け付ける。 The reception unit 12 of the photographing device 1 is realized mainly by the processing of the operation unit 115 and the CPU 111 shown in FIG. 9, and receives the operation input from the user (photographer X in FIG. 8).

撮像部13は、主に、図9に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。 The imaging unit 13 is realized mainly by the processing of the imaging unit 101, the image processing unit 104, the imaging control unit 105, and the CPU 111 shown in FIG. 9, and images a landscape or the like to obtain captured image data.

集音部14は、図9に示されている108及び音処理ユニット109、並びにCPU111の処理によって実現され、撮影装置1の周囲の音を収音する。 The sound collecting unit 14 is realized by the processing of the 108 shown in FIG. 9, the sound processing unit 109, and the CPU 111, and collects the sound around the photographing device 1.

通信部18は、主に、CPU111の処理によって実現され、通信端末3の通信部38と、NFC(Near Field Communication)規格、BlueTooth(登録商標)、WiFi(Wireless Fidelity)等による短距離無線技術によって通信することができる。 The communication unit 18 is mainly realized by the processing of the CPU 111, and is realized by the communication unit 38 of the communication terminal 3 and the short-range wireless technology by NFC (Near Field Communication) standard, Bluetooth (registered trademark), WiFi (Wireless Fidelity) and the like. Can communicate.

記憶・読出部19は、主に、図9に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。 The storage / reading unit 19 is mainly realized by the processing of the CPU 111 shown in FIG. 9, and stores various data (or information) in the storage unit 1000 or stores various data (or information) from the storage unit 1000. Read it out.

<通信端末3の機能構成>
図12にされているように、通信端末3は、送受信部31、受付部32、表示制御部33、判断部34、通信部38、及び記憶・読出部39を有している。これら各部は、図10に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された通信端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of communication terminal 3>
As shown in FIG. 12, the communication terminal 3 has a transmission / reception unit 31, a reception unit 32, a display control unit 33, a determination unit 34, a communication unit 38, and a storage / reading unit 39. Each of these parts has a function or means realized by operating any of the components shown in FIG. 10 by an instruction from the CPU 301 according to a program for the communication terminal 3 developed on the RAM 303 from the EEPROM 304. Is.

また、通信端末3は、図10に示されているROM302、RAM303、及びEEPROM304によって構築される記憶部3000を有している。 Further, the communication terminal 3 has a storage unit 3000 constructed by the ROM 302, the RAM 303, and the EEPROM 304 shown in FIG.

(通信端末3の各機能構成)
次に、図10及び図12を用いて、通信端末3の各機能構成について更に詳細に説明する。
(Each function configuration of communication terminal 3)
Next, each functional configuration of the communication terminal 3 will be described in more detail with reference to FIGS. 10 and 12.

通信端末3の送受信部31は、主に、図10に示されている通信部313及びCPU301の処理によって実現され、通信ネットワーク9を介して、画像管理システム5と各種データ(または情報)の送受信を行う。 The transmission / reception unit 31 of the communication terminal 3 is realized mainly by the processing of the communication unit 313 and the CPU 301 shown in FIG. 10, and transmits / receives various data (or information) to / from the image management system 5 via the communication network 9. I do.

受付部32は、主にタッチパネル316及びCPU301による処理によって実現され、ユーザから各種の選択又は入力を受け付ける。 The reception unit 32 is realized mainly by processing by the touch panel 316 and the CPU 301, and receives various selections or inputs from the user.

表示制御部33は、主にCPU301の処理によって実現され、ディスプレイ315に各種画像や文字等を表示させるための制御を行う。 The display control unit 33 is realized mainly by the processing of the CPU 301, and controls the display 315 to display various images, characters, and the like.

判断部34は、主にCPU301の処理によって実現され、各種判断を行なう。 The determination unit 34 is realized mainly by the processing of the CPU 301, and makes various determinations.

通信部38は、主に、CPU301の処理によって実現され、撮影装置1通信部18と、NFC規格、BlueTooth、WiFi等による短距離無線技術によって通信することができる。 The communication unit 38 is mainly realized by the processing of the CPU 301, and can communicate with the photographing device 1 communication unit 18 by a short-range wireless technology based on the NFC standard, Bluetooth, WiFi, or the like.

記憶・読出部39は、主に、図10に示されているCPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。 The storage / reading unit 39 is mainly realized by the processing of the CPU 301 shown in FIG. 10, and stores various data (or information) in the storage unit 3000 or stores various data (or information) from the storage unit 3000. Read it out.

<画像管理システムの機能構成>
次に、図11及び図12を用いて、画像管理システム5の各機能構成について詳細に説明する。画像管理システム5は、送受信部51、特定部52、作成部53、変換部54、導出部55、添付部56、透過部57及び記憶・読出部59を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理システム5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of image management system>
Next, each functional configuration of the image management system 5 will be described in detail with reference to FIGS. 11 and 12. The image management system 5 includes a transmission / reception unit 51, a specific unit 52, a creation unit 53, a conversion unit 54, a derivation unit 55, an attachment unit 56, a transmission unit 57, and a storage / reading unit 59. Each of these parts has a function realized by operating any of the components shown in FIG. 11 by a command from the CPU 501 according to a program for the image management system 5 developed on the RAM 503 from the HD 504. It is a means.

また、画像管理システム5は、図11に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、撮影画像管理DB5001、及び添付画像管理DB5002が構築されている。このうち、撮影画像管理DB5001は、図13に示されている撮影画像管理テーブルによって構成されている。添付画像管理DB5002は、図14に示される添付画像管理テーブルによって構成されている。 Further, the image management system 5 has a RAM 503 shown in FIG. 11 and a storage unit 5000 constructed by the HD 504. A photographed image management DB 5001 and an attached image management DB 5002 are constructed in the storage unit 5000. Of these, the captured image management DB 5001 is configured by the captured image management table shown in FIG. The attached image management DB 5002 is configured by the attached image management table shown in FIG.

(撮影画像管理テーブル)
図13は、撮影画像管理テーブルを示す概念図である。この撮影画像管理テーブルでは、ユーザID、撮影画像ID、撮影画像データのファイル名、及び撮影日時が関連付けて記憶されて管理されている。このうち、ユーザIDは、各撮影者を識別するための利用者識別情報の一例である。撮影画像IDは、各撮影画像(全天球パノラマ画像)を識別するための撮影画像識別情報の一例である。撮影日時は、撮影者が撮影して、撮影画像を得た日時を示す。
(Captured image management table)
FIG. 13 is a conceptual diagram showing a captured image management table. In this captured image management table, a user ID, a captured image ID, a file name of captured image data, and a captured date and time are stored and managed in association with each other. Of these, the user ID is an example of user identification information for identifying each photographer. The captured image ID is an example of captured image identification information for identifying each captured image (omnidirectional panoramic image). The shooting date and time indicates the date and time when the photographer took a picture and obtained the shot image.

(添付画像管理テーブル)
図14は、添付画像管理テーブルを示す概念図である。なお、以降、三次元の仮想空間における座標(X,Y,Z)を用いて説明する。この添付画像管理テーブルでは、撮影画像ID、添付画像ID、添付画像データのファイル名、添付位置、基準位置、及び添付画像のサイズが関連付けて記憶されて管理されている。このうち、添付画像IDは、各添付画像を識別するための添付画像識別情報の一例である。添付位置は、三次元の仮想空間内の撮影画像(全天球パノラマ画像)における添付画像の添付位置を示す。基準位置は、三次元の仮想空間内における仮想カメラICの初期位置(初期視点の位置)を示す。
(Attached image management table)
FIG. 14 is a conceptual diagram showing an attached image management table. In the following description, coordinates (X, Y, Z) in a three-dimensional virtual space will be used. In this attached image management table, the captured image ID, the attached image ID, the file name of the attached image data, the attached position, the reference position, and the size of the attached image are stored and managed in association with each other. Of these, the attached image ID is an example of attached image identification information for identifying each attached image. The attachment position indicates the attachment position of the attached image in the captured image (omnidirectional panoramic image) in the three-dimensional virtual space. The reference position indicates the initial position (position of the initial viewpoint) of the virtual camera IC in the three-dimensional virtual space.

(画像管理システムの各機能構成)
次に、図11及び図12を用いて、画像管理システム5の各機能構成について詳細に説明する。
(Each function configuration of the image management system)
Next, each functional configuration of the image management system 5 will be described in detail with reference to FIGS. 11 and 12.

画像管理システム5の送受信部51は、主に、図11に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は通信端末7と各種データ(または情報)の送受信を行う。 The transmission / reception unit 51 of the image management system 5 is mainly realized by the processing of the network I / F 509 and the CPU 501 shown in FIG. 11, and is realized by the communication terminal 3 or the communication terminal 7 and various data (various data) via the communication network 9. Or information) is sent and received.

特定部52は、主に、図11に示されているCPU501の処理によって実現され、例えば、二次元の描画領域における描画像g1の中心点p1(x1,y1)を特定する。 The identification unit 52 is mainly realized by the processing of the CPU 501 shown in FIG. 11, and specifies, for example, the center point p1 (x1, y1) of the drawn image g1 in the two-dimensional drawing area.

作成部53は、主に、図11に示されているCPU501の処理によって実現され、例えば、特定部52によって特定された二次元の描画領域における中心点をp1とする描画像g1を包含する添付画像a1を作成する。 The creation unit 53 is mainly realized by the processing of the CPU 501 shown in FIG. 11, and includes, for example, a drawing image g1 having the center point in the two-dimensional drawing area specified by the specific unit 52 as p1. Image a1 is created.

変換部54は、主に、図11に示されているCPU501の処理によって実現され、例えば、特定部52によって特定された二次元の描画領域における中心点p1を、三次元の仮想領域内の特定位置(例えば、点P2(X2,Y2,Z2))に変換する。 The conversion unit 54 is mainly realized by the processing of the CPU 501 shown in FIG. 11, and for example, the center point p1 in the two-dimensional drawing area specified by the specific unit 52 is specified in the three-dimensional virtual area. Convert to a position (eg, point P2 (X2, Y2, Z2)).

導出部55は、主に、図11に示されているCPU501の処理によって実現され、例えば、三次元の仮想空間内において、変換部54によって変換された特定位置(例えば、点P2)と仮想カメラICの位置P01とを通る直線D1を導出する。 The derivation unit 55 is mainly realized by the processing of the CPU 501 shown in FIG. 11, for example, in a three-dimensional virtual space, a specific position (for example, a point P2) converted by the conversion unit 54 and a virtual camera. A straight line D1 passing through the position P01 of the IC is derived.

添付部56は、主に、図11に示されているCPU501の処理によって実現され、例えば、三次元の仮想空間内の直線上の特定の点において、この直線の法線に沿って添付画像を添付する。 The attachment portion 56 is mainly realized by the processing of the CPU 501 shown in FIG. 11, for example, at a specific point on a straight line in the three-dimensional virtual space, the attached image is formed along the normal of this straight line. Attach.

透過部57は、主に、図11に示されているCPU501の処理によって実現され、例えば、所定の添付画像のうち、描画像以外の部分を透過させる。 The transparent portion 57 is mainly realized by the processing of the CPU 501 shown in FIG. 11, and for example, a portion of a predetermined attached image other than the drawn image is transparent.

記憶・読出部59は、主に、図11に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。 The storage / reading unit 59 is mainly realized by the processing of the HDD 505 and the CPU 501 shown in FIG. 11, and stores various data (or information) in the storage unit 5000 or various data (or information) from the storage unit 5000. Information) is read out.

<通信端末7の機能構成>
次に、図11及び図13を用いて、通信端末7の機能構成について詳細に説明する。通信端末7は、送受信部71、受付部72、判断部74、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された通信端末7用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of communication terminal 7>
Next, the functional configuration of the communication terminal 7 will be described in detail with reference to FIGS. 11 and 13. The communication terminal 7 has a transmission / reception unit 71, a reception unit 72, a determination unit 74, a display control unit 73, and a storage / reading unit 79. Each of these parts has a function or means realized by operating any of the components shown in FIG. 11 by an instruction from the CPU 501 according to a program for the communication terminal 7 developed on the RAM 503 from the HD 504. Is.

また、通信端末7は、図11に示されているRAM503、及びHD504によって構築される記憶部7000を有している。 Further, the communication terminal 7 has a RAM 503 shown in FIG. 11 and a storage unit 7000 constructed by the HD 504.

(通信端末7の各機能構成)
次に、図13を用いて、通信端末7の各機能構成について詳細に説明する。
(Each function configuration of communication terminal 7)
Next, each functional configuration of the communication terminal 7 will be described in detail with reference to FIG.

通信端末7の送受信部71は、主に、図11に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理システム5と各種データ(または情報)の送受信を行う。 The transmission / reception unit 71 of the communication terminal 7 is mainly realized by the processing of the network I / F 509 and the CPU 501 shown in FIG. 11, and transmits / receives various data (or information) to / from the image management system 5 via the communication network 9. I do.

受付部72は、主に、図11に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、利用者(図8では、閲覧者Y)からの操作入力を受け付ける。 The reception unit 72 is realized mainly by the processing of the keyboard 511 and the mouse 512 shown in FIG. 11 and the CPU 501, and receives an operation input from the user (viewer Y in FIG. 8).

表示制御部73は、主に、図11に示されているCPU501の処理によって実現され、通信端末7のディスプレイ508に各種画像を表示させるための制御を行なう。 The display control unit 73 is mainly realized by the processing of the CPU 501 shown in FIG. 11, and controls the display 508 of the communication terminal 7 to display various images.

判断部74は、主に、図11に示されているCPU501の処理によって実現され、各種判断を行なう。 The determination unit 74 is mainly realized by the processing of the CPU 501 shown in FIG. 11 and makes various determinations.

記憶・読出部79は、主に、図11に示されているHDD505、及びCPU501の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。 The storage / reading unit 79 is mainly realized by the processing of the HDD 505 and the CPU 501 shown in FIG. 11, and stores various data (or information) in the storage unit 7000 or various data (or information) from the storage unit 7000. Information) is read out.

<<実施形態の処理又は動作>>
続いて、図15乃至図27を用いて、本実施形態の処理又は動作について説明する。図15は、撮影画像における添付画像の添付位置を導出する処理を示したフローチャートである。図16は、添付画像を撮影画像に添付する処理を示したフローチャートである。図17乃至図25は、それぞれ(a)が画像管理システム5及び通信端末7における二次元(x,y)の描画領域を示した概念図、(b)が画像管理システム5における三次元(X,Y,Z)の仮想空間を示した概念図である。
<< Processing or operation of the embodiment >>
Subsequently, the process or operation of the present embodiment will be described with reference to FIGS. 15 to 27. FIG. 15 is a flowchart showing a process of deriving the attachment position of the attached image in the captured image. FIG. 16 is a flowchart showing a process of attaching an attached image to a captured image. 17 to 25 are conceptual diagrams in which (a) shows a two-dimensional (x, y) drawing area in the image management system 5 and the communication terminal 7, respectively, and (b) is a three-dimensional (X) in the image management system 5. , Y, Z) is a conceptual diagram showing a virtual space.

なお、図17乃至図25の各(a)では、描画された添付画像a1を目立たせるため、図26(a)に示されているビル等の所定領域画像を省略し、添付画像の描画領域のみを示す。また、通信端末7の表示制御部73は、ブラウザ機能を有している。これにより、図17乃至図25の各(a)の図面において、画像管理システム5と通信端末7の両方における二次元の描画領域が実現する。即ち、通信端末7側の閲覧者Yによる描画領域への入力データが画像管理システム5側に送られると、画像管理システム5側で処理が行なわれ、処理後の画像データが通信端末7に送られることで、通信端末7はディスプレイ508上に図26(a)に示されているような描画像g1を描画及び表示させることができる。また、図17乃至図25の各(b)では、仮想カメラICは、撮影画像の外側にある場合について示している。 In each of FIGS. 17 to 25 (a), in order to make the drawn attached image a1 stand out, the predetermined area image such as the building shown in FIG. 26 (a) is omitted, and the drawn area of the attached image is omitted. Show only. Further, the display control unit 73 of the communication terminal 7 has a browser function. As a result, in the drawings of FIGS. 17 to 25 (a), a two-dimensional drawing area in both the image management system 5 and the communication terminal 7 is realized. That is, when the input data to the drawing area by the viewer Y on the communication terminal 7 side is sent to the image management system 5, processing is performed on the image management system 5 side, and the processed image data is sent to the communication terminal 7. By doing so, the communication terminal 7 can draw and display the drawn image g1 as shown in FIG. 26A on the display 508. Further, in each (b) of FIGS. 17 to 25, the case where the virtual camera IC is outside the captured image is shown.

まずは、図15、及び図17乃至図22を用い、閲覧者Yが図26(a)に示されているように所定領域画像上に描画像g1を描画する場合において、撮影画像(全天球パノラマ画像)における添付画像a1の添付位置P4’を導出する処理を説明する。 First, when the viewer Y draws the drawn image g1 on the predetermined region image as shown in FIG. 26 (a) using FIGS. 15 and 17 to 22, the photographed image (omnidirectional image) The process of deriving the attachment position P4'of the attachment image a1 in the panorama image) will be described.

図17(a)に示されているように、閲覧者Yが通信端末7における二次元の描画領域内に所定の描画像(ここでは、正三角形)g1を描画すると、受付部72が描画の入力を受け付け、送受信部71から画像管理システム5の送受信部に描画を行う命令を送信する(ステップS101)。この時点で、画像管理システム5の特定部52は、三次元の仮想空間内において、図17(b)に示されているように、全天球パノラマ画像である撮影画像A1の位置、仮想カメラICの基準位置P01(X01,Y01,Z01)、及び所定領域Tを特定している。なお、所定領域Tが視野に入る場合の視点が仮想カメラICの位置P01である。また、図18以降は、図面が徐々に複雑になるため、所定領域Tの記載は省略する。 As shown in FIG. 17A, when the viewer Y draws a predetermined drawing image (here, an equilateral triangle) g1 in the two-dimensional drawing area of the communication terminal 7, the reception unit 72 draws. The input is received, and the transmission / reception unit 71 transmits a drawing command to the transmission / reception unit of the image management system 5 (step S101). At this point, the specific unit 52 of the image management system 5 determines the position of the captured image A1 which is a spherical panoramic image and the virtual camera in the three-dimensional virtual space as shown in FIG. 17 (b). The reference position P01 (X01, Y01, Z01) of the IC and the predetermined area T are specified. The viewpoint when the predetermined area T is in the field of view is the position P01 of the virtual camera IC. Further, since FIG. 18 and thereafter, the drawing becomes gradually complicated, the description of the predetermined area T is omitted.

次に、画像管理システム5の作成部53は、図18(a)に示されているように、描画像g1の中心点p1(x1,y1)を特定する(ステップS102)。但し、中心点p1は視覚的に表示されないで、描画像g1のみが視覚的に表示される。更に、作成部53は、中心点をp1とする描画像g1を包含する添付画像a1を作成する(ステップS103)。但し、添付画像は視覚的に表示されないで、描画像g1のみが視覚的に表示される。この時点では、図18(b)に示されているように、三次元の仮想空間内の状態は変わらない。 Next, the creating unit 53 of the image management system 5 identifies the center point p1 (x1, y1) of the drawn image g1 as shown in FIG. 18A (step S102). However, the center point p1 is not visually displayed, and only the drawn image g1 is visually displayed. Further, the creating unit 53 creates an attached image a1 including the drawn image g1 having the center point as p1 (step S103). However, the attached image is not visually displayed, and only the drawn image g1 is visually displayed. At this point, as shown in FIG. 18B, the state in the three-dimensional virtual space does not change.

次に、変換部54は、図19(a)に示されている二次元の描画領域における中心点p1を、図19(b)における三次元の仮想領域内の特定位置(ここでは、点P2(X2,Y2,Z2))に変換する(ステップS104)。 Next, the conversion unit 54 sets the center point p1 in the two-dimensional drawing area shown in FIG. 19A at a specific position in the three-dimensional virtual area in FIG. 19B (here, the point P2). (X2, Y2, Z2)) (step S104).

次に、導出部55は、図20(b)に示されているように、点P2と仮想カメラICの位置P01とを通る直線D1を導出する(ステップS105)。この時点では、図20(a)に示されているように、二次元の描画領域内の状態は変わらない。 Next, the out-licensing unit 55 derives a straight line D1 passing through the point P2 and the position P01 of the virtual camera IC as shown in FIG. 20 (b) (step S105). At this point, as shown in FIG. 20 (a), the state in the two-dimensional drawing area does not change.

次に、導出部55は、図21(b)に示されているように、直線D1と撮影画像A1との交点P4(X4,Y4,Z4),P5(X5,Y5,Z5)を導出する(ステップS106)。ここでは、交点P4が仮想カメラICから遠い点で、交点P5が仮想カメラICから近い点である。更に、特定部52は、2つの交点P4,P5のうち、仮想カメラICから遠い交点P4を特定する(ステップS107)。この時点では、図21(a)に示されているように、二次元の描画領域内の状態は変わらない。 Next, as shown in FIG. 21B, the derivation unit 55 derives the intersections P4 (X4, Y4, Z4) and P5 (X5, Y5, Z5) between the straight line D1 and the captured image A1. (Step S106). Here, the intersection P4 is a point far from the virtual camera IC, and the intersection P5 is a point close to the virtual camera IC. Further, the identification unit 52 identifies the intersection P4 far from the virtual camera IC among the two intersections P4 and P5 (step S107). At this point, as shown in FIG. 21 (a), the state in the two-dimensional drawing area does not change.

次に、導出部55は、図22(b)に示されているように、交点P4から直線D1に沿って距離d(=βφ/q)だけ、全天球パノラマ画像の立体球の内側に移動した位置である点P4’(X4’,Y4’,Z4’)を導出する(ステップS108)。なお、βは定数、φは立体球の半径、qは仮想カメラICの位置P01と交点P4との直線距離である。この時点では、図22(a)に示されているように、二次元の描画領域内の状態は変わらない。このように、添付画像a1をdだけ立体球の内側に添付するのは、実験によって、図26(a)に示されているように、添付画像a1の描画像g11が、描画時の描画像g1に近い鮮明な画像として表示させることが可能であることが判明したからである。即ち、図26(a)に示されているように、一旦、描画像g1が描画され、後述のステップS109によって添付画像a1に関する各データが記憶された後、後述のステップS201以降の処理で添付画像a1に関する各データが読み出されて、撮影画像A1に添付画像a1が添付された場合に、添付画像a1の描画像g11が、描画時の描画像g1に近い鮮明な画像として表示されるからである。 Next, as shown in FIG. 22B, the derivation unit 55 is inside the three-dimensional sphere of the spherical panoramic image by a distance d (= βφ / q) from the intersection P4 along the straight line D1. The point P4'(X4', Y4', Z4'), which is the moved position, is derived (step S108). Β is a constant, φ is the radius of the three-dimensional sphere, and q is the linear distance between the position P01 of the virtual camera IC and the intersection P4. At this point, as shown in FIG. 22 (a), the state in the two-dimensional drawing area does not change. In this way, the attached image a1 is attached to the inside of the three-dimensional sphere by d. As shown in FIG. 26 (a), the drawn image g11 of the attached image a1 is a drawn image at the time of drawing. This is because it has been found that it is possible to display a clear image close to g1. That is, as shown in FIG. 26A, the drawn image g1 is once drawn, each data related to the attached image a1 is stored in step S109 described later, and then attached in the processes after step S201 described later. When each data related to the image a1 is read and the attached image a1 is attached to the captured image A1, the drawn image g11 of the attached image a1 is displayed as a clear image close to the drawn image g1 at the time of drawing. Is.

次に、記憶・読出部59は、添付画像に関する各データを添付画像管理テーブル(図14参照)に記憶する(ステップS109)。具体的には、記憶・読出部59は、撮影画像ID、添付画像ID、及び添付画像データのファイル名に対して、添付位置のフィールドに点P4’のX,Y,Zの各パラメータを関連付け、基準位置のフィールドに点P01のX,Y,Zの各パラメータを関連付け、添付画像のサイズのフィールドに添付画像a1の画像サイズのパラメータを関連付けて管理する。このように、添付位置だけでなく、基準位置も関連付けて管理するのは、図26(a)に示されているように、一旦、描画像g1が描画され、ステップS109によって添付画像a1に関する各データが記憶された後、後述のステップS201以降の処理で添付画像a1に関する各データが読み出されて、撮影画像A1に添付画像a1が添付された場合に、描画時の描画像g1と同じ形状の描画像g11が表示されるからである。逆に、添付位置を記憶して基準位置を記憶しない場合には、図22(b)における点P4’が明確になっても、直線D1の法線が不明確であるため、図26(a)に示されている読み出し後の描画像g11は、描画時の描画像g1と同じ形状としては表示されない状態が生じ得る。 Next, the storage / reading unit 59 stores each data related to the attached image in the attached image management table (see FIG. 14) (step S109). Specifically, the storage / reading unit 59 associates the X, Y, and Z parameters of the point P4'with the field of the attachment position with respect to the captured image ID, the attached image ID, and the file name of the attached image data. , The X, Y, and Z parameters of the point P01 are associated with the reference position field, and the image size parameter of the attached image a1 is associated with the attached image size field for management. In this way, not only the attached position but also the reference position is managed in association with each other, as shown in FIG. 26A, once the drawn image g1 is drawn, and each of the attached images a1 is managed by step S109. After the data is stored, each data related to the attached image a1 is read out in the processing after step S201 described later, and when the attached image a1 is attached to the captured image A1, the shape is the same as the drawn image g1 at the time of drawing. This is because the drawn image g11 of is displayed. On the contrary, when the attached position is memorized and the reference position is not memorized, even if the point P4'in FIG. 22B becomes clear, the normal line of the straight line D1 is unclear. ), The drawn image g11 after reading may not be displayed as the same shape as the drawn image g1 at the time of drawing.

なお、ステップS109の処理後、閲覧者Yは、図26(a)に示されている、描画像g1が描画された状態の所定領域画像(撮影画像)の表示を終了させる。 After the process of step S109, the viewer Y ends the display of the predetermined area image (photographed image) in the state in which the drawn image g1 is drawn, which is shown in FIG. 26 (a).

続いて、図16及び図23を用い、閲覧者Yが通信端末7を用いて、図26(a)に示されているように、再び所定領域画像(撮影画像)を表示させる場合に、画像管理システム5が、添付画像a1を撮影画像A1に添付した状態で表示させる処理を説明する。 Subsequently, using FIGS. 16 and 23, when the viewer Y uses the communication terminal 7 to display the predetermined area image (photographed image) again as shown in FIG. 26A, the image is displayed. The process in which the management system 5 displays the attached image a1 in a state of being attached to the captured image A1 will be described.

まず、閲覧者Yが通信端末7で、撮影画像の再表示のための入力を行うと、受付部72が撮影画像の再表示を受け付け、送受信部71から画像管理システム5の送受信部に再表示を行う命令を送信する(ステップS201)。この場合、再表示の対象である撮影画像の撮影画像IDも送信される。 First, when the viewer Y inputs for redisplaying the captured image on the communication terminal 7, the reception unit 72 accepts the redisplay of the captured image and redisplays it from the transmission / reception unit 71 to the transmission / reception unit of the image management system 5. Is transmitted (step S201). In this case, the captured image ID of the captured image to be redisplayed is also transmitted.

次に、画像管理システム5の記憶・読出部59は、撮影画像IDを検索キーとして、添付画像管理テーブル(図14参照)を検索することにより、対応する各データ(添付画像ID、添付画像データのファイル名、添付位置、基準位置、及び添付が画像のサイズ)を読み出す(ステップS202)。 Next, the storage / reading unit 59 of the image management system 5 uses the captured image ID as a search key to search the attached image management table (see FIG. 14) to search each corresponding data (attached image ID, attached image data). The file name, attachment position, reference position, and attachment are the size of the image) are read (step S202).

次に、添付部56は、ステップS202によって読み出された各データに基づき、図23(b)に示されているように、直線D1上の点P4’において、直線D1の法線に沿って添付画像a1を添付する(ステップS203)。これにより、図23(a)に示されているように、描画像g11が図22(a)に示されている描画時の描画像g1と同じ形状となる添付画像a1が、撮影画像A1に添付される。 Next, based on the data read in step S202, the attachment portion 56 is located along the normal line of the straight line D1 at the point P4'on the straight line D1 as shown in FIG. 23 (b). The attached image a1 is attached (step S203). As a result, as shown in FIG. 23 (a), the attached image a1 in which the drawn image g11 has the same shape as the drawn image g1 at the time of drawing shown in FIG. 22 (a) becomes the captured image A1. It will be attached.

次に、透過部57は、添付画像a1のうち、描画像g11以外の部分を透過させる(ステップS204)。そして、送受信部51が、通信端末7の送受信部71に、ステップS201〜S204の処理によって添付画像a1を添付した状態の撮影画像A1のデータを送信することで、通信端末7の表示制御部73が通信端末7のディスプレイ508上に、図26(a)に示されているような描画像g11を含む所定領域画像を表示させる(ステップS205)。 Next, the transparent portion 57 transmits a portion of the attached image a1 other than the drawn image g11 (step S204). Then, the transmission / reception unit 51 transmits the data of the captured image A1 in the state where the attached image a1 is attached by the processing of steps S201 to S204 to the transmission / reception unit 71 of the communication terminal 7, so that the display control unit 73 of the communication terminal 7 is transmitted. Displays a predetermined area image including the drawn image g11 as shown in FIG. 26A on the display 508 of the communication terminal 7 (step S205).

以上により、撮影画像を再表示する場合、描画時の描画像g1と同じ形状の描画像g11を含んだ撮影画像を再表示することができる。 As described above, when the captured image is redisplayed, the captured image including the drawn image g11 having the same shape as the drawn image g1 at the time of drawing can be redisplayed.

なお、図26(a)は、ステップS203による歪み補正ありでステップS204による透過処理ありの場合の所定領域画像の例であるが、図26(b)は、歪み補正なしで透過処理ありの場合の所定領域画像の例である。また、図27(a)は、歪み補正なしで透過処理ありの場合の全天球パノラマ画像の例である。更に、図27(b)は、歪み補正なしで透過処理なしの場合の全天球パノラマ画像の例である。 Note that FIG. 26 (a) is an example of a predetermined area image in the case where the distortion is corrected by step S203 and the transmission process is performed in step S204, but FIG. 26 (b) is the case where the transparency process is performed without distortion correction. This is an example of a predetermined area image of. Further, FIG. 27A is an example of an omnidirectional panoramic image in the case where there is transmission processing without distortion correction. Further, FIG. 27B is an example of an omnidirectional panoramic image in the case where there is no distortion correction and no transmission processing.

ところで、仮に、図24(a)に示されているように、閲覧者Yが通信端末7側で所定領域画像を、矢印の方向(左側)に移動させると、図24(b)に示されているように、三次元の仮想空間内では、仮想カメラICの位置がP01からP02(X02,Y02,Z02)の位置に移動する。これにより、添付画像a1は、視点P02から見た画像となるため、描画像g1は、図24(a)に示されているように、形状が変形した描画像g1’となる。 By the way, if the viewer Y moves the predetermined area image in the direction of the arrow (left side) on the communication terminal 7 side as shown in FIG. 24 (a), it is shown in FIG. 24 (b). As shown above, the position of the virtual camera IC moves from P01 to the position of P02 (X02, Y02, Z02) in the three-dimensional virtual space. As a result, the attached image a1 becomes an image viewed from the viewpoint P02, so that the drawn image g1 becomes a drawn image g1'in which the shape is deformed as shown in FIG. 24 (a).

更に、図25(a)に示されているように、新たに描画像g2が描かれると、図25(b)に示されているように、新たな直線D2上の点P14’の位置で、直線D2の法線に沿って添付画像a2が添付される。なお、図25(b)において、直線D2、点P02、点P12、点P14及び点P14’は、それぞれ、図22(b)において、直線D1、点P01、点P2、点P4及び点P4’に対応している。 Further, as shown in FIG. 25 (a), when a newly drawn image g2 is drawn, as shown in FIG. 25 (b), at the position of the point P14'on the new straight line D2. , Attached image a2 is attached along the normal line of the straight line D2. In addition, in FIG. 25 (b), the straight line D2, the point P02, the point P12, the point P14 and the point P14'are the straight line D1, the point P01, the point P2, the point P4 and the point P4', respectively. It corresponds to.

<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、添付画像a1を湾曲させないで平面画像として撮影画像A1に添付するため、閲覧者Yが、再度、撮影画像(所定領域画像)を閲覧する場合には、図26(a)に示されているように、描画像g11が描画時の描画像g1と同じ形状で表示される。即ち、図26(b)に示されている描画像g9のように湾曲された状態では表示されない。これにより、閲覧者Y(利用者)が、描画像g11を閲覧して困惑することを解消することができる。
<< Main effects of this embodiment >>
As described above, according to the present embodiment, since the attached image a1 is attached to the captured image A1 as a flat image without being curved, when the viewer Y browses the captured image (predetermined area image) again. , As shown in FIG. 26A, the drawn image g11 is displayed in the same shape as the drawn image g1 at the time of drawing. That is, it is not displayed in a curved state as in the drawn image g9 shown in FIG. 26 (b). As a result, it is possible to eliminate the confusion that the viewer Y (user) browses the drawn image g11.

〔実施形態の補足〕
上記実施形態における画像管理システム5は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
[Supplement to Embodiment]
The image management system 5 in the above embodiment may be constructed by a single computer, or may be constructed by a plurality of computers arbitrarily assigned by dividing each unit (function, means, or storage unit). Good.

また、上記実施形態の各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHD504は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。 In addition, a recording medium such as a CD-ROM in which each program of the above-described embodiment is stored, and an HD504 in which these programs are stored may be provided as a program product in Japan or overseas. it can.

1 撮影装置
3 通信端末
5 画像管理システム
7 通信端末
9 通信ネットワーク
51 送受信部(送信手段の一例、受信手段の一例)
52 特定部(特定手段の一例)
53 作成部(作成手段の一例)
54 変換部(変換手段の一例)
55 導出部(導出手段の一例)
56 添付部(添付手段の一例)
57 透過部(透過手段の一例)
1 Imaging device 3 Communication terminal 5 Image management system 7 Communication terminal 9 Communication network 51 Transmission / reception unit (example of transmission means, example of reception means)
52 Specific part (example of specific means)
53 Creation Department (Example of Creation Method)
54 Conversion unit (example of conversion means)
55 Derivation unit (example of derivation means)
56 Attachment (an example of attachment means)
57 Transmissive part (an example of transmissive means)

特開2014−131215号公報Japanese Unexamined Patent Publication No. 2014-131215

Claims (7)

撮影画像を管理する画像管理システムであって、
全天球パノラマ画像である前記撮影画像上に描画された描画像に基づいて、当該描画像を含み前記撮影画像に添付するための添付画像を作成する作成手段と、
前記作成された添付画像を前記撮画像に平面画像として添付する添付手段と、
を有することを特徴とする画像管理システム。
An image management system that manages captured images
A creation means for creating an attached image including the drawn image and attaching it to the captured image based on the drawn image drawn on the captured image which is a spherical panoramic image.
And attach attachment means as a planar image on the shooting image attached image created in the above,
An image management system characterized by having.
前記添付画像のうち前記描画像以外の部分を透過させる透過手段を有することを特徴とする請求項1に記載の画像管理システム。 The image management system according to claim 1, further comprising a transparent means for transmitting a portion of the attached image other than the drawn image. 前記添付手段は、前記撮影画像の一部の所定領域が視野に入る視点と前記描画像の中心点とを通る直線の法線に沿って前記添付画像を添付することを特徴とする請求項1に記載の画像管理システム。 Said attachment means, according to claim 1, characterized in that to attach the attached image along a normal line of a straight line portion of the predetermined region of the captured image passes through the center point of viewpoint and the drawing image into the field of view Image management system described in . 前記法線を、前記直線と前記撮影画像との交点のうち前記視点から遠い特定の交点から前記直線に沿って前記全天球パノラマ画像内に所定の距離移動した位置に特定する特定手段を有することを特徴とする請求項3に記載の画像管理システム。 It has a specific means for specifying the normal to a position moved by a predetermined distance in the spherical panoramic image along the straight line from a specific intersection far from the viewpoint among the intersections of the straight line and the captured image. The image management system according to claim 3, wherein the image management system is characterized by the above. 請求項1乃至4のいずれか一項に記載の画像管理システムと、
前記添付手段によって前記添付画像が添付された前記撮影画像を表示する通信端末と、
を有することを特徴とする画像通信システム。
The image management system according to any one of claims 1 to 4.
A communication terminal that displays the captured image to which the attached image is attached by the attachment means, and
An image communication system characterized by having.
撮影画像を管理する画像管理システムが実行する画像管理方法であって、
前記画像管理システムは、
全天球パノラマ画像である前記撮影画像上に描画された描画像に基づいて、当該描画像を含み前記撮影画像に添付するための添付画像を作成する作成ステップと、
前記作成された添付画像を前記撮画像に平面画像として添付する添付ステップと、
を実行することを特徴とする画像管理方法。
It is an image management method executed by an image management system that manages captured images.
The image management system
Based on the drawn image drawn on the captured image which is a spherical panoramic image, a creation step of creating an attached image including the drawn image and attaching to the captured image, and
And attaching attachment step as a planar image on the shooting image attached image created in the above,
An image management method characterized by executing.
コンピュータに、請求項6に記載の方法を実行させるためのプログラム。
A program for causing a computer to perform the method according to claim 6.
JP2016158865A 2015-09-30 2016-08-12 Image management system, image communication system, image management method, and program Active JP6816403B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/270,583 US10147160B2 (en) 2015-09-30 2016-09-20 Image management apparatus and system, and method for controlling display of captured image
EP16191016.1A EP3151541B1 (en) 2015-09-30 2016-09-28 Image management system, image communication system, method for controlling display of captured image, and carrier means

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015194289 2015-09-30
JP2015194289 2015-09-30

Publications (2)

Publication Number Publication Date
JP2017068832A JP2017068832A (en) 2017-04-06
JP6816403B2 true JP6816403B2 (en) 2021-01-20

Family

ID=58492578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016158865A Active JP6816403B2 (en) 2015-09-30 2016-08-12 Image management system, image communication system, image management method, and program

Country Status (1)

Country Link
JP (1) JP6816403B2 (en)

Also Published As

Publication number Publication date
JP2017068832A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6756269B2 (en) Communication terminals, image communication systems, communication methods, and programs
JP6186775B2 (en) Communication terminal, display method, and program
JP6075066B2 (en) Image management system, image management method, and program
JP2022031324A (en) Communication management system, communication system, communication management method and program
JP2017135659A (en) Image management system, image management method, image communication system and program
JP6954410B2 (en) Management system
JP7205386B2 (en) IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
EP3328073A1 (en) Image management system, image management method and program
JP2017212510A (en) Image management device, program, image management system, and information terminal
US10147160B2 (en) Image management apparatus and system, and method for controlling display of captured image
JP2018110384A (en) Image processing apparatus, imaging system, image processing method and program
JP2018026642A (en) Image management system, image communication system, image management method, and program
JP2018109946A (en) Display device, program, and method for display
JP2018139052A (en) Communication terminal, image communication system, display method and program
JP6586819B2 (en) Image management system, image communication system, image management method, and program
JP6812643B2 (en) Communication terminals, image communication systems, display methods, and programs
JP7017045B2 (en) Communication terminal, display method, and program
JP6711118B2 (en) Image management system, program and information terminal
JP7020523B2 (en) Image display system, image display method, and program
JP6816403B2 (en) Image management system, image communication system, image management method, and program
JP5942637B2 (en) Additional information management system, image sharing system, additional information management method, and program
JP7358938B2 (en) Communication terminal, image communication system, display method, and program
JP6992338B2 (en) Communication system, communication management method, program, system and communication method
JP2017182548A (en) Image management system, image management method, image communication system, and program
JP6665440B2 (en) Image management system, image management method, image communication system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201207

R151 Written notification of patent or utility model registration

Ref document number: 6816403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151