JP6508288B2 - SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM - Google Patents

SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6508288B2
JP6508288B2 JP2017206094A JP2017206094A JP6508288B2 JP 6508288 B2 JP6508288 B2 JP 6508288B2 JP 2017206094 A JP2017206094 A JP 2017206094A JP 2017206094 A JP2017206094 A JP 2017206094A JP 6508288 B2 JP6508288 B2 JP 6508288B2
Authority
JP
Japan
Prior art keywords
image
additional information
identification information
image data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017206094A
Other languages
Japanese (ja)
Other versions
JP2018014141A (en
Inventor
伊藤 洋一
洋一 伊藤
祥明 入野
祥明 入野
田中 智憲
智憲 田中
今江 望
望 今江
竹中 博一
博一 竹中
山本 英明
英明 山本
憲介 増田
憲介 増田
聡 澤口
聡 澤口
大介 別所
大介 別所
佐藤 裕之
裕之 佐藤
誠 庄原
誠 庄原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017206094A priority Critical patent/JP6508288B2/en
Publication of JP2018014141A publication Critical patent/JP2018014141A/en
Application granted granted Critical
Publication of JP6508288B2 publication Critical patent/JP6508288B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像管理システムが管理しない付加情報を管理する発明に関する。   The present invention relates to an invention for managing additional information not managed by an image management system.

近年、デジタルカメラ等で撮影された画像が、あるユーザによってインターネット上の画像管理サーバにアップロードされる一方で、他のユーザが上記画像を画像管理サーバからダウンロードすることにより、複数のユーザが同じ画像を共有するシステムが提供されている(特許文献1参照)。   In recent years, while an image taken by a digital camera or the like is uploaded to an image management server on the Internet by one user, another user downloads the image from the image management server, whereby a plurality of users have the same image. There is provided a system that shares the two (see Patent Document 1).

また、近年、Facebook等のSNS(Social Networking Service)が急速に普及している。このSNSにより、ユーザは自分のコメントを公開する一方で、他のユーザのコメントを閲覧することができるだけでなく、ユーザ間で画像データを共有することもできる。   Also, in recent years, SNS (Social Networking Service) such as Facebook is rapidly spreading. This SNS allows not only the user to view his / her comment but also to view the comments of other users, as well as sharing image data among the users.

ところで、デジタルカメラの画像ファイルフォーマットであるExif(Exchangeable image file format)は、画像データをJPEG(Joint Photographic Experts Group)ファイルとして保存した場合、Exifに沿ったメタデータが自動的に作成されるのが一般的である。代表的なメタデータには、撮影日時、シャッタースピード、絞り、GPS情報(例えば、経度、緯度、標高、方位)、撮像装置の地面に対する傾き角度(例えば、ロール(Roll)方向、ピッチ(Pitch)方向、ヨー(Yaw)方向の回転角)等が含まれている。例えば、ユーザがデジタルカメラを傾けて被写体を撮影した場合であっても、傾きを示すメタデータを利用して画像データを補正することで、ユーザは傾きが補正された画像を閲覧することができる。   By the way, Exif (Exchangeable image file format), which is an image file format of a digital camera, automatically creates metadata along Exif when image data is saved as a JPEG (Joint Photographic Experts Group) file. It is common. Representative metadata includes shooting date, shutter speed, aperture, GPS information (for example, longitude, latitude, altitude, azimuth), an inclination angle of the imaging device with respect to the ground (for example, roll direction, pitch) The direction, the rotation angle in the yaw (Yaw) direction, and the like are included. For example, even when the user tilts the digital camera and captures an object, the user can view the image whose tilt has been corrected by correcting the image data using the metadata indicating the tilt. .

しかしながら、Facebookを含め多くのSNSの画像管理サーバ(例えば、システム)では、メタデータはプライバシーに関連するデータであるとみなされており、画像管理サーバはアップロードされた画像データからメタデータを分離して削除し、画像データのみを管理している。そのため、ユーザは、画像管理サーバから画像データをダウンロードしても、メタデータが削除されているため、メタデータを用いて画像データを補正する等の画像処理を行うことができないという課題が生じている。
However, in many SNS image management servers (eg, systems) , including Facebook, metadata is considered to be privacy related data, and the image management server separates metadata from uploaded image data. Delete and manage only image data. Therefore, even if the user downloads the image data from the image management server, the metadata is deleted, and a problem arises that the image processing such as correction of the image data can not be performed using the metadata. There is.

請求項1に係る発明は、画像処理に利用される付加情報が付加されている画像データを送信する送信装置と通信可能なシステムであって、前記送信装置から前記画像データを受信する受信手段と、前記受信された画像データ、および当該画像データを識別するための画像識別情報を関連付けて記憶する第1の記憶手段と、前記受信された画像データに付加されている前記付加情報、および前記画像識別情報を関連付けて記憶する第2の記憶手段と、前記画像識別情報を、前記送信装置に対して送信する送信手段と、を有することを特徴とするシステムである
The invention according to claim 1 is a system capable of communicating with a transmitting device that transmits image data to which additional information used for image processing is added, and a receiving unit that receives the image data from the transmitting device A first storage unit for storing the received image data and image identification information for identifying the image data in association with each other; the additional information added to the received image data; and the image It is a system characterized by having the 2nd storage means which associates identification information and stores it, and the transmission means which transmits the picture identification information to the transmitting device .

以上説明したように本発明によれば、システムは、送信装置から送信されて来た画像データを識別するための画像識別情報を第1の記憶手段に記憶する一方で、送信装置から送信されて来た画像データに付加されている付加情報、および第1の記憶手段に記憶された画像識別情報を関連付けて第2の記憶手段に記憶する。これにより、ユーザがシステムから画像データをダウンロードする際に、対応する画像識別情報に基づいて付加情報をダウンロードすることができるため、画像データを補正する等の画像処理を行うことができるという効果を奏する。
As described above, according to the present invention, the system stores the image identification information for identifying the image data transmitted from the transmission device in the first storage unit, while the system transmits the image identification information from the transmission device. The additional information added to the incoming image data and the image identification information stored in the first storage means are associated and stored in the second storage means. Effect Thus, when the user downloads the image data from the system, it is possible to download-added information on the basis of the corresponding image identification information, that the image data it is possible to perform image processing such as correcting the Play.

本発明の実施形態に係る画像共有システムの概略図である。FIG. 1 is a schematic view of an image sharing system according to an embodiment of the present invention. (a)は撮影装置の左側面図であり、(b)は撮影装置の正面図であり、(c)は撮影装置の平面図である。(A) is a left side view of the imaging device, (b) is a front view of the imaging device, and (c) is a plan view of the imaging device. 撮影装置の使用状況を示したイメージ図である。It is an image figure showing the use situation of an imaging device. (a)は撮影装置で撮影された半球画像(前)、(b)は撮影装置で撮影された半球画像(後)、(c)はメルカトル図法により表された画像を示した図である。(A) is a hemispherical image (front) taken by the imaging device, (b) is a hemispherical image (after) taken by the imaging device, and (c) is an image represented by the Mercator projection. (a)はメルカトル図法により表された画像と共有選択用画像の部分を示した図、(b)は共有選択用画像を示した図である。(A) is a figure which showed the part of the image represented by the Mercator projection method and the image for share selection, (b) is a figure which showed the image for share selection. 共有選択用画像を示した撮影画像選択リストの図である。It is a figure of the picked-up image selection list | wrist which showed the image for share selection. 全天球パノラマ画像を示した図である。It is a figure showing an omnidirectional panoramic image. 全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is the figure which showed the position of the virtual camera and the predetermined area | region at the time of making an omnidirectional panoramic image into a three-dimensional solid sphere. (a)は図7の立体斜視図、(b)はディスプレイに所定領域の画像が表示された表示装置を示す図である。(A) is a three-dimensional perspective view of FIG. 7, (b) is a figure which shows the display apparatus with which the image of the predetermined area | region was displayed on the display. (a)は、各注目点が示された所定領域画像を示した図であり、(b)は、任意の注目点及び周辺の所定領域画像を示した図である。(a)、(b)は、所定領域画像を示した図である。(A) is a figure which showed the predetermined area | region image in which each attention point was shown, (b) is a figure which showed the arbitrary attention point and the predetermined area | region image of a periphery. (A), (b) is the figure which showed the predetermined area | region image. 撮影装置のハードウェア構成図である。It is a hardware block diagram of an imaging device. 表示装置のハードウェア構成図である。It is a hardware block diagram of a display apparatus. 付加情報管理システム及び画像管理システムのハードウェア構成図である。It is a hardware block diagram of an additional information management system and an image management system. デジタルスチルカメラ用画像ファイルフォーマット規格における圧縮データファイルの構造を示した図である。FIG. 6 is a diagram showing the structure of a compressed data file in an image file format standard for digital still cameras. 実施形態に係る表示装置、付加情報管理システム、及び画像管理システムの機能ブロック図である。FIG. 2 is a functional block diagram of a display device, an additional information management system, and an image management system according to the embodiment. 付加情報管理テーブルを示す概念図である。It is a conceptual diagram which shows an additional information management table. 画像管理テーブルを示す概念図である。It is a conceptual diagram which shows an image management table. 撮影画像のアップロードの処理を示したシーケンス図である。It is a sequence diagram showing processing of uploading a photographed image. 画像オブジェクトを示した図である。It is the figure which showed the image object. 撮影画像のダウンロードの処理を示したシーケンス図である。It is a sequence diagram showing processing of download of a photography picture. 付加情報の検索処理を示したフローチャートである。It is the flowchart which showed the search processing of additional information. 画像補正しない場合の撮影画像を2Dで示した図である。It is the figure which showed the picked-up image in the case of not performing image correction by 2D. 画像補正しない場合の撮影画像を3Dで示した図である。It is the figure which showed the picked-up image in the case of not performing image correction by 3D. 撮影画像のダウンロードができなかった場合の処理を示したシーケンス図である。FIG. 10 is a sequence diagram showing processing in the case where the captured image can not be downloaded.

以下、図1乃至図24を用いて、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described using FIGS. 1 to 24. FIG.

<<実施形態の概略>>
まずは、図1乃至図10を用いて、本実施形態の概略を説明する。なお、図1は、本実施形態に係る画像共有システムの概略図である。
<< Overview of the embodiment >>
First, an outline of the present embodiment will be described with reference to FIGS. 1 to 10. FIG. 1 is a schematic view of an image sharing system according to the present embodiment.

図1に示されているように、本実施形態の画像共有システムは、撮影装置1、複数の表示装置(3a,3b)、付加情報管理システム5、及び画像管理システム7によって構築されている。また、各表示装置(3a,3b)は、それぞれユーザ(A,B)によって利用される。また、本実施形態では、撮影装置1は、ユーザAによって操作される場合を示している。なお、以下では、複数の表示装置(3a,3b)のうち、任意の表示装置を「表示装置3」として表す。   As shown in FIG. 1, the image sharing system according to the present embodiment is constructed by the imaging device 1, a plurality of display devices (3 a and 3 b), the additional information management system 5, and the image management system 7. The display devices (3a, 3b) are used by the users (A, B), respectively. Further, in the present embodiment, the imaging device 1 is illustrated as being operated by the user A. In addition, below, the arbitrary display apparatuses are represented as the "display apparatus 3" among several display apparatuses (3a, 3b).

また、撮影装置1は、全天球パノラマ画像を得るためのデジタルカメラである。表示装置3は、スマートフォン、タブレット端末、ノート型パソコン、デスクトップ型パソコン、又はPDA(Personal Data Assistance)等のコンピュータである。更に、付加情報管理システム5及び画像管理システム7は、それぞれ単一又は複数のサーバコンピュータである。   Moreover, the imaging device 1 is a digital camera for obtaining an omnidirectional panoramic image. The display device 3 is a computer such as a smartphone, a tablet terminal, a notebook computer, a desktop computer, or a PDA (Personal Data Assistance). Furthermore, the additional information management system 5 and the image management system 7 are respectively single or plural server computers.

また、撮影装置1は、表示装置3とNFC(Near Field Communication)規格による短距離無線技術によって通信することができる。更に、表示装置3は、通信ネットワーク9を介して、付加情報管理システム5及び画像管理システム7と通信することができる。この通信ネットワーク9は、3G(3rd Generation)、又はWiMAX(Worldwide Interoperability for Microwave Access)等の移動通信システムによる無線通信網及び各基地局(9a,9b,9c)、並びにインターネットによって構築される。なお、撮影装置1と表示装置3との間、及び表示装置3と通信ネットワーク9との間は、それぞれ有線による通信を行ってもよい。   Further, the imaging device 1 can communicate with the display device 3 by a short distance wireless technology according to the NFC (Near Field Communication) standard. Furthermore, the display device 3 can communicate with the additional information management system 5 and the image management system 7 via the communication network 9. The communication network 9 is constructed by a wireless communication network by a mobile communication system such as 3G (3rd Generation) or WiMAX (Worldwide Interoperability for Microwave Access), and each base station (9a, 9b, 9c), and the Internet. Note that wired communication may be performed between the imaging device 1 and the display device 3 and between the display device 3 and the communication network 9, respectively.

次に、図2を用いて、撮影装置1の外観を説明する。なお、図2(a)は撮影装置の左側面図であり、図2(b)は撮影装置の正面図であり、図2(c)は撮影装置の平面図である。   Next, the appearance of the photographing device 1 will be described with reference to FIG. 2 (a) is a left side view of the imaging apparatus, FIG. 2 (b) is a front view of the imaging apparatus, and FIG. 2 (c) is a plan view of the imaging apparatus.

図2(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図2(a),(b),(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。また、図2(b)に示されているように、撮影装置1の正面側には、シャッターボタン等の操作部115が設けられている。   As shown in FIG. 2A, the photographing apparatus 1 has a size that can be held by a human with one hand. Further, as shown in FIGS. 2A, 2B, and 2C, the image pickup device 103a is on the front side (front side) at the top of the imaging apparatus 1, and the image pickup device is on the back side (rear side). 103 b is provided. Further, as shown in FIG. 2B, an operation unit 115 such as a shutter button is provided on the front side of the photographing device 1.

次に、図3を用いて、撮影装置1の使用状況を説明する。なお、図3は、撮影装置の使用状況を示したイメージ図である。撮影装置1は、図3に示されているように、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図2に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。   Next, the use condition of the imaging device 1 will be described with reference to FIG. FIG. 3 is an image diagram showing the use situation of the photographing apparatus. The photographing device 1 is used by the user to hold a hand and photograph an object around the user, as shown in FIG. In this case, two hemispherical images can be obtained by imaging the subject around the user with the imaging element 103a and the imaging element 103b shown in FIG.

次に、図4を用いて、撮影装置1で撮影された画像及び合成された画像を説明する。なお、図4(a)は撮影装置で撮影された半球画像(前側)、図4(b)は撮影装置で撮影された半球画像(後側)、図4(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。   Next, an image photographed by the photographing device 1 and a synthesized image will be described with reference to FIG. 4 (a) is a hemispherical image (front side) captured by the imaging device, FIG. 4 (b) is a hemispheric image (back side) captured by the imaging device, and FIG. 4 (c) is represented by Mercator projection. FIG. 6 is a diagram showing a captured image (hereinafter referred to as “mercator image”).

図4(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図4(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。   As shown in FIG. 4A, the image obtained by the imaging element 103a is a hemispherical image (front side) curved by a fisheye lens 102a described later. Further, as shown in FIG. 4B, the image obtained by the imaging element 103b is a hemispherical image (rear side) curved by a fisheye lens 102b described later. Then, the hemispherical image (front side) and the hemispherical image inverted 180 degrees (rear side) are synthesized by the photographing device 1, and as shown in FIG. 3C, a Mercator image is created.

次に、図5及び図6を用いて、メルカトル画像と、この画像の選択に用いられる共有選択用画像との関係を説明する。なお、図5(a)はメルカトル画像と共有選択用画像の部分を示した図、図5(b)は共有選択用画像を示した図である。また、図6は、共有選択用画像を示した撮影画像選択リストの図である。   Next, with reference to FIGS. 5 and 6, the relationship between the Mercator image and the sharing selection image used to select this image will be described. FIG. 5 (a) is a view showing a part of a Mercator image and a share selection image, and FIG. 5 (b) is a view showing a share selection image. FIG. 6 is a diagram of a photographed image selection list showing images for sharing selection.

図5(a)のメルカトル画像上の破線で示された部分が利用されることで、図5(b)の共有選択用画像が作成される。この共有選択用画像は、図1に示されている撮影装置1から表示装置3aに送信される。そして、表示装置3aのディスプレイ315上には、図6に示されているように、各共有選択用画像CEが示された共有画像選択リストSLが表示される。例えば、共有選択用画像CEとして商業地域のビルが表示され、撮影日時(2011年9月20日 11時21分)、撮影画像の画像データサイズ(13.1MB)、及び、注目点が設定された数(0個)が表示される。   The sharing selection image of FIG. 5B is created by utilizing the portion indicated by the broken line on the Mercator image of FIG. 5A. The sharing selection image is transmitted from the imaging device 1 shown in FIG. 1 to the display device 3a. Then, on the display 315 of the display device 3a, as shown in FIG. 6, the shared image selection list SL in which each sharing selection image CE is shown is displayed. For example, a building in a commercial area is displayed as the sharing selection image CE, the shooting date and time (September 20, 2011 11:21), the image data size (13.1 MB) of the captured image, and the attention point are set. Number (0) is displayed.

次に、ユーザAが所望の共有選択用画像CEを選択すると、表示装置3aが撮影装置1から、上述の選択された共有選択用画像CEに係る撮影画像(メルカトル画像)を取得する。   Next, when the user A selects a desired sharing selection image CE, the display device 3a acquires a captured image (Mercule image) related to the selected sharing selection image CE from the imaging device 1.

この取得された撮影画像は、上記表示装置3aでは、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(c)に示されているメルカトル画像から、図7に示されている全天球パノラマ画像が作成される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。また、図7は、全天球パノラマ画像を示した図である。全天球パノラマ画像は、静止画であっても動画であってもよい。   The captured image thus obtained is shown in FIG. 7 from the Mercator image shown in FIG. 4C by using OpenGL ES (Open Graphics Library for Embedded Systems) in the display device 3a. Panoramic image is created. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. Further, FIG. 7 is a view showing an omnidirectional panoramic image. The panoramic panoramic image may be a still image or a moving image.

次に、図8及び図9を用いて、全天球パノラマ画像における所定領域の画像(以下、「所定領域画像」という)の作成及び表示の処理について説明する。なお、図8は、全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。また、図9(a)は図8の立体斜視図、図9(b)はディスプレイに所定領域画像が表示された表示装置を示す図である。   Next, processing of creating and displaying an image of a predetermined area in the panoramic panoramic image (hereinafter, referred to as “predetermined area image”) will be described using FIGS. 8 and 9. FIG. 8 is a diagram showing the positions of a virtual camera and a predetermined area in the case where the omnidirectional panoramic image is a three-dimensional solid sphere. 9 (a) is a perspective view of FIG. 8 and FIG. 9 (b) is a view showing a display device on which a predetermined area image is displayed.

図7に示されている全天球パノラマ画像を3次元の立体球CSであるとすると、図8に示されているように、仮想カメラICが全天球パノラマ画像の中心に位置し、この中心から上下左右の回転と、この中心からの視点での回転(傾き)の3軸の回転ができる。この全天球パノラマ画像における所定領域Tは、この全天球パノラマ画像における仮想カメラICの位置座標(x,y)及び画角によって特定される。これにより、所定領域Tのズームは、画角の範囲(円弧)を広げたり縮めたりすることで表現することができる。   Assuming that the omnidirectional panoramic image shown in FIG. 7 is a three-dimensional solid sphere CS, the virtual camera IC is located at the center of the omnidirectional panoramic image, as shown in FIG. It is possible to rotate 3 axes of rotation from the center, up and down, left and right, and rotation (inclination) from a viewpoint from this center. The predetermined region T in the omnidirectional panoramic image is specified by the position coordinates (x, y) of the virtual camera IC and the angle of view in the omnidirectional panoramic image. Thereby, the zoom of the predetermined area T can be expressed by expanding or contracting the range (arc) of the angle of view.

そして、図9(a)で示されているように、全天球パノラマ画像における所定領域Tの画像は、図9(b)に示されているように、表示装置3aのディスプレイ315に、所定領域画像として表示される。この場合の所定領域画像は、全天球パノラマ画像の一部を示す部分画像Pである。なお、ディスプレイ315上には、所定領域画像を表示する所定領域画像表示領域3110、サムネイルを表示するサムネイル表示領域3120、所定領域画像に対するユーザのコメントを表示するコメント表示領域3130が表示されている。   Then, as shown in FIG. 9 (a), the image of the predetermined area T in the omnidirectional panoramic image is predetermined on the display 315 of the display device 3a as shown in FIG. 9 (b). It is displayed as an area image. The predetermined area image in this case is a partial image P showing a part of the omnidirectional panoramic image. On the display 315, a predetermined area image display area 3110 for displaying a predetermined area image, a thumbnail display area 3120 for displaying thumbnails, and a comment display area 3130 for displaying a user's comment on the predetermined area image are displayed.

更に、図4(c)に示される撮影画像は、送信装置としての表示装置3aから通信ネットワーク9を介して画像管理システム7へアップロードされる。そして、例えば、ユーザBが受信装置としての表示装置3bを利用し、通信ネットワーク9を介して画像管理システム7から上記撮影画像をダウンロードする。これにより、各ユーザは、撮影画像を共有することができる。   Furthermore, the photographed image shown in FIG. 4C is uploaded from the display device 3a as a transmission device to the image management system 7 via the communication network 9. Then, for example, the user B downloads the captured image from the image management system 7 via the communication network 9 using the display device 3 b as a receiving device. Thereby, each user can share the photographed image.

また、図10に示されているように、本実施形態の画像共有システムでは、撮影画像に各ユーザが注目している注目点を設定することができる。なお、図10(a)は、各注目点が示された所定領域画像を示した図であり、図10(b)は、任意の注目点及び周辺の所定領域画像を示した図である。   Further, as shown in FIG. 10, in the image sharing system of the present embodiment, it is possible to set an attention point at which each user is focusing on the photographed image. FIG. 10 (a) is a view showing a predetermined area image in which each attention point is shown, and FIG. 10 (b) is a view showing an arbitrary attention point and a predetermined area image around it.

図10(a)に示されているように、表示装置3bのディスプレイ315上には、本実施形態の画像共有システムを利用する単一又は複数のユーザによって注目されて設定された複数の注目点(AP1,AP2,AP3,AP4)が表示される。更に、各注目点(AP1,AP2,AP3,AP4)を含んだ一定範囲の所定領域Tの画像は、それぞれディスプレイ315の下部に、サムネイル(T1,T2,T3,T4)の状態で表示される。そして、ユーザBが、例えば、サムネイルT1を選択すると、図10(b)に示されているように、サムネイルT1の元の画像である所定領域画像(ここでは、部分画像P1)が、ディスプレイ315に表示されることになる。   As shown in FIG. 10A, on the display 315 of the display device 3b, a plurality of attention points set by attention by one or more users using the image sharing system of the present embodiment. (AP1, AP2, AP3, AP4) is displayed. Furthermore, an image of a predetermined area T in a certain range including each attention point (AP1, AP2, AP3, AP4) is displayed in the state of thumbnails (T1, T2, T3, T4) in the lower part of the display 315, respectively. . Then, when the user B selects, for example, the thumbnail T1, as shown in FIG. 10B, the predetermined area image (here, the partial image P1), which is the original image of the thumbnail T1, is displayed on the display 315 Will be displayed on.

また、図10(b)に示されている所定領域画像に対して、更に注目点を設定することも可能である。この場合、更に設定された注目点を含む所定領域画像の関するサムネイルが表示されることになる。   Moreover, it is also possible to further set an attention point to the predetermined area image shown in FIG. 10 (b). In this case, a thumbnail relating to the predetermined area image including the set attention point is displayed.

なお、上記では、送信装置として表示装置3a、受信装置として表示装置3bを説明したが、これに限るものではなく、受信装置として表示装置3a、送信装置として表示装置3bを用いてもよい。即ち、表示装置3aでも画像管理システム7から撮影画像をダウンロードすることもでき、図10に示されているような注目点の設定や、図10に示されているような画像をディスプレイ315に表示させることができる。   In the above, the display device 3a is described as the transmission device and the display device 3b is described as the reception device. However, the present invention is not limited to this. The display device 3a may be used as the reception device and the display device 3b as the transmission device. That is, the photographed image can also be downloaded from the image management system 7 also in the display device 3a, and setting of the attention point as shown in FIG. 10 or an image as shown in FIG. It can be done.

<<実施形態のハードウェア構成>>
次に、図11乃至図13を用いて、本実施形態の撮影装置、表示装置、付加情報管理システム、及び画像管理システムのハードウェア構成を詳細に説明する。
<< Hardware Configuration of Embodiment >>
Next, the hardware configurations of the imaging device, the display device, the additional information management system, and the image management system according to the present embodiment will be described in detail with reference to FIGS.

まず、図11を用いて、撮影装置1のハードウェア構成を説明する。なお、図11は、撮影装置のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全方位撮影装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。   First, the hardware configuration of the photographing device 1 will be described with reference to FIG. FIG. 11 is a hardware configuration diagram of the photographing apparatus. Hereinafter, the imaging device 1 is an omnidirectional imaging device using two imaging elements, but the number of imaging elements may be three or more. Also, the device is not necessarily a device dedicated to omnidirectional imaging, and a retrofit omnidirectional imaging unit may be attached to an ordinary digital camera, a smartphone or the like to have substantially the same function as the imaging device 1 .

図11に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。   As illustrated in FIG. 11, the imaging apparatus 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a central processing unit (CPU) 111, a read only memory (ROM) 112, and a static random access memory (SRAM). A memory 113, a dynamic random access memory (DRAM) 114, an operation unit 115, a network I / F 116, a communication unit 117, and an antenna 117a.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。   Among them, the imaging unit 101 includes two wide-angle lenses (so-called fisheye lenses) 102 a and 102 b each having an angle of view of 180 ° or more for imaging a hemispherical image, and two imaging provided corresponding to each wide-angle lens Elements 103a and 103b are provided. The image sensors 103a and 103b convert an optical image by a fisheye lens into image data of an electrical signal and output the image data such as a complementary metal oxide semiconductor (CMOS) sensor or a charge coupled device (CCD) sensor, horizontal or horizontal image sensor The circuit includes a timing generation circuit that generates a vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the imaging device are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス100には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。   The imaging elements 103a and 103b of the imaging unit 101 are connected to the image processing unit 104 by a parallel I / F bus, respectively. On the other hand, the imaging elements 103 a and 103 b of the imaging unit 101 are connected separately from the imaging control unit 105 by a serial I / F bus (such as an I2C bus). The image processing unit 104 and the imaging control unit 105 are connected to the CPU 111 via the bus 110. Further, to the bus 100, the ROM 112, the SRAM 113, the DRAM 114, the operation unit 115, the network I / F 116, the communication unit 117, the electronic compass 118, and the like are also connected.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図4(c)に示されているようなメルカトル画像のデータを作成する。   The image processing unit 104 takes in the image data output from the imaging elements 103a and 103b through the parallel I / F bus, performs predetermined processing on each of the image data, and then combines these image data. , Create a Mercator image data as shown in FIG. 4 (c).

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。   In general, the imaging control unit 105 sets a command or the like in the register group of the imaging elements 103a and 103b using the imaging control unit 105 as a master device and the imaging elements 103a and 103b as slave devices and using an I2C bus. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also takes in status data and the like of the register group of the imaging elements 103 a and 103 b using the I 2 C bus, and sends the status data to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。   The imaging control unit 105 also instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Depending on the photographing apparatus, there may be a function corresponding to a preview display function by a display or a moving image display. In this case, output of image data from the imaging elements 103a and 103b is continuously performed at a predetermined frame rate (frame / minute).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置には表示部が設けられていないが、表示部を設けてもよい。   Further, as described later, the imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of the image data of the imaging elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the display unit is not provided in the imaging device, but a display unit may be provided.

CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。   The CPU 111 controls the entire operation of the photographing apparatus 1 and executes necessary processing. The ROM 112 stores various programs for the CPU 111. An SRAM 113 and a DRAM 114 are work memories, and store programs executed by the CPU 111, data during processing, and the like. In particular, the DRAM 114 stores image data being processed by the image processing unit 104 and data of the processed Mercator image.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。   The operation unit 115 is a generic term such as various operation buttons, a power switch, a shutter button, and a touch panel having both display and operation functions. The user operates the operation buttons to input various shooting modes, shooting conditions, and the like.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じて、ネットワークI/FとなるネットワークI/F116を介して、表示装置3等の外部装置に送信される。   The network I / F 116 is a generic term for an external medium such as an SD card or an interface circuit (USB I / F or the like) with a personal computer or the like. The network I / F 116 may be a network interface regardless of whether it is wireless or wired. The data of the Mercator image stored in the DRAM 114 is recorded on an external medium via the network I / F 116 or, if necessary, the display device 3 via the network I / F 116 serving as the network I / F. Etc. are sent to the external device.

通信部117は、撮影装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)やNFC等の短距離無線技術によって、表示装置3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを表示装置3の外部装置に送信することができる。   The communication unit 117 communicates with an external device such as the display device 3 through a short distance wireless technology such as WiFi (wireless fidelity) or NFC via an antenna 117 a provided in the imaging device 1. The communication unit 117 can also transmit the data of Mercator image to the external device of the display device 3.

電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿ったメタデータの一例であり、撮影画像の画像補正等の画像処理に利用される。なお、以下では、メタデータを含めた広い概念として「付加情報」を用いて説明を行う。   The electronic compass 118 calculates the azimuth and tilt (Roll rotation angle) of the imaging device 1 from the magnetism of the earth, and outputs azimuth / tilt information. The azimuth / tilt information is an example of metadata along Exif, and is used for image processing such as image correction of a photographed image. The following description will be made using “additional information” as a broad concept including metadata.

次に、図12を用いて、表示装置3のハードウェア構成を説明する。なお、図12は、表示装置がスマートフォンの場合のハードウェア構成図である。   Next, the hardware configuration of the display device 3 will be described with reference to FIG. FIG. 12 is a hardware configuration diagram when the display device is a smartphone.

図12に示されているように、表示装置3は、表示装置3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種加速度・方位センサ306、フラッシュメモリ等の記録メディア307に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ308を備えている。そして、メディアドライブ308の制御に従って、既に記録されていたデータが読み出され、又は新たにデータが書き込まれて記憶する記録メディア307が着脱自在な構成となっている。   As shown in FIG. 12, the display device 3 includes a CPU 301 that controls the overall operation of the display device 3, a ROM 302 that stores a basic input / output program, and a random access memory (RAM) 303 used as a work area of the CPU 301. Electrically erasable and programmable ROM (EEPROM) 304 that reads or writes data according to control of CPU 301, CMOS sensor 305 as an imaging element for capturing an object and obtaining image data according to control of CPU 301, electronic magnetic compass for detecting geomagnetism And a media drive 308 for controlling reading or writing (storage) of data with respect to a recording medium 307 such as a flash memory or a variety of acceleration / orientation sensors 306 such as a gyro compass and an acceleration sensor. Then, according to the control of the media drive 308, the recording medium 307 on which the data already recorded is read or data is newly written and stored is removable.

なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。   Note that the EEPROM 304 stores an operating system (OS) executed by the CPU 301, other programs, and various data. Also, instead of the CMOS sensor 305, a CCD sensor may be used.

更に、表示装置3は、音声を音声信号に変換する音声入力部311、音声信号を音声に変換する音声出力部312、アンテナ313a、このアンテナ313aを利用して無線通信信号により、最寄の基地局9a等と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって表示装置3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、被写体の画像や各種アイコン等を表示する液晶や有機ELなどのディスプレイ315、このディスプレイ315上に載せられ、感圧式又は静電式のパネルによって構成され、指やタッチペン等によるタッチによってディスプレイ315上におけるタッチ位置を検出するタッチパネル316、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。   Furthermore, the display device 3 includes a voice input unit 311 for converting voice into a voice signal, a voice output unit 312 for converting a voice signal into voice, an antenna 313a, and a wireless communication signal using the antenna 313a. Unit 313 for communicating with the stations 9a etc., GPS signals including position information (latitude, longitude, and altitude) of the display 3 by GPS (Global Positioning Systems) satellites or IMES (Indoor MEssaging System) as indoor GPS GPS receiver 314 to receive, a display 315 such as liquid crystal or organic EL, etc. displaying an image of an object or various icons, etc., mounted on the display 315, constituted by a pressure sensitive type or electrostatic type panel, a finger, a touch pen, etc. Touch panel 316 that detects a touch position on the display 315 by a touch by the And it includes an address bus, a data bus, and the like of the bus line 310 for electrically connecting the respective units.

なお、音声入力部311は、音声を入力するマイクが含まれ、音声出力部312には、音声を出力するスピーカが含まれている。   The voice input unit 311 includes a microphone for inputting voice, and the voice output unit 312 includes a speaker for outputting voice.

次に、図13を用いて、付加情報管理システム5、及び画像管理システム7のハードウェア構成を説明する。なお、図13は、付加情報管理システム5、及び画像管理システム7のハードウェア構成図である。付加情報管理システム5、及び画像管理システム7は、ともに一般のサーバコンピュータであるため、以下では、付加情報管理システム5の構成について説明し、画像管理システム7の構成の説明は省略する。   Next, the hardware configuration of the additional information management system 5 and the image management system 7 will be described with reference to FIG. FIG. 13 is a hardware configuration diagram of the additional information management system 5 and the image management system 7. Since both the additional information management system 5 and the image management system 7 are general server computers, the configuration of the additional information management system 5 will be described below, and the description of the configuration of the image management system 7 will be omitted.

付加情報管理システム5は、付加情報管理システム5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、付加情報管理システム5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を図13に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。   The additional information management system 5 includes a CPU 501 that controls the overall operation of the additional information management system 5, a ROM 502 that stores programs used to drive the CPU 501 such as IPL, a RAM 503 that is used as a work area of the CPU 501, and an additional information management system 5. Data read from or written to an HDD 504 that stores various data such as a program for writing, HDD (Hard Disk Drive) 505 that controls reading or writing of various data to the HD 504 according to the control of the CPU 501, Media drive 507 for controlling storage, a display 508 for displaying various information such as cursors, menus, windows, characters, or images, and a network for performing data communication using the communication network 9 / F 509, a keyboard 511 having a plurality of keys for inputting characters, numerical values, various instructions, etc., selection and execution of various instructions, selection of processing target, mouse 512 for moving a cursor, etc., removable recording medium CD-ROM drive 514 which controls reading and writing of various data to a CD-ROM (Compact Disc Read Only Memory) 513 as one example, and the above respective components are electrically shown as shown in FIG. Bus lines 510 such as an address bus and a data bus for connection are provided.

なお、図14は、デジタルスチルカメラ用画像ファイルフォーマット規格における圧縮データファイルの構造を示した図である。撮影装置1によって得られた画像データは、図14に示されているように、圧縮データファイルの構造を有している。これは、2010年4月26日に制定された「デジタルカメラ用画像フォーマット規格 Exif 2.3」(http://www.cipa.jp/hyoujunka/kikaku/pdf/DC-008-2010_J.pdf)に示された圧縮データファイル構造である。このうち、APP1は、画像に対するメタデータの記録に利用されるアプリケーション・データ・セグメント1を示す。このAPP1には、デジタルカメラ等の機器メーカ毎に独自のメタデータ(Maker Note)を格納することができるEXIF IFDが構築されている。本実施形態では、付加情報として、画像の種類を示す画像種別情報と、電子コンパス118によって算出された方位・傾き情報とが示されている。また、画像種別情報は、例えば、全天球パノラマ画像である旨を示す識別コード、通常の平面画像である旨を示す識別コードである。   FIG. 14 is a diagram showing the structure of a compressed data file in the image file format standard for digital still cameras. The image data obtained by the photographing device 1 has a compressed data file structure, as shown in FIG. This is shown in "Exif 2.3 Image Format Standard for Digital Cameras" enacted on April 26, 2010 (http://www.cipa.jp/hyoujunka/kikaku/pdf/DC-008-2010_J.pdf) Compressed data file structure. Among these, APP1 indicates an application data segment 1 used to record metadata on an image. In this APP1, an EXIF IFD capable of storing unique metadata (Maker Note) for each device maker such as a digital camera is constructed. In the present embodiment, as the additional information, image type information indicating the type of the image, and azimuth / inclination information calculated by the electronic compass 118 are shown. The image type information is, for example, an identification code indicating that the image is an omnidirectional panoramic image, and an identification code indicating that the image is a normal planar image.

<<実施形態の機能構成>>
次に、図15を用いて、本実施形態の機能構成について説明する。図15は、本実施形態の画像共有システムの一部を構成する表示装置3、付加情報管理システム5、及び画像管理システム7の各機能ブロック図である。図15では、表示装置3、付加情報管理システム5、及び画像管理システム7が、通信ネットワーク9を介してデータ通信することができる。
<< Functional Configuration of Embodiment >>
Next, a functional configuration of the present embodiment will be described using FIG. FIG. 15 is a functional block diagram of the display device 3, the additional information management system 5, and the image management system 7 which constitute a part of the image sharing system of the present embodiment. In FIG. 15, the display device 3, the additional information management system 5, and the image management system 7 can perform data communication via the communication network 9.

<表示装置の機能構成>
図15に示されているように、表示装置3は、送受信部31、操作入力受付部32、作成部33、表示制御部34、画像処理部38、及び記憶・抽出部39を有している。これら各部は、図11に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された表示装置3用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional Configuration of Display Device>
As shown in FIG. 15, the display device 3 includes a transmission / reception unit 31, an operation input reception unit 32, a creation unit 33, a display control unit 34, an image processing unit 38, and a storage and extraction unit 39. . These functions are realized by any one of the components shown in FIG. 11 being operated by an instruction from CPU 111 according to a program for display device 3 expanded on SRAM 114 from DRAM 113 or It is a means.

また、表示装置3は、図11に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部3000を有している。   Further, the display device 3 includes a storage unit 3000 constructed by the ROM 112, the SRAM 113, and the DRAM 114 shown in FIG.

(表示装置の各機能構成)
次に、図12及び図15を用いて、表示装置3の各機能構成について更に詳細に説明する。
(Each functional configuration of display device)
Next, each functional configuration of the display device 3 will be described in more detail using FIG. 12 and FIG.

表示装置3の送受信部31は、主に、図12に示されている通信部313及びCPU301の処理によって実現され、通信ネットワーク9を介して付加情報管理システム5、又は画像管理システム7と各種データ(または情報)の送受信を行う。   The transmission / reception unit 31 of the display device 3 is mainly realized by the processing of the communication unit 313 and the CPU 301 shown in FIG. 12, and the additional information management system 5 or the image management system 7 and various data via the communication network 9 Send and receive (or information).

操作入力受付部32は、主にタッチパネル316及びCPU301による処理によって実現され、ユーザから各種の選択又は入力を受け付ける。   The operation input receiving unit 32 is mainly realized by the processing by the touch panel 316 and the CPU 301, and receives various selections or inputs from the user.

作成部33は、主にCPU301の処理によって実現され、操作入力受付部32で受け付けたユーザの指定又は選択に基づいて、全天球パノラマ画像から、図9に示されているように、所定領域画像を作成する。また、作成部33は、所定領域画像に基づいて、図10に示されているサムネイルを作成する。   The creating unit 33 is mainly realized by the processing of the CPU 301, and based on the designation or selection of the user accepted by the operation input accepting unit 32, from the omnidirectional panoramic image, as shown in FIG. Create an image Also, the creation unit 33 creates the thumbnails shown in FIG. 10 based on the predetermined area image.

表示制御部34は、主にCPU301の処理によって実現され、ディスプレイ315に各種画像や文字等を表示させるための制御を行う。表示制御部34は、例えば、画像処理部38によって画像処理された画像データを表示装置3のディスプレイ315上に表示させる。また、表示制御部34は、操作入力受付部32によって選択されたサムネイルに関する所定領域画像を、ディスプレイ315に表示させる。   The display control unit 34 is mainly realized by the processing of the CPU 301, and performs control for displaying various images, characters, and the like on the display 315. The display control unit 34 displays, for example, the image data subjected to the image processing by the image processing unit 38 on the display 315 of the display device 3. In addition, the display control unit 34 causes the display 315 to display a predetermined area image related to the thumbnail selected by the operation input receiving unit 32.

画像処理部38は、付加情報を利用して画像データを画像処理する。この画像処理は、画像編集、画像加工、又は画像補正(修正)である。画像処理部38は、画像編集として、吹き出し追加、テキスト追加、トリミング、又はリサイズ等を行う。また、画像処理部38は、画像加工として、画像の切り抜き、シャープ加工、エンボス加工、又はぼかし加工等を行う。更に、画像処理部38は、画像補正として、赤目補正、明るさ調整、コントラスト調整、方位補正、又は傾き補正等を行う。   The image processing unit 38 processes the image data using the additional information. This image processing is image editing, image processing, or image correction (correction). The image processing unit 38 performs balloon addition, text addition, trimming, resizing, and the like as image editing. Further, the image processing unit 38 performs image cutting out, sharpening, embossing, blurring, or the like as image processing. Furthermore, the image processing unit 38 performs red-eye correction, brightness adjustment, contrast adjustment, azimuth correction, tilt correction, and the like as image correction.

記憶・抽出部39は、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を抽出する。記憶・抽出部39は、例えば、撮影画像、共有選択用画像、又は所定領域画像の各データを、記憶部3000に対して記録したり、記憶部3000から抽出する。   The storage / extraction unit 39 stores various data (or information) in the storage unit 3000 or extracts various data (or information) from the storage unit 3000. The storage / extraction unit 39 records, for example, each data of a photographed image, an image for sharing selection, or a predetermined area image in the storage unit 3000 or extracts it from the storage unit 3000.

<付加情報管理システムの機能構成>
次に、図15を用いて、付加情報管理システム5の各機能構成について詳細に説明する。付加情報管理システム5は、送受信部51、判断部52、取得部55、及び記憶・抽出部59を有している。これら各部は、図13に示されている各構成要素のいずれかが、HD504からRAM503上に展開された付加情報管理システム5用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of additional information management system>
Next, each functional configuration of the additional information management system 5 will be described in detail using FIG. The additional information management system 5 includes a transmission / reception unit 51, a determination unit 52, an acquisition unit 55, and a storage / extraction unit 59. These units are realized by any one of the components shown in FIG. 13 being operated by an instruction from the CPU 501 according to a program for the additional information management system 5 developed on the RAM 503 from the HD 504. Function or means.

また、付加情報管理システム5は、図13に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、後述の付加情報管理テーブルによって構成されている付加情報管理DB5001が構築されている。   The additional information management system 5 also has a storage unit 5000 constructed by the RAM 503 and the HD 504 shown in FIG. In the storage unit 5000, an additional information management DB 5001 configured of an additional information management table described later is constructed.

(付加情報管理テーブル)
図16は、付加情報管理テーブルを示す概念図である。この付加情報管理テーブルでは、ユーザを識別するためのユーザ識別情報、画像データを識別するための画像識別情報、及び上述の付加情報が関連付けて記憶され管理されている。
(Additional information management table)
FIG. 16 is a conceptual diagram showing the additional information management table. In the additional information management table, user identification information for identifying a user, image identification information for identifying image data, and the above-described additional information are stored and managed in association with each other.

なお、図16では、ユーザ識別情報の一例としてユーザID(Identification)が示されているが、ユーザを特定できればユーザIDである必要はない。例えば、ユーザ識別情報には、ユーザ名、従業員番号、学籍番号、国民総背番号制に基づく国民番号等も含まれる。また、図16では、画像識別情報の一例として画像IDが示されているが、画像データを特定できれば画像IDである必要はない。例えば、画像識別情報には、画像データのファイル名等も含まれる。   Although FIG. 16 shows a user ID (Identification) as an example of the user identification information, it is not necessary to be a user ID if the user can be identified. For example, the user identification information includes a user name, an employee number, a student ID number, a national number based on a national gross number system, and the like. Further, in FIG. 16, an image ID is shown as an example of the image identification information, but if image data can be specified, it is not necessary to be an image ID. For example, the image identification information also includes the file name of the image data.

(付加情報管理システムの各機能構成)
次に、図13及び図15を用いて、付加情報管理システム5の各機能構成について詳細に説明する。
(Each functional configuration of additional information management system)
Next, each functional configuration of the additional information management system 5 will be described in detail using FIG. 13 and FIG.

付加情報管理システム5の送受信部51は、主に、図13に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して表示装置3、又は画像管理システム7と各種データ(または情報)の送受信を行う。   The transmission / reception unit 51 of the additional information management system 5 is mainly realized by the processing of the network I / F 509 and the CPU 501 shown in FIG. 13, and via the communication network 9 the display device 3 or the image management system 7 Send and receive data (or information).

判断部52は、主に、図13に示されているCPU501によって実現され、表示装置3から送信されてきた画像識別情報に対応する付加情報が、付加情報管理テーブルに記憶されているか否かを判断する。   Determination unit 52 is mainly implemented by CPU 501 shown in FIG. 13 and determines whether additional information corresponding to the image identification information transmitted from display device 3 is stored in the additional information management table or not. to decide.

取得部55は、送受信部51によって受信された後に記憶部5000に記憶されている画像データから、この画像データに付加されている付加情報を取得する。なお、この取得によって、元の画像データに付加情報が付加されたままの状態であってもよく、又は元の画像データに付加情報が付加されていない状態(分離された状態)であってもよい。   The acquisition unit 55 acquires, from the image data stored in the storage unit 5000 after being received by the transmission / reception unit 51, the additional information added to the image data. Note that the additional information may be added to the original image data as a result of this acquisition, or even if the additional information is not added to the original image data (the separated state). Good.

記憶・抽出部59は、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を抽出する。   The storage and extraction unit 59 stores various data (or information) in the storage unit 5000, and extracts various data (or information) from the storage unit 5000.

<画像管理システムの機能構成>
次に、図13及び図15を用いて、画像管理システム7の機能構成について詳細に説明する。画像管理システム7は、送受信部71、作成部72、及び、記憶・抽出部79を有している。これら各部は、図13に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理システム7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional Configuration of Image Management System>
Next, the functional configuration of the image management system 7 will be described in detail using FIGS. 13 and 15. The image management system 7 includes a transmission / reception unit 71, a creation unit 72, and a storage / extraction unit 79. These functions are realized by any one of the components shown in FIG. 13 being operated by an instruction from the CPU 501 according to a program for the image management system 7 developed on the RAM 503 from the HD 504. Or means.

また、画像管理システム7は、図13に示されているRAM503、及びHD504によって構築される記憶部7000を有している。この記憶部7000には、後述の画像管理テーブルによって構成されている画像管理DB7001が構築される。   Further, the image management system 7 has a storage unit 7000 constructed by the RAM 503 and the HD 504 shown in FIG. In the storage unit 7000, an image management DB 7001 configured of an image management table described later is constructed.

(画像管理テーブル)
図17は、画像管理テーブルを示す概念図である。この画像管理テーブルでは、画像オブジェクトのデータが管理されている。この画像オブジェクトは、ユーザを識別するためのユーザ識別情報、画像を識別するための画像識別情報、この画像識別情報に係る画像データの記憶部7000における格納場所であるURL(Uniform Resource Locator)を示すURL情報、及び属性情報が関連付けて管理されている。
(Image management table)
FIG. 17 is a conceptual diagram showing an image management table. In this image management table, data of image objects are managed. The image object indicates user identification information for identifying a user, image identification information for identifying an image, and a URL (Uniform Resource Locator) which is a storage location in the storage unit 7000 of image data related to the image identification information. URL information and attribute information are managed in association with each other.

なお、画像オブジェクトのユーザ識別情報及び画像識別情報は、図16に示されているユーザ識別情報及び画像識別情報と同じである。一方で、属性情報は、図16に示されている付加情報とは異なる。即ち、属性情報は、後述の作成部72が画像データに基づいて作成した画像データの本来的な情報(画像ファイル名、画像の縦横画素数を示す情報等)であり、付加情報のように画像データの画像処理には利用されない。   The user identification information and the image identification information of the image object are the same as the user identification information and the image identification information shown in FIG. On the other hand, the attribute information is different from the additional information shown in FIG. That is, the attribute information is the essential information (image file name, information indicating the number of vertical and horizontal pixels of the image, etc.) of the image data generated by the generation unit 72 described later based on the image data. It is not used for image processing of data.

(画像管理システムの各機能構成)
次に、図15を用いて、画像管理システム7の各機能構成について詳細に説明する。
(Each functional configuration of the image management system)
Next, each functional configuration of the image management system 7 will be described in detail using FIG.

画像管理システム7の送受信部71は、主に、図13に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して表示装置3、又は付加情報管理システム5と各種データ(または情報)の送受信を行う。   The transmission / reception unit 71 of the image management system 7 is mainly realized by the processing of the network I / F 509 and the CPU 501 shown in FIG. 13, and the display device 3 or the additional information management system 5 and various types via the communication network 9. Send and receive data (or information).

作成部72は、表示装置3から送られて来た画像データを画像管理システム7で管理するために、画像データに対して画像識別情報を割り当て、この画像データのヘッダ部分に画像識別情報を付与する。また、作成部72は、画像オブジェクトを作成する。   In order to manage the image data sent from the display device 3 by the image management system 7, the creation unit 72 assigns image identification information to the image data, and assigns the image identification information to the header portion of the image data. Do. Also, the creation unit 72 creates an image object.

記憶・抽出部79は、記憶部7000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を抽出する。   The storage / extraction unit 79 stores various data (or information) in the storage unit 7000 or extracts various data (or information) from the storage unit 5000.

<<実施形態の処理または動作>>
次に、図18及び図19を用いて、ユーザAが表示装置3aを用いて、画像データをアップロードする処理を説明する。図18は、撮影画像のアップロードの処理を示したシーケンス図である。図19は、画像オブジェクトを示した図である。
<< Process or Operation of Embodiment >>
Next, processing of uploading image data by the user A using the display device 3a will be described using FIG. 18 and FIG. FIG. 18 is a sequence diagram showing a process of uploading a photographed image. FIG. 19 shows an image object.

なお、表示装置3a、付加情報管理システム5、および画像管理システム7間の通信ネットワーク9を介する通信プロトコルは、ハイパーテキスト通信プロトコル(HTTP)によるHTTP通信である。表示装置3aはHTTPクライアントに相当し、付加情報管理システム5及び画像管理システム7はHTTPサーバに相当する。   The communication protocol via the communication network 9 among the display device 3a, the additional information management system 5, and the image management system 7 is HTTP communication by hypertext communication protocol (HTTP). The display device 3a corresponds to an HTTP client, and the additional information management system 5 and the image management system 7 correspond to an HTTP server.

以下特に断りがない限り、各シーケン図における表示装置3aから付加情報管理システム5及び画像管理システム7への矢印はHTTPリクエストに相当し、付加情報管理システム5及び画像管理システム7から表示装置3aへの矢印はHTTPレスポンスに相当する。   Unless otherwise noted, arrows from the display device 3a to the additional information management system 5 and the image management system 7 in each sequence diagram correspond to HTTP requests, and from the additional information management system 5 and the image management system 7 to the display device 3a The arrow of corresponds to the HTTP response.

まず、ユーザAは、付加情報が付加されている画像データを撮影装置1から表示装置3aの記憶部3000に取り込んでおく。   First, the user A takes in the image data to which the additional information is added from the photographing device 1 to the storage unit 3000 of the display device 3a.

次に、ユーザAがアップロードする画像データを選択することにより、表示装置3aの操作入力受付部32は、アップロードされる画像データの選択を受け付ける(ステップS1)。そして、表示装置3aの送受信部31は、通信ネットワーク9を介して付加情報管理システム5へ、ユーザAのユーザ識別情報、付加情報が付加されている画像データ、及びこの画像データのファイル名のデータを送信することで、画像データのアップロードを行う(ステップS2)。これにより、付加情報管理システム5の送受信部51は、ユーザ識別情報、及び付加情報が付加されている画像データを受信することになる。   Next, by selecting the image data to be uploaded by the user A, the operation input receiving unit 32 of the display device 3a receives a selection of the image data to be uploaded (step S1). Then, the transmission / reception unit 31 of the display device 3a transmits the user identification information of the user A, the image data to which the additional information is added, and the data of the file name of this image data to the additional information management system 5 via the communication network 9. To transmit the image data (step S2). Thereby, the transmitting and receiving unit 51 of the additional information management system 5 receives the user identification information and the image data to which the additional information is added.

次に、付加情報管理システム5の取得部55は、上記ステップS1によってダウンロードされる画像データから付加情報を取得する(ステップS3)。そして、記憶・抽出部59は、上記ステップS2によって受信されたユーザ識別情報と上記ステップS3によって取得された付加情報とを関連付けて、付加情報管理テーブル(図16参照)に記憶して管理する(ステップS4)。   Next, the acquisition unit 55 of the additional information management system 5 acquires additional information from the image data downloaded in step S1 (step S3). Then, the storage / extraction unit 59 associates the user identification information received in step S2 with the additional information acquired in step S3 and stores and manages the additional information management table (see FIG. 16) (see FIG. 16). Step S4).

次に、送受信部51は、上記ステップS2によって受信された画像データ及びユーザ識別情報を、通信ネットワーク9を介して画像管理システム7へ送信する(ステップS5)。これにより、画像管理システム7の送受信部71は、画像データ及びユーザ識別情報を受信することになる。   Next, the transmitting and receiving unit 51 transmits the image data and the user identification information received in step S2 to the image management system 7 via the communication network 9 (step S5). Thus, the transmitting and receiving unit 71 of the image management system 7 receives the image data and the user identification information.

次に、画像管理システム7の作成部72は、ステップS5によって受信された画像データに基づいて、図19に示されているような画像オブジェクトを作成する(ステップS6)。この画像オブジェクトのデータには、ユーザ識別情報、画像識別情報、URL情報、及び属性情報が含まれている。   Next, the creation unit 72 of the image management system 7 creates an image object as shown in FIG. 19 based on the image data received in step S5 (step S6). The data of the image object includes user identification information, image identification information, URL information, and attribute information.

次に、記憶・抽出部79は、ステップS6によって作成された画像オブジェクトを画像管理テーブル(図17参照)に記憶して管理する(ステップS7)。そして、送受信部71は、通信ネットワーク9を介して付加情報管理システム5へ、画像オブジェクトを送信する(ステップS8)。これにより、付加情報管理システム5の送受信部51は、画像オブジェクトを受信することになる。   Next, the storage and extraction unit 79 stores and manages the image object created at step S6 in the image management table (see FIG. 17) (step S7). Then, the transmitting and receiving unit 71 transmits the image object to the additional information management system 5 via the communication network 9 (step S8). Thereby, the transmitting and receiving unit 51 of the additional information management system 5 receives the image object.

また、付加情報管理システム5の記憶・抽出部59は、上記ステップS4によって記憶されているユーザ識別情報及び付加情報に加え、上記ステップS8によって受信された画像オブジェクトの画像識別情報を関連付けて記憶することで管理する(ステップS9)。これにより、図16に示されているような付加情報管理テーブルが構築される。   The storage / extraction unit 59 of the additional information management system 5 stores the image identification information of the image object received at step S8 in association with the user identification information and the additional information stored at step S4. Manage by (step S9). Thereby, the additional information management table as shown in FIG. 16 is constructed.

そして、送受信部51は、通信ネットワーク9を介して表示装置3aへ、付加情報の管理が完了した旨を示す結果と共に画像識別情報を送信する(ステップS10)。これにより、画像データの一連のアップロードの処理が終了する。   Then, the transmission / reception unit 51 transmits the image identification information together with the result indicating that the management of the additional information is completed to the display device 3a via the communication network 9 (step S10). Thus, the process of uploading the image data is completed.

次に、図20乃至図22を用いて、ユーザBが表示装置3bを用いて、画像データをダウンロードする処理を説明する。なお、図20は、撮影画像のダウンロードの処理を示したシーケンス図である。   Next, processing of downloading image data by the user B using the display device 3b will be described using FIG. 20 to FIG. FIG. 20 is a sequence diagram showing download processing of a photographed image.

まず、ユーザBが、表示装置3bの送受信部31から通信ネットワーク9を介して画像管理システム7へ、ダウンロードしたい画像のファイル名を示すファイル名リストを要求する(ステップS21)。これにより、画像管理システム7の送受信部71は、ファイル名リストの要求を受け付ける。   First, the user B requests the image management system 7 from the transmission / reception unit 31 of the display device 3b via the communication network 9 for a file name list indicating the file names of the images to be downloaded (step S21). Thereby, the transmitting and receiving unit 71 of the image management system 7 receives the request for the file name list.

また、これに応じて、画像管理システム7の記憶・抽出部79は、画像管理テーブル(図17参照)から画像識別情報と付加情報のファイル名情報を読み出す(ステップS22)。そして、送受信部71は、通信ネットワーク9を介して表示装置3bへ、画像識別情報及びこの画像識別情報に対応するファイル名情報を含むファイル名リストのデータを送信する(ステップS23)。これにより、表示装置3bの送受信部31は、ファイル名リストのデータを受信することになる。   Further, in response to this, the storage and extraction unit 79 of the image management system 7 reads the file name information of the image identification information and the additional information from the image management table (see FIG. 17) (step S22). Then, the transmission / reception unit 71 transmits data of a file name list including the image identification information and the file name information corresponding to the image identification information to the display device 3b via the communication network 9 (step S23). Thereby, the transmission / reception unit 31 of the display device 3b receives the data of the file name list.

次に、ユーザBがファイル名リストのうちで、ダウンロードしたい画像データを示すファイル名を選択すると、表示装置3bの操作入力受付部32は、ファイル名の選択を受け付ける(ステップS24)。そして、表示装置3bの送受信部31は、通信ネットワーク9を介して付加情報管理システム5へ、上記ステップS24によって受け付けられたファイル名に対応する画像識別情報を送信すると共に付加情報を要求する(ステップS25)。これにより、付加情報管理システム5の送受信部51は、画像識別情報を受信すると共に、付加情報の要求を受け付けることになる。   Next, when the user B selects a file name indicating the image data to be downloaded from the file name list, the operation input receiving unit 32 of the display device 3b receives the selection of the file name (step S24). Then, the transmission / reception unit 31 of the display device 3b transmits, to the additional information management system 5 via the communication network 9, image identification information corresponding to the file name accepted in step S24 and requests additional information (step S25). As a result, the transmission / reception unit 51 of the additional information management system 5 receives the image identification information and receives a request for additional information.

次に、付加情報管理システム5は、付加情報の検索処理を行う(ステップS26)。この検索処理について、図21を用いて説明する。なお、図21は、付加情報の検索処理を示したフローチャートである。   Next, the additional information management system 5 performs a search process for additional information (step S26). This search process will be described with reference to FIG. FIG. 21 is a flowchart showing a search process of additional information.

まず、記憶・抽出部59は、図21に示されているように、上記ステップS25によって受信された画像識別情報を検索キーとして、付加情報管理テーブル(図16参照)を検索する(ステップS101)。   First, as shown in FIG. 21, the storage / extraction unit 59 searches the additional information management table (see FIG. 16) using the image identification information received in step S25 as a search key (step S101). .

次に、判断部52は、このステップS101によって、対応する付加情報が記憶されているか否かを判断する(ステップS102)。そして、判断部52によって、対応する付加情報が記憶されていると判断された場合には(YES)、記憶・抽出部59は、対応する付加情報を読み出し、続けて図20のステップS27の処理が行われる。一方、判断部52によって、対応する付加情報が記憶されていないと判断された場合には(NO)、後述の図24のステップS41の処理が行われる。   Next, determination unit 52 determines whether or not corresponding additional information is stored in step S101 (step S102). When it is determined by the determination unit 52 that the corresponding additional information is stored (YES), the storage and extraction unit 59 reads the corresponding additional information, and the process of step S27 in FIG. 20 is subsequently performed. Is done. On the other hand, if the determination unit 52 determines that the corresponding additional information is not stored (NO), the process of step S41 in FIG. 24 described later is performed.

次に、上記ステップS102において、対応する付加情報が記憶されていると判断された場合に(YES)、図20のステップS27の処理から説明を続ける。送受信部51は、図20に示されているように、通信ネットワーク9を介して表示装置3bへ付加情報を送信する(ステップS27)。これにより、表示装置3bの送受信部31は、付加情報を受信することになる。   Next, if it is determined in step S102 that the corresponding additional information is stored (YES), the description will be continued from the process of step S27 of FIG. The transmission / reception unit 51 transmits the additional information to the display device 3b via the communication network 9, as shown in FIG. 20 (step S27). Thereby, the transmission / reception unit 31 of the display device 3b receives the additional information.

次に、表示装置3bは、通信ネットワーク9を介して画像管理システム7へ、ユーザBがダウンロードしたい画像の画像識別情報を送信すると共に画像オブジェクトを要求する(ステップS28)。これにより、画像管理システム7の送受信部71は、画像識別情報を受信すると共に画像オブジェクトの要求を受け付けることになる。   Next, the display device 3b transmits the image identification information of the image that the user B wants to download to the image management system 7 via the communication network 9 and requests the image object (step S28). As a result, the transmission / reception unit 71 of the image management system 7 receives the image identification information and receives the request for the image object.

次に、画像管理システムの記憶・抽出部79は、上記ステップS28によって受信された画像識別情報を検索キーとして、画像管理テーブル(図17参照)を検索することにより、この画像識別情報を含んだ画像オブジェクトを抽出する(ステップS29)。そして、送受信部71は、通信ネットワーク9を介して表示装置3bへ、上記ステップS29によって抽出された画像オブジェクトのデータを送信する(ステップS30)。これにより、表示装置3bの送受信部31は、画像オブジェクトのデータを受信することになる。   Next, the storage and extraction unit 79 of the image management system includes the image identification information by searching the image management table (see FIG. 17) using the image identification information received in step S28 as a search key. An image object is extracted (step S29). Then, the transmitting and receiving unit 71 transmits data of the image object extracted at step S29 to the display device 3b via the communication network 9 (step S30). Thereby, the transmitting and receiving unit 31 of the display device 3b receives the data of the image object.

次に、送受信部31は、画像オブジェクトに含まれるURLにアクセスすることにより、画像管理システム7に対してURLで管理されている画像データを要求する(ステップS31)。これに対して、画像管理システム7の記憶・抽出部79は、記憶部7000から要求された画像データを抽出する(ステップS32)。そして、送受信部79は、通信ネットワーク9を介して表示装置3bへ、上記ステップS32によって抽出された画像データを送信する(ステップS33)。これにより、表示装置3bの送受信部31は、画像データを受信することになる。   Next, the transmission / reception unit 31 requests the image management system 7 for image data managed by the URL by accessing the URL included in the image object (step S31). On the other hand, the storage and extraction unit 79 of the image management system 7 extracts the image data requested from the storage unit 7000 (step S32). Then, the transmitting and receiving unit 79 transmits the image data extracted in step S32 to the display device 3b via the communication network 9 (step S33). Thereby, the transmission / reception unit 31 of the display device 3b receives the image data.

次に、表示装置3bの画像処理部38は、上記ステップS27によって受信された付加情報に基づき、上記ステップS33によって受信された画像データに対して画像処理を行う(ステップS34)。そして、表示装置3bは、画像処理後の画像データをディスプレイ315に表示させる(ステップS35)。   Next, the image processing unit 38 of the display device 3b performs image processing on the image data received in step S33 based on the additional information received in step S27 (step S34). Then, the display device 3b causes the display 315 to display the image data after the image processing (step S35).

ここで、図22及び図23を用いて、画像処理の一例として地平線を補正する画像補正について説明する。なお、図22は、画像補正しない場合の撮影画像を2Dで示した図である。図23は、画像補正しない場合の撮影画像を3Dで示した図である。   Here, image correction for correcting a horizon as an example of image processing will be described with reference to FIGS. 22 and 23. FIG. 22 is a diagram showing a photographed image in the case of not performing image correction in 2D. FIG. 23 is a diagram showing a photographed image in the case where the image correction is not performed in 3D.

例えば、ユーザAが撮影装置1で被写体を撮影する際に、撮影装置1を斜めに傾けて撮影していた場合、表示装置3bで画像補正をしなければ、図22(2Dで示した場合)又は図23(3Dで表示した場合)に示されているような傾いた画像のままである。しかし、表示制御部34が図22に示される2Dの画像データを3Dへ視覚化する際に、画像処理部38が方位・傾き情報のうちの傾きの情報に基づいて表示位置を補正する。これにより、表示制御部34は、図7に示されているように、地平線を水平にした全天球パノラマ画像として、ディスプレイ315に表示させることができる。なお、その後、ユーザBがディスプレイ315をタッチすると、操作入力受付部32がタッチを受け付け、表示制御部34が図9(b)に示されているような所定領域画像を表示させることができる。   For example, when the user A shoots an object with the imaging device 1, if the imaging device 1 is tilted with imaging taken, the image correction is not performed by the display device 3b, as shown in FIG. 22 (in the case of 2D). Alternatively, the inclined image remains as shown in FIG. 23 (when displayed in 3D). However, when the display control unit 34 visualizes the 2D image data shown in FIG. 22 into 3D, the image processing unit 38 corrects the display position based on the tilt information of the azimuth / tilt information. As a result, as shown in FIG. 7, the display control unit 34 can cause the display 315 to display a panoramic panoramic image in which the horizon is horizontal. After that, when the user B touches the display 315, the operation input reception unit 32 can receive a touch, and the display control unit 34 can display a predetermined area image as shown in FIG. 9B.

次に、図24を用いて、上記ステップS102によって付加情報が記憶されていないと判断された後の処理について説明する。なお、図24は、撮影画像のダウンロードができなかった場合の処理を示したシーケンス図である。   Next, processing after it is determined in step S102 that the additional information is not stored will be described using FIG. FIG. 24 is a sequence diagram showing processing in the case where the captured image can not be downloaded.

図24に示されているように、付加情報管理システム5の送受信部51は、通信ネットワーク9を介して表示装置3bへ、対応する付加情報が記憶されていない旨を示すエラーメッセージを送信する。これにより、表示装置3bの送受信部31は、エラーメッセージを受信することになる。   As shown in FIG. 24, the transmission / reception unit 51 of the additional information management system 5 transmits an error message indicating that the corresponding additional information is not stored to the display device 3b via the communication network 9. Thereby, the transmission / reception unit 31 of the display device 3b receives the error message.

次に、表示装置3bの表示制御部34は、ディスプレイ315上にエラーメッセージを表示させる(ステップS42)。このように、付加情報管理システム5で付加情報が管理されていない場合には、画像データをダウンロードする処理(ステップS31〜S33)に進まないようにすることで、ダウンロード処理を省略することができる。このエラーメッセージが表示されるユースケースとしては、画像がメルカトル画像ではない通常の2D画像である場合が考えられる。撮影画像がメルカトル画像の場合、図7に示されているように3Dへ視覚化した全天球パノラマ画像として表示しても違和感なく表示されるが、メルカトル画像ではない通常の2D画像を3Dへ視覚化して表示してしまうと益々湾曲して非常に見えづらい表示になってしまう。よって、本実施形態では、画像補正に寄与する付加情報が記憶されていなければ、画像データのダウンロードの処理を進めないようにしている。   Next, the display control unit 34 of the display device 3b displays an error message on the display 315 (step S42). As described above, when the additional information management system 5 does not manage the additional information, the download process can be omitted by preventing the process from proceeding to the process of downloading the image data (steps S31 to S33). . As a use case where this error message is displayed, it can be considered that the image is a normal 2D image which is not a Mercator image. When the captured image is a Mercator image, even if it is displayed as a panoramic panoramic image visualized in 3D as shown in FIG. 7, it is displayed without discomfort, but a normal 2D image which is not a Mercator image is converted to 3D If it is visualized and displayed, it will become more and more curved and it will become a very difficult-to-see display. Therefore, in the present embodiment, if the additional information contributing to the image correction is not stored, the process of downloading the image data is not advanced.

なお、付加情報が記憶されていない場合であっても、画像データのダウンロードの処理を行えるようにしてもよい。この場合、表示装置3では、3Dへ視覚化して表示することを抑制し、通常の2D表示を行うようにすればよい。   Note that even if the additional information is not stored, the process of downloading the image data may be performed. In this case, the display device 3 may suppress visualization and display in 3D, and perform normal 2D display.

<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、付加情報管理システム5は、表示装置3a(送信装置)から送信されて来た画像データから付加情報を取得する一方で、画像管理システム7から画像識別情報を受信する。そして、付加情報管理システム5は、付加情報と画像識別情報を関連付けて記憶することで、画像管理システム7に代わって付加情報を管理することができる。これにより、ユーザBが表示装置3b(受信装置)によって画像管理システム7から画像データをダウンロードする際に、対応する画像識別情報に基づいて付加情報管理システム5から付加情報をダウンロードすることができるため、画像データを補正する等の画像処理を行うことができるという効果を奏する。
<< Main effects of this embodiment >>
As described above, according to the present embodiment, the additional information management system 5 acquires additional information from the image data transmitted from the display device 3a (transmission device), while the image identification from the image management system 7 is performed. Receive information The additional information management system 5 can manage the additional information on behalf of the image management system 7 by storing the additional information and the image identification information in association with each other. Thereby, when the user B downloads image data from the image management system 7 by the display device 3 b (receiving device), additional information can be downloaded from the additional information management system 5 based on the corresponding image identification information. The image processing such as correction of image data can be performed.

〔実施形態の補足〕
上記各実施形態における付加情報管理システム5、及び画像管理システム7は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
[Supplement of Embodiment]
The additional information management system 5 and the image management system 7 in each of the above embodiments may be constructed by a single computer, or a plurality of units (functions, means, or storage units) divided and arbitrarily assigned. May be built by a computer.

また、上記実施形態の各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHD504は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。   In addition, recording media such as CD-ROMs storing the respective programs of the above embodiments and the HD 504 storing these programs may be provided domestically or abroad as a program product (Program Product). it can.

1 撮影装置
3a 表示装置(送信装置の一例)
3b 表示装置(受信装置の一例)
5 付加情報管理システム
7 画像管理システム
9 通信ネットワーク
9a、9b 基地局
31 送受信
32 操作入力受付部
33 作成
34 表示制御
38 画像処理
39 記憶・抽出
51 送受信部(送信手段の一例、受信手段の一例)
52 判断部(判断手段の一例)
55 取得
59 記憶・抽出部(抽出手段の一例)
71 送受信部
72 作成部(付与手段の一例)
79 記憶・抽出部
315 ディスプレ
3000 記憶
5000 記憶部(第2の記憶手段の一例)
5001 付加情報管理DB
7000 記憶部(第1の記憶手段の一例)
7001 画像管理DB
1 Shooting device 3a Display device (an example of a transmitting device)
3b Display (example of receiver)
5 additional information management system 7 image management system 9 communication network 9a, 9b base station 31 transmission / reception unit 32 operation input reception unit 33 creation unit 34 display control unit 38 image processing unit 39 storage / extraction unit 51 transmission / reception unit (an example of transmission means Example of receiving means)
52 Judgment part (an example of judgment means)
55 Acquisition department
59 storage and extraction unit (an example of extraction means)
71. Transmission / reception unit 72. Creation unit (an example of assignment means)
79 storage and extraction unit 315 Display Lee <br/> 3000 memory 5000 storing unit (an example of a second storage means)
5001 Additional Information Management DB
7000 storage unit (an example of a first storage unit)
7001 Image Management DB

特開2011−120201号公報JP, 2011-120201, A

Claims (11)

画像処理に利用される付加情報が付加されている画像データを送信する送信装置と通信可能なシステムであって、
前記送信装置から前記画像データを受信する受信手段と、
前記受信された画像データ、および当該画像データを識別するための画像識別情報を関連付けて記憶する第1の記憶手段と、
前記受信された画像データに付加されている前記付加情報、および前記画像識別情報を関連付けて記憶する第2の記憶手段と、
前記画像識別情報を、前記送信装置に対して送信する送信手段と、
を有することを特徴とするシステム。
A system capable of communicating with a transmitter that transmits image data to which additional information used for image processing is added, comprising:
Receiving means for receiving the image data from the transmitting device;
First storage means for storing the received image data and image identification information for identifying the image data in association with each other;
A second storage unit that stores the additional information added to the received image data and the image identification information in association with each other;
Transmission means for transmitting the image identification information to the transmission device;
A system characterized by having:
請求項1に記載のシステムであって、さらに、
前記画像データに対して前記画像識別情報を付与する付与手段を有し、
前記送信手段は、前記付与された前記画像識別情報を、前記送信装置に対して送信する
ことを特徴とするシステム。
The system of claim 1, further comprising:
It has an assigning means for assigning the image identification information to the image data,
A system, wherein the transmitting means transmits the attached image identification information to the transmitting device.
前記受信手段は、前記送信装置から前記画像データに加えて、前記送信装置のユーザを識別するためのユーザ識別情報を受信し、
前記第2の記憶手段は、前記付加情報に関連付けて、前記ユーザ識別情報を記憶する
ことを特徴とする請求項1又は2に記載のシステム。
The receiving unit receives user identification information for identifying a user of the transmission device, in addition to the image data, from the transmission device.
The system according to claim 1, wherein the second storage unit stores the user identification information in association with the additional information.
前記受信手段は、所定の受信装置から前記画像識別情報を受信すると共に前記付加情報の要求を受信し、
前記受信手段によって受信された前記画像識別情報に基づいて前記第2の記憶手段を検索することにより、対応する付加情報を抽出する抽出手段を有し、
前記送信手段は、前記抽出手段によって抽出された付加情報を、前記受信装置に送信する
ことを特徴とする請求項1乃至3のいずれか一項に記載のシステム。
The receiving unit receives the image identification information from a predetermined receiving device and receives the request for the additional information.
It has an extraction means for extracting corresponding additional information by searching the second storage means based on the image identification information received by the reception means.
The system according to any one of claims 1 to 3, wherein the transmitting means transmits the additional information extracted by the extracting means to the receiving device.
前記受信手段によって受信された前記画像識別情報に基づいて前記第2の記憶手段を検索することにより、対応する付加情報があるか否かを判断する判断手段を有し、
前記判断手段によって対応する付加情報があると判断された場合には、前記送信手段は前記受信装置に前記対応する付加情報を送信し、前記判断手段によって対応する付加情報がないと判断された場合には、前記送信手段は前記受信装置にエラーメッセージを送信することを特徴とする請求項4に記載のシステム。
The second storage means is searched based on the image identification information received by the reception means to thereby determine whether there is corresponding additional information or not.
When it is determined that the corresponding additional information is present by the determination unit, the transmission unit transmits the corresponding additional information to the reception device, and it is determined that the corresponding additional information is not present by the determination unit 5. A system according to claim 4, wherein the sending means sends an error message to the receiving device.
前記画像処理は、画像編集、画像加工、又は画像補正であることを特徴とする請求項1乃至5のいずれか一項に記載のシステム。   The system according to any one of claims 1 to 5, wherein the image processing is image editing, image processing, or image correction. 前記画像データは、メルカトル画像のデータであることを特徴とする請求項1乃至6のいずれか一項に記載のシステム。   The system according to any one of claims 1 to 6, wherein the image data is data of a Mercator image. 請求項1乃至7のいずれか一項に記載のシステムと、
前記送信装置と、
有することを特徴とする画像共有システム。
A system according to any one of claims 1 to 7;
And the transmission equipment,
An image sharing system characterized by having:
画像処理に利用される付加情報が付加されている画像データを送信する送信装置と通信可能なシステムが実行する通信方法であって、
前記送信装置から前記画像データを受信する受信ステップと、
前記受信された画像データ、および当該画像データを識別するための画像識別情報を関連付けて第1の記憶手段に記憶する第1の記憶ステップと、
前記受信された画像データに付加されている前記付加情報、および前記画像識別情報を関連付けて第2の記憶手段に記憶する第2の記憶ステップと、
前記画像識別情報を、前記送信装置に対して送信する送信ステップと、
を実行することを特徴とする通信方法。
A communication method executed by a system capable of communicating with a transmitter that transmits image data to which additional information used for image processing is added,
A receiving step of receiving the image data from the transmitting device;
A first storage step of storing the received image data and image identification information for identifying the image data in association with each other in a first storage unit;
A second storage step of associating the additional information added to the received image data and the image identification information in a second storage unit;
Transmitting the image identification information to the transmitting device;
A communication method characterized by performing.
コンピュータに、請求項9に記載の通信方法を実行させることを特徴とするプログラム。   A program causing a computer to execute the communication method according to claim 9. 請求項4又は5に記載のシステムと、A system according to claim 4 or 5;
前記受信装置と、The receiving device;
を有することを特徴とする画像共有システム。An image sharing system characterized by having:
JP2017206094A 2017-10-25 2017-10-25 SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM Active JP6508288B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017206094A JP6508288B2 (en) 2017-10-25 2017-10-25 SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017206094A JP6508288B2 (en) 2017-10-25 2017-10-25 SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016104975A Division JP6233451B2 (en) 2016-05-26 2016-05-26 Image sharing system, communication method and program

Publications (2)

Publication Number Publication Date
JP2018014141A JP2018014141A (en) 2018-01-25
JP6508288B2 true JP6508288B2 (en) 2019-05-08

Family

ID=61020459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017206094A Active JP6508288B2 (en) 2017-10-25 2017-10-25 SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6508288B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075678A (en) * 2007-09-18 2009-04-09 Ricoh Co Ltd Image processor, image processing method, image processing program, and storage medium
JP4963105B2 (en) * 2007-11-22 2012-06-27 インターナショナル・ビジネス・マシーンズ・コーポレーション Method and apparatus for storing images
JP5004868B2 (en) * 2008-05-20 2012-08-22 キヤノン株式会社 Information processing apparatus, control method therefor, and program
JP2010140383A (en) * 2008-12-15 2010-06-24 Sony Corp Information processor and method, and program

Also Published As

Publication number Publication date
JP2018014141A (en) 2018-01-25

Similar Documents

Publication Publication Date Title
US11509825B2 (en) Image management system, image management method, and computer program product
JP5920057B2 (en) Transmission device, image sharing system, transmission method, and program
JP6186775B2 (en) Communication terminal, display method, and program
JP2014112302A (en) Prescribed area management system, communication method, and program
JP7420126B2 (en) System, management system, image management method, and program
US20180124310A1 (en) Image management system, image management method and recording medium
JP2021039468A (en) Imaging device, communication system, communication method, and program
JP6816465B2 (en) Image display systems, communication systems, image display methods, and programs
JP6304300B2 (en) Transmitting apparatus, communication method, program, and receiving apparatus
JP6011117B2 (en) Reception device, image sharing system, reception method, and program
JP6115113B2 (en) Predetermined area management system, predetermined area management method, and program
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
JP2018026642A (en) Image management system, image communication system, image management method, and program
JP5942637B2 (en) Additional information management system, image sharing system, additional information management method, and program
JP6586819B2 (en) Image management system, image communication system, image management method, and program
JP6508288B2 (en) SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM
JP6233451B2 (en) Image sharing system, communication method and program
JP6665440B2 (en) Image management system, image management method, image communication system, and program
JP2016194782A (en) Image management system, communication terminal, communication system, image management method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R151 Written notification of patent or utility model registration

Ref document number: 6508288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151