JP6233451B2 - Image sharing system, communication method and program - Google Patents

Image sharing system, communication method and program Download PDF

Info

Publication number
JP6233451B2
JP6233451B2 JP2016104975A JP2016104975A JP6233451B2 JP 6233451 B2 JP6233451 B2 JP 6233451B2 JP 2016104975 A JP2016104975 A JP 2016104975A JP 2016104975 A JP2016104975 A JP 2016104975A JP 6233451 B2 JP6233451 B2 JP 6233451B2
Authority
JP
Japan
Prior art keywords
image
additional information
management system
display device
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016104975A
Other languages
Japanese (ja)
Other versions
JP2016194930A (en
Inventor
伊藤 洋一
洋一 伊藤
祥明 入野
祥明 入野
田中 智憲
智憲 田中
今江 望
望 今江
竹中 博一
博一 竹中
山本 英明
英明 山本
憲介 増田
憲介 増田
聡 澤口
聡 澤口
大介 別所
大介 別所
佐藤 裕之
裕之 佐藤
誠 庄原
誠 庄原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016104975A priority Critical patent/JP6233451B2/en
Publication of JP2016194930A publication Critical patent/JP2016194930A/en
Application granted granted Critical
Publication of JP6233451B2 publication Critical patent/JP6233451B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像管理システムが管理しない付加情報を管理する発明に関する。   The present invention relates to an invention for managing additional information that is not managed by an image management system.

近年、デジタルカメラ等で撮影された画像が、あるユーザによってインターネット上の画像管理サーバにアップロードされる一方で、他のユーザが上記画像を画像管理サーバからダウンロードすることにより、複数のユーザが同じ画像を共有するシステムが提供されている(特許文献1参照)。   In recent years, an image taken by a digital camera or the like is uploaded by a user to an image management server on the Internet, while another user downloads the image from the image management server, so that a plurality of users can share the same image. Has been provided (see Patent Document 1).

また、近年、Facebook等のSNS(Social Networking Service)が急速に普及している。このSNSにより、ユーザは自分のコメントを公開する一方で、他のユーザのコメントを閲覧することができるだけでなく、ユーザ間で画像データを共有することもできる。   In recent years, SNS (Social Networking Service) such as Facebook has rapidly spread. With this SNS, while users can publish their comments, they can not only view other users' comments but also share image data among users.

ところで、デジタルカメラの画像ファイルフォーマットであるExif(Exchangeable image file format)は、画像データをJPEG(Joint Photographic Experts Group)ファイルとして保存した場合、Exifに沿ったメタデータが自動的に作成されるのが一般的である。代表的なメタデータには、撮影日時、シャッタースピード、絞り、GPS情報(例えば、経度、緯度、標高、方位)、撮像装置の地面に対する傾き角度(例えば、ロール(Roll)方向、ピッチ(Pitch)方向、ヨー(Yaw)方向の回転角)等が含まれている。例えば、ユーザがデジタルカメラを傾けて被写体を撮影した場合であっても、傾きを示すメタデータを利用して画像データを補正することで、ユーザは傾きが補正された画像を閲覧することができる。   By the way, Exif (Exchangeable image file format), which is an image file format of digital cameras, automatically creates metadata along Exif when image data is saved as a JPEG (Joint Photographic Experts Group) file. It is common. Typical metadata includes shooting date / time, shutter speed, aperture, GPS information (eg longitude, latitude, altitude, direction), tilt angle of the imaging device with respect to the ground (eg roll direction, pitch) Direction, yaw direction rotation angle) and the like. For example, even when a user shoots a subject by tilting a digital camera, the user can view an image with the tilt corrected by correcting the image data using metadata indicating the tilt. .

しかしながら、画像データのアップロードを行う表示装置からFacebookを含め多くのSNSの画像管理サーバへ画像データをアップロードした場合、画像データをダウンロードする表示装置において、画像管理サーバからダウンロードした画像データを補正する等の画像処理を行うことができないという課題が生じている。   However, when image data is uploaded from a display device that uploads image data to many image management servers of SNS including Facebook, the image data downloaded from the image management server is corrected in the display device that downloads image data, etc. There is a problem that the image processing cannot be performed.

請求項1に係る発明は、表示装置と、画像データの画像処理に利用される付加情報を記憶する付加情報管理システムと、を備え、前記画像データ及び該画像データを識別するための画像識別情報を関連付けて記憶する画像管理システムと通信を行う画像共有システムであって、前記表示装置は、前記付加情報管理システムに対して、前記付加情報が付加された画像データを送信する第1送信手段と、前記送信された画像データに対して、前記画像管理システムによって割り当てられた前記画像識別情報を、前記付加情報管理システムから受信する第1受信手段と、備え、前記付加情報管理システムは画像データ及び該画像データに付加された付加情報を前記表示装置から受信する第2受信手段と、前記受信された画像データに対して、前記画像管理システムによって割り当てられた前記画像識別情報を、前記表示装置へ送信する第2送信手段と、を備えたことを特徴とする画像共有システム。 The invention according to claim 1 is provided with a display device and an additional information management system for storing additional information used for image processing of image data, and the image identification information for identifying the image data and the image data An image sharing system that communicates with an image management system that stores the information in association with each other, wherein the display device transmits, to the additional information management system, image data with the additional information added thereto, the for the transmitted image data, the image identification information allocated by the image management system, a first receiving means for receiving from said additional information management system, wherein the additional information management system, the image data And second receiving means for receiving additional information added to the image data from the display device, and for the received image data, Image sharing system, characterized in that the image identification information allocated by the image management systems, and a second transmission means for transmitting to said display device.

以上説明したように本発明によれば、画像共有システムは、表示装置から画像データに付加されている付加情報を画像識別情報と共に画像管理システムとは異なる付加情報管理システムに送信することで、付加情報管理システムに付加情報を管理させることができる。また、画像共有システムは、表示装置が画像管理システムから画像データをダウンロードする際に、対応する画像識別情報に基づいて付加情報管理システムから付加情報をダウンロードすることができるため、表示装置において画像データを補正する等の画像処理を行うことができる。   As described above, according to the present invention, the image sharing system adds the additional information added to the image data from the display device to the additional information management system different from the image management system together with the image identification information. Additional information can be managed by the information management system. The image sharing system can download additional information from the additional information management system based on the corresponding image identification information when the display device downloads image data from the image management system. It is possible to perform image processing such as correction.

本発明の実施形態に係る画像共有システムの概略図である。1 is a schematic diagram of an image sharing system according to an embodiment of the present invention. (a)は撮影装置の左側面図であり、(b)は撮影装置の正面図であり、(c)は撮影装置の平面図である。(A) is a left side view of the photographing apparatus, (b) is a front view of the photographing apparatus, and (c) is a plan view of the photographing apparatus. 撮影装置の使用状況を示したイメージ図である。It is the image figure which showed the use condition of an imaging device. (a)は撮影装置で撮影された半球画像(前)、(b)は撮影装置で撮影された半球画像(後)、(c)はメルカトル図法により表された画像を示した図である。(A) is the hemispherical image (front) image | photographed with the imaging device, (b) is the hemispherical image (back) image | photographed with the imaging device, (c) is the figure which showed the image represented by the Mercator projection. (a)はメルカトル図法により表された画像と共有選択用画像の部分を示した図、(b)は共有選択用画像を示した図である。(A) is the figure which showed the part of the image represented by Mercator projection, and the image for share selection, (b) is the figure which showed the image for share selection. 共有選択用画像を示した撮影画像選択リストの図である。It is a figure of the picked-up image selection list | wrist which showed the image for a share selection. 全天球パノラマ画像を示した図である。It is the figure which showed the omnidirectional panoramic image. 全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is the figure which showed the position of the virtual camera and predetermined | prescribed area | region at the time of making an omnidirectional panoramic image into a three-dimensional solid sphere. (a)は図7の立体斜視図、(b)はディスプレイに所定領域の画像が表示された表示装置を示す図である。(A) is the three-dimensional perspective view of FIG. 7, (b) is a figure which shows the display apparatus with which the image of the predetermined area | region was displayed on the display. (a)は、各注目点が示された所定領域画像を示した図であり、(b)は、任意の注目点及び周辺の所定領域画像を示した図である。(a)、(b)は、所定領域画像を示した図である。(A) is the figure which showed the predetermined area image in which each attention point was shown, (b) is the figure which showed the arbitrary area of interest and the surrounding predetermined area image. (A), (b) is the figure which showed the predetermined area | region image. 撮影装置のハードウェア構成図である。It is a hardware block diagram of an imaging device. 表示装置のハードウェア構成図である。It is a hardware block diagram of a display apparatus. 付加情報管理システム及び画像管理システムのハードウェア構成図である。It is a hardware block diagram of an additional information management system and an image management system. デジタルスチルカメラ用画像ファイルフォーマット規格における圧縮データファイルの構造を示した図である。It is the figure which showed the structure of the compression data file in the image file format specification for digital still cameras. 実施形態に係る表示装置、付加情報管理システム、及び画像管理システムの機能ブロック図である。It is a functional block diagram of a display device, an additional information management system, and an image management system according to the embodiment. 付加情報管理テーブルを示す概念図である。It is a conceptual diagram which shows an additional information management table. 画像管理テーブルを示す概念図である。It is a conceptual diagram which shows an image management table. 撮影画像のアップロードの処理を示したシーケンス図である。FIG. 6 is a sequence diagram illustrating processing for uploading a captured image. 画像オブジェクトを示した図である。It is the figure which showed the image object. 撮影画像のダウンロードの処理を示したシーケンス図である。FIG. 10 is a sequence diagram illustrating processing for downloading a captured image. 付加情報の検索処理を示したフローチャートである。It is the flowchart which showed the search process of additional information. 画像補正しない場合の撮影画像を2Dで示した図である。It is the figure which showed the picked-up image when not correcting an image by 2D. 画像補正しない場合の撮影画像を3Dで示した図である。It is the figure which showed the picked-up image when not correcting an image by 3D. 撮影画像のダウンロードができなかった場合の処理を示したシーケンス図である。FIG. 6 is a sequence diagram illustrating processing when a captured image cannot be downloaded.

以下、図1乃至図24を用いて、本発明の実施形態について説明する。   The embodiment of the present invention will be described below with reference to FIGS.

<<実施形態の概略>>
まずは、図1乃至図10を用いて、本実施形態の概略を説明する。なお、図1は、本実施形態に係る画像共有システムの概略図である。
<< Summary of Embodiment >>
First, the outline of the present embodiment will be described with reference to FIGS. FIG. 1 is a schematic diagram of an image sharing system according to the present embodiment.

図1に示されているように、本実施形態の画像共有システムは、撮影装置1、複数の表示装置(3a,3b)、付加情報管理システム5、及び画像管理システム7によって構築されている。また、各表示装置(3a,3b)は、それぞれユーザ(A,B)によって利用される。また、本実施形態では、撮影装置1は、ユーザAによって操作される場合を示している。なお、以下では、複数の表示装置(3a,3b)のうち、任意の表示装置を「表示装置3」として表す。   As shown in FIG. 1, the image sharing system of the present embodiment is constructed by a photographing device 1, a plurality of display devices (3 a, 3 b), an additional information management system 5, and an image management system 7. Each display device (3a, 3b) is used by a user (A, B), respectively. Further, in the present embodiment, the case where the photographing apparatus 1 is operated by the user A is shown. In the following, an arbitrary display device among the plurality of display devices (3a, 3b) is represented as “display device 3”.

また、撮影装置1は、全天球パノラマ画像を得るためのデジタルカメラである。表示装置3は、スマートフォン、タブレット端末、ノート型パソコン、デスクトップ型パソコン、又はPDA(Personal Data Assistance)等のコンピュータである。更に、付加情報管理システム5及び画像管理システム7は、それぞれ単一又は複数のサーバコンピュータである。   The photographing apparatus 1 is a digital camera for obtaining an omnidirectional panoramic image. The display device 3 is a computer such as a smartphone, a tablet terminal, a notebook computer, a desktop computer, or a PDA (Personal Data Assistance). Furthermore, the additional information management system 5 and the image management system 7 are each a single or a plurality of server computers.

また、撮影装置1は、表示装置3とNFC(Near Field Communication)規格による短距離無線技術によって通信することができる。更に、表示装置3は、通信ネットワーク9を介して、付加情報管理システム5及び画像管理システム7と通信することができる。この通信ネットワーク9は、3G(3rd Generation)、又はWiMAX(Worldwide Interoperability for Microwave Access)等の移動通信システムによる無線通信網及び各基地局(9a,9b,9c)、並びにインターネットによって構築される。なお、撮影装置1と表示装置3との間、及び表示装置3と通信ネットワーク9との間は、それぞれ有線による通信を行ってもよい。   In addition, the photographing device 1 can communicate with the display device 3 by a short-range wireless technology based on NFC (Near Field Communication) standard. Further, the display device 3 can communicate with the additional information management system 5 and the image management system 7 via the communication network 9. The communication network 9 is constructed by a wireless communication network using mobile communication systems such as 3G (3rd Generation) or WiMAX (Worldwide Interoperability for Microwave Access), base stations (9a, 9b, 9c), and the Internet. Note that wired communication may be performed between the imaging device 1 and the display device 3 and between the display device 3 and the communication network 9.

次に、図2を用いて、撮影装置1の外観を説明する。なお、図2(a)は撮影装置の左側面図であり、図2(b)は撮影装置の正面図であり、図2(c)は撮影装置の平面図である。   Next, the external appearance of the imaging device 1 will be described with reference to FIG. 2A is a left side view of the photographing apparatus, FIG. 2B is a front view of the photographing apparatus, and FIG. 2C is a plan view of the photographing apparatus.

図2(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図2(a),(b),(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。また、図2(b)に示されているように、撮影装置1の正面側には、シャッターボタン等の操作部115が設けられている。   As shown in FIG. 2A, the photographing apparatus 1 has a size that a human can hold with one hand. Further, as shown in FIGS. 2A, 2B, and 2C, at the upper part of the photographing apparatus 1, an image sensor 103a is provided on the front side (front side) and an image sensor is provided on the back side (rear side). 103b is provided. Further, as shown in FIG. 2B, an operation unit 115 such as a shutter button is provided on the front side of the photographing apparatus 1.

次に、図3を用いて、撮影装置1の使用状況を説明する。なお、図3は、撮影装置の使用状況を示したイメージ図である。撮影装置1は、図3に示されているように、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図2に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。   Next, the usage situation of the imaging device 1 will be described with reference to FIG. FIG. 3 is an image diagram showing a usage state of the photographing apparatus. As shown in FIG. 3, the photographing device 1 is used for photographing a subject around the user with the hand held by the user. In this case, two hemispherical images can be obtained by imaging the subject around the user by the imaging device 103a and the imaging device 103b shown in FIG.

次に、図4を用いて、撮影装置1で撮影された画像及び合成された画像を説明する。なお、図4(a)は撮影装置で撮影された半球画像(前側)、図4(b)は撮影装置で撮影された半球画像(後側)、図4(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。   Next, an image photographed by the photographing apparatus 1 and a synthesized image will be described with reference to FIG. 4A is a hemispheric image (front side) photographed by the photographing apparatus, FIG. 4B is a hemispheric image photographed by the photographing apparatus (rear side), and FIG. 4C is represented by Mercator projection. FIG. 6 is a diagram showing an image (hereinafter referred to as “Mercatl image”).

図4(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図4(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。   As shown in FIG. 4A, the image obtained by the image sensor 103a is a hemispherical image (front side) curved by a fish-eye lens 102a described later. Also, as shown in FIG. 4B, the image obtained by the image sensor 103b is a hemispherical image (rear side) curved by a fish-eye lens 102b described later. Then, the hemispherical image (front side) and the hemispherical image inverted by 180 degrees (rear side) are combined by the photographing apparatus 1 to create a Mercator image as shown in FIG.

次に、図5及び図6を用いて、メルカトル画像と、この画像の選択に用いられる共有選択用画像との関係を説明する。なお、図5(a)はメルカトル画像と共有選択用画像の部分を示した図、図5(b)は共有選択用画像を示した図である。また、図6は、共有選択用画像を示した撮影画像選択リストの図である。   Next, the relationship between the Mercator image and the shared selection image used for selecting the image will be described with reference to FIGS. 5 and 6. FIG. 5A is a diagram showing a portion of a Mercator image and a share selection image, and FIG. 5B is a diagram showing a share selection image. FIG. 6 is a view of a photographed image selection list showing the image for sharing selection.

図5(a)のメルカトル画像上の破線で示された部分が利用されることで、図5(b)の共有選択用画像が作成される。この共有選択用画像は、図1に示されている撮影装置1から表示装置3aに送信される。そして、表示装置3aのディスプレイ315上には、図6に示されているように、各共有選択用画像CEが示された共有画像選択リストSLが表示される。例えば、共有選択用画像CEとして商業地域のビルが表示され、撮影日時(2011年9月20日 11時21分)、撮影画像の画像データサイズ(13.1MB)、及び、注目点が設定された数(0個)が表示される。   By using the portion indicated by the broken line on the Mercator image in FIG. 5A, the shared selection image in FIG. 5B is created. This share selection image is transmitted from the photographing apparatus 1 shown in FIG. 1 to the display apparatus 3a. Then, on the display 315 of the display device 3a, as shown in FIG. 6, a shared image selection list SL showing each share selection image CE is displayed. For example, a building in the commercial area is displayed as the share selection image CE, and the shooting date and time (September 20, 2011, 11:21), the image data size of the shot image (13.1 MB), and the attention point are set. The number (0) is displayed.

次に、ユーザAが所望の共有選択用画像CEを選択すると、表示装置3aが撮影装置1から、上述の選択された共有選択用画像CEに係る撮影画像(メルカトル画像)を取得する。   Next, when the user A selects a desired share selection image CE, the display device 3a acquires a photographed image (Merkattle image) related to the selected share selection image CE from the photographing device 1.

この取得された撮影画像は、上記表示装置3aでは、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(c)に示されているメルカトル画像から、図7に示されている全天球パノラマ画像が作成される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。また、図7は、全天球パノラマ画像を示した図である。全天球パノラマ画像は、静止画であっても動画であってもよい。   The acquired photographed image is shown in FIG. 7 from the Mercator image shown in FIG. 4C by using OpenGL ES (Open Graphics Library for Embedded Systems) in the display device 3a. A panoramic image is created. OpenGL ES is a graphics library used for visualizing 2D (2-Dimensions) and 3D (3-Dimensions) data. FIG. 7 is a diagram showing an omnidirectional panoramic image. The omnidirectional panoramic image may be a still image or a moving image.

次に、図8及び図9を用いて、全天球パノラマ画像における所定領域の画像(以下、「所定領域画像」という)の作成及び表示の処理について説明する。なお、図8は、全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。また、図9(a)は図8の立体斜視図、図9(b)はディスプレイに所定領域画像が表示された表示装置を示す図である。   Next, processing for creating and displaying an image of a predetermined area (hereinafter referred to as “predetermined area image”) in the omnidirectional panoramic image will be described with reference to FIGS. 8 and 9. FIG. 8 is a diagram illustrating the positions of the virtual camera and the predetermined area when the panoramic image is a three-dimensional solid sphere. 9A is a three-dimensional perspective view of FIG. 8, and FIG. 9B is a diagram showing a display device in which a predetermined area image is displayed on the display.

図7に示されている全天球パノラマ画像を3次元の立体球CSであるとすると、図8に示されているように、仮想カメラICが全天球パノラマ画像の中心に位置し、この中心から上下左右の回転と、この中心からの視点での回転(傾き)の3軸の回転ができる。この全天球パノラマ画像における所定領域Tは、この全天球パノラマ画像における仮想カメラICの位置座標(x,y)及び画角によって特定される。これにより、所定領域Tのズームは、画角の範囲(円弧)を広げたり縮めたりすることで表現することができる。   If the omnidirectional panoramic image shown in FIG. 7 is a three-dimensional solid sphere CS, the virtual camera IC is located at the center of the omnidirectional panoramic image as shown in FIG. Three-axis rotation is possible: rotation from the center up and down, left and right, and rotation (tilt) from the viewpoint from this center. The predetermined area T in the omnidirectional panoramic image is specified by the position coordinates (x, y) and the angle of view of the virtual camera IC in the omnidirectional panoramic image. Thereby, the zoom of the predetermined area | region T can be expressed by expanding or contracting the range (arc) of a view angle.

そして、図9(a)で示されているように、全天球パノラマ画像における所定領域Tの画像は、図9(b)に示されているように、表示装置3aのディスプレイ315に、所定領域画像として表示される。この場合の所定領域画像は、全天球パノラマ画像の一部を示す部分画像Pである。なお、ディスプレイ315上には、所定領域画像を表示する所定領域画像表示領域3110、サムネイルを表示するサムネイル表示領域3120、所定領域画像に対するユーザのコメントを表示するコメント表示領域3130が表示されている。   Then, as shown in FIG. 9A, the image of the predetermined region T in the omnidirectional panoramic image is displayed on the display 315 of the display device 3a as shown in FIG. 9B. It is displayed as a region image. The predetermined area image in this case is a partial image P showing a part of the omnidirectional panoramic image. On the display 315, a predetermined area image display area 3110 for displaying a predetermined area image, a thumbnail display area 3120 for displaying a thumbnail, and a comment display area 3130 for displaying a user's comment on the predetermined area image are displayed.

更に、図4(c)に示される撮影画像は、送信装置としての表示装置3aから通信ネットワーク9を介して画像管理システム7へアップロードされる。そして、例えば、ユーザBが受信装置としての表示装置3bを利用し、通信ネットワーク9を介して画像管理システム7から上記撮影画像をダウンロードする。これにより、各ユーザは、撮影画像を共有することができる。   Furthermore, the captured image shown in FIG. 4C is uploaded to the image management system 7 via the communication network 9 from the display device 3a as a transmission device. Then, for example, the user B uses the display device 3 b as a receiving device to download the captured image from the image management system 7 via the communication network 9. Thereby, each user can share a captured image.

また、図10に示されているように、本実施形態の画像共有システムでは、撮影画像に各ユーザが注目している注目点を設定することができる。なお、図10(a)は、各注目点が示された所定領域画像を示した図であり、図10(b)は、任意の注目点及び周辺の所定領域画像を示した図である。   Also, as shown in FIG. 10, in the image sharing system of the present embodiment, it is possible to set a point of interest that each user is paying attention to the captured image. FIG. 10A is a diagram showing a predetermined area image in which each attention point is shown, and FIG. 10B is a diagram showing an arbitrary attention point and surrounding predetermined area images.

図10(a)に示されているように、表示装置3bのディスプレイ315上には、本実施形態の画像共有システムを利用する単一又は複数のユーザによって注目されて設定された複数の注目点(AP1,AP2,AP3,AP4)が表示される。更に、各注目点(AP1,AP2,AP3,AP4)を含んだ一定範囲の所定領域Tの画像は、それぞれディスプレイ315の下部に、サムネイル(T1,T2,T3,T4)の状態で表示される。そして、ユーザBが、例えば、サムネイルT1を選択すると、図10(b)に示されているように、サムネイルT1の元の画像である所定領域画像(ここでは、部分画像P1)が、ディスプレイ315に表示されることになる。   As shown in FIG. 10A, on the display 315 of the display device 3b, a plurality of attention points set by attention by a single or a plurality of users using the image sharing system of the present embodiment. (AP1, AP2, AP3, AP4) is displayed. Further, images of a predetermined area T within a certain range including each point of interest (AP1, AP2, AP3, AP4) are displayed in the state of thumbnails (T1, T2, T3, T4) at the bottom of the display 315, respectively. . When the user B selects the thumbnail T1, for example, as shown in FIG. 10B, a predetermined region image (here, the partial image P1) that is the original image of the thumbnail T1 is displayed on the display 315. Will be displayed.

また、図10(b)に示されている所定領域画像に対して、更に注目点を設定することも可能である。この場合、更に設定された注目点を含む所定領域画像の関するサムネイルが表示されることになる。   It is also possible to set a point of interest for the predetermined area image shown in FIG. In this case, a thumbnail related to the predetermined area image including the set attention point is displayed.

なお、上記では、送信装置として表示装置3a、受信装置として表示装置3bを説明したが、これに限るものではなく、受信装置として表示装置3a、送信装置として表示装置3bを用いてもよい。即ち、表示装置3aでも画像管理システム7から撮影画像をダウンロードすることもでき、図10に示されているような注目点の設定や、図10に示されているような画像をディスプレイ315に表示させることができる。   In the above description, the display device 3a and the display device 3b are described as the transmission device, but the present invention is not limited thereto, and the display device 3a may be used as the reception device and the display device 3b may be used as the transmission device. In other words, the display device 3a can also download a photographed image from the image management system 7, and the attention point setting as shown in FIG. 10 and the image as shown in FIG. Can be made.

<<実施形態のハードウェア構成>>
次に、図11乃至図13を用いて、本実施形態の撮影装置、表示装置、付加情報管理システム、及び画像管理システムのハードウェア構成を詳細に説明する。
<< Hardware Configuration of Embodiment >>
Next, the hardware configurations of the imaging apparatus, display apparatus, additional information management system, and image management system of this embodiment will be described in detail with reference to FIGS.

まず、図11を用いて、撮影装置1のハードウェア構成を説明する。なお、図11は、撮影装置のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全方位撮影装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。   First, the hardware configuration of the photographing apparatus 1 will be described with reference to FIG. FIG. 11 is a hardware configuration diagram of the photographing apparatus. In the following, the photographing apparatus 1 is an omnidirectional photographing apparatus using two imaging elements, but the number of imaging elements may be three or more. In addition, it is not always necessary to use an apparatus dedicated to omnidirectional imaging. By attaching a retrofit omnidirectional imaging unit to an ordinary digital camera, a smartphone, or the like, the apparatus may have substantially the same function as the imaging apparatus 1. .

図11に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。   As shown in FIG. 11, the imaging apparatus 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, and an SRAM (Static Random Access). Memory (RAM) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, and antenna 117a.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。   Among these, the imaging unit 101 includes wide-angle lenses (so-called fish-eye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging units provided corresponding to the wide-angle lenses. Elements 103a and 103b are provided. The image sensors 103a and 103b are image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor that convert an optical image obtained by a fisheye lens into image data of an electric signal and output the image data. A timing generation circuit for generating a vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス100には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。   The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I / F bus. On the other hand, the imaging elements 103 a and 103 b of the imaging unit 101 are connected to a serial I / F bus (I2C bus or the like) separately from the imaging control unit 105. The image processing unit 104 and the imaging control unit 105 are connected to the CPU 111 via the bus 110. Further, ROM 112, SRAM 113, DRAM 114, operation unit 115, network I / F 116, communication unit 117, and electronic compass 118 are connected to the bus 100.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図4(c)に示されているようなメルカトル画像のデータを作成する。   The image processing unit 104 takes in the image data output from the image sensors 103a and 103b through the parallel I / F bus, performs predetermined processing on the respective image data, and then combines these image data. Then, data of a Mercator image as shown in FIG.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。   In general, the imaging control unit 105 sets a command or the like in a register group of the imaging elements 103a and 103b using the I2C bus with the imaging control unit 105 as a master device and the imaging elements 103a and 103b as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to capture status data of the register groups of the imaging elements 103a and 103b and send it to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。   The imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some photographing apparatuses have a preview display function by a display and a function corresponding to a moving image display. In this case, output of image data from the image sensors 103a and 103b is continuously performed at a predetermined frame rate (frame / min).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置には表示部が設けられていないが、表示部を設けてもよい。   Further, as will be described later, the imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the photographing apparatus is not provided with a display unit, but a display unit may be provided.

CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。   The CPU 111 controls the overall operation of the photographing apparatus 1 and executes necessary processes. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data being processed by the image processing unit 104 and processed Mercator image data.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。   The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel that has both display and operation functions, and the like. The user inputs various shooting modes and shooting conditions by operating the operation buttons.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じて、ネットワークI/FとなるネットワークI/F116を介して、表示装置3等の外部装置に送信される。   The network I / F 116 is a general term for an interface circuit (USB I / F or the like) with an external medium such as an SD card or a personal computer. Further, the network I / F 116 may be a network interface regardless of wireless or wired. The data of the Mercator image stored in the DRAM 114 is recorded on an external medium via the network I / F 116 or, if necessary, via the network I / F 116 serving as the network I / F, the display device 3. To the external device.

通信部117は、撮影装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)やNFC等の短距離無線技術によって、表示装置3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを表示装置3の外部装置に送信することができる。   The communication unit 117 communicates with an external device such as the display device 3 through an antenna 117a provided in the photographing device 1 by a short-range wireless technology such as WiFi (wireless fidelity) or NFC. The communication unit 117 can also transmit Mercator image data to an external device of the display device 3.

電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿ったメタデータの一例であり、撮影画像の画像補正等の画像処理に利用される。なお、以下では、メタデータを含めた広い概念として「付加情報」を用いて説明を行う。   The electronic compass 118 calculates the azimuth and tilt (Roll rotation angle) of the photographing apparatus 1 from the earth's magnetism, and outputs azimuth / tilt information. This azimuth / tilt information is an example of metadata along Exif, and is used for image processing such as image correction of a captured image. In the following description, “additional information” is used as a broad concept including metadata.

次に、図12を用いて、表示装置3のハードウェア構成を説明する。なお、図12は、表示装置がスマートフォンの場合のハードウェア構成図である。   Next, the hardware configuration of the display device 3 will be described with reference to FIG. FIG. 12 is a hardware configuration diagram when the display device is a smartphone.

図12に示されているように、表示装置3は、表示装置3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種加速度・方位センサ306、フラッシュメモリ等の記録メディア307に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ308を備えている。そして、メディアドライブ308の制御に従って、既に記録されていたデータが読み出され、又は新たにデータが書き込まれて記憶する記録メディア307が着脱自在な構成となっている。   As shown in FIG. 12, the display device 3 includes a CPU 301 that controls the operation of the entire display device 3, a ROM 302 that stores basic input / output programs, and a RAM (Random Access Memory) 303 that is used as a work area for the CPU 301. , An EEPROM (Electrically Erasable and Programmable ROM) 304 that reads or writes data according to the control of the CPU 301, a CMOS sensor 305 as an image sensor that captures an image of the subject and obtains image data according to the control of the CPU 301, and an electronic magnetic compass that detects geomagnetism , A gyro compass, various acceleration / direction sensors 306 such as an acceleration sensor, and a media drive 308 that controls reading or writing (storage) of data with respect to a recording medium 307 such as a flash memory. In accordance with the control of the media drive 308, the recording medium 307 from which data that has already been recorded is read or to which data is newly written and stored is detachable.

なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。   The EEPROM 304 stores an operating system (OS) executed by the CPU 301, other programs, and various data. A CCD sensor may be used instead of the CMOS sensor 305.

更に、表示装置3は、音声を音声信号に変換する音声入力部311、音声信号を音声に変換する音声出力部312、アンテナ313a、このアンテナ313aを利用して無線通信信号により、最寄の基地局9a等と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって表示装置3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、被写体の画像や各種アイコン等を表示する液晶や有機ELなどのディスプレイ315、このディスプレイ315上に載せられ、感圧式又は静電式のパネルによって構成され、指やタッチペン等によるタッチによってディスプレイ315上におけるタッチ位置を検出するタッチパネル316、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。   Furthermore, the display device 3 includes a voice input unit 311 that converts voice into a voice signal, a voice output unit 312 that converts voice signals into voice, an antenna 313a, and a wireless communication signal that uses the antenna 313a to obtain the nearest base station. A GPS signal including position information (latitude, longitude, and altitude) of the display device 3 by a communication unit 313 that communicates with the station 9a, a GPS (Global Positioning Systems) satellite, or IMES (Indoor MEssaging System) as an indoor GPS. A GPS receiver 314 for receiving, a display 315 such as a liquid crystal display or an organic EL display for displaying an image of a subject, various icons, and the like, and a pressure-sensitive or electrostatic panel placed on the display 315 and configured by a finger, a touch pen, etc. A touch panel 316 for detecting a touch position on the display 315 by touching with the And it includes an address bus, a data bus, and the like of the bus line 310 for electrically connecting the respective units.

なお、音声入力部311は、音声を入力するマイクが含まれ、音声出力部312には、音声を出力するスピーカが含まれている。   Note that the voice input unit 311 includes a microphone that inputs voice, and the voice output unit 312 includes a speaker that outputs voice.

次に、図13を用いて、付加情報管理システム5、及び画像管理システム7のハードウェア構成を説明する。なお、図13は、付加情報管理システム5、及び画像管理システム7のハードウェア構成図である。付加情報管理システム5、及び画像管理システム7は、ともに一般のサーバコンピュータであるため、以下では、付加情報管理システム5の構成について説明し、画像管理システム7の構成の説明は省略する。   Next, the hardware configuration of the additional information management system 5 and the image management system 7 will be described with reference to FIG. FIG. 13 is a hardware configuration diagram of the additional information management system 5 and the image management system 7. Since both the additional information management system 5 and the image management system 7 are general server computers, the configuration of the additional information management system 5 will be described below, and the description of the configuration of the image management system 7 will be omitted.

付加情報管理システム5は、付加情報管理システム5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、付加情報管理システム5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を図13に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。   The additional information management system 5 includes a CPU 501 that controls the operation of the additional information management system 5 as a whole, a ROM 502 that stores programs used to drive the CPU 501 such as an IPL, a RAM 503 that is used as a work area for the CPU 501, and the additional information management system 5 HD 504 for storing various data such as programs for data, HDD (Hard Disk Drive) 505 for controlling the reading or writing of various data to the HD 504 according to the control of the CPU 501, data reading or writing to a recording medium 506 such as a flash memory ( Media drive 507 for controlling storage, a display 508 for displaying various information such as a cursor, menu, window, character, or image, and a network for data communication using the communication network 9 / F509, keyboard 511 having a plurality of keys for inputting characters, numerical values, various instructions, etc., mouse 512 for selecting and executing various instructions, selecting a processing target, moving the cursor, etc., removable recording medium As an example, a CD-ROM drive 514 that controls reading or writing of various data with respect to a CD-ROM (Compact Disc Read Only Memory) 513, and the above-described components are electrically connected as shown in FIG. A bus line 510 such as an address bus or a data bus for connection is provided.

なお、図14は、デジタルスチルカメラ用画像ファイルフォーマット規格における圧縮データファイルの構造を示した図である。撮影装置1によって得られた画像データは、図14に示されているように、圧縮データファイルの構造を有している。これは、2010年4月26日に制定された「デジタルカメラ用画像フォーマット規格 Exif 2.3」(http://www.cipa.jp/hyoujunka/kikaku/pdf/DC-008-2010_J.pdf)に示された圧縮データファイル構造である。このうち、APP1は、画像に対するメタデータの記録に利用されるアプリケーション・データ・セグメント1を示す。このAPP1には、デジタルカメラ等の機器メーカ毎に独自のメタデータ(Maker Note)を格納することができるEXIF IFDが構築されている。本実施形態では、付加情報として、画像の種類を示す画像種別情報と、電子コンパス118によって算出された方位・傾き情報とが示されている。また、画像種別情報は、例えば、全天球パノラマ画像である旨を示す識別コード、通常の平面画像である旨を示す識別コードである。   FIG. 14 is a diagram showing the structure of a compressed data file in the digital still camera image file format standard. The image data obtained by the photographing apparatus 1 has a compressed data file structure as shown in FIG. This is shown in “Exif 2.3, an image format standard for digital cameras” (http://www.cipa.jp/hyoujunka/kikaku/pdf/DC-008-2010_E.pdf) established on April 26, 2010. This is a compressed data file structure. Of these, APP1 indicates an application data segment 1 used for recording metadata for an image. In APP1, an EXIF IFD that can store unique metadata (Maker Note) for each device manufacturer such as a digital camera is constructed. In the present embodiment, image type information indicating the type of image and azimuth / tilt information calculated by the electronic compass 118 are shown as additional information. The image type information is, for example, an identification code indicating that the image is an omnidirectional panoramic image, or an identification code indicating that the image is a normal planar image.

<<実施形態の機能構成>>
次に、図15を用いて、本実施形態の機能構成について説明する。図15は、本実施形態の画像共有システムの一部を構成する表示装置3、付加情報管理システム5、及び画像管理システム7の各機能ブロック図である。図15では、表示装置3、付加情報管理システム5、及び画像管理システム7が、通信ネットワーク9を介してデータ通信することができる。
<< Functional Configuration of Embodiment >>
Next, the functional configuration of the present embodiment will be described with reference to FIG. FIG. 15 is a functional block diagram of the display device 3, the additional information management system 5, and the image management system 7 that constitute a part of the image sharing system of the present embodiment. In FIG. 15, the display device 3, the additional information management system 5, and the image management system 7 can perform data communication via the communication network 9.

<表示装置の機能構成>
図15に示されているように、表示装置3は、送受信部31、操作入力受付部32、作成部33、表示制御部34、画像処理部38、及び記憶・抽出部39を有している。これら各部は、図11に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された表示装置3用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of display device>
As shown in FIG. 15, the display device 3 includes a transmission / reception unit 31, an operation input reception unit 32, a creation unit 33, a display control unit 34, an image processing unit 38, and a storage / extraction unit 39. . Each of these units is a function realized by any one of the constituent elements shown in FIG. 11 being operated by a command from the CPU 111 according to a program for the display device 3 expanded from the SRAM 113 to the DRAM 114, or Means.

また、表示装置3は、図11に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部3000を有している。   In addition, the display device 3 includes a storage unit 3000 configured by the ROM 112, the SRAM 113, and the DRAM 114 illustrated in FIG.

(表示装置の各機能構成)
次に、図12及び図15を用いて、表示装置3の各機能構成について更に詳細に説明する。
(Functional configuration of display device)
Next, each functional configuration of the display device 3 will be described in more detail with reference to FIGS. 12 and 15.

表示装置3の送受信部31は、主に、図12に示されている通信部313及びCPU301の処理によって実現され、通信ネットワーク9を介して付加情報管理システム5、又は画像管理システム7と各種データ(または情報)の送受信を行う。   The transmission / reception unit 31 of the display device 3 is realized mainly by the processing of the communication unit 313 and the CPU 301 shown in FIG. 12, and the additional information management system 5 or the image management system 7 and various data via the communication network 9. (Or information) is sent and received.

操作入力受付部32は、主にタッチパネル316及びCPU301による処理によって実現され、ユーザから各種の選択又は入力を受け付ける。   The operation input receiving unit 32 is realized mainly by the processing by the touch panel 316 and the CPU 301, and receives various selections or inputs from the user.

作成部33は、主にCPU301の処理によって実現され、操作入力受付部32で受け付けたユーザの指定又は選択に基づいて、全天球パノラマ画像から、図9に示されているように、所定領域画像を作成する。また、作成部33は、所定領域画像に基づいて、図10に示されているサムネイルを作成する。   The creation unit 33 is realized mainly by the processing of the CPU 301, and based on the user's designation or selection received by the operation input reception unit 32, as shown in FIG. Create an image. Further, the creation unit 33 creates the thumbnail shown in FIG. 10 based on the predetermined area image.

表示制御部34は、主にCPU301の処理によって実現され、ディスプレイ315に各種画像や文字等を表示させるための制御を行う。表示制御部34は、例えば、画像処理部38によって画像処理された画像データを表示装置3のディスプレイ315上に表示させる。また、表示制御部34は、操作入力受付部32によって選択されたサムネイルに関する所定領域画像を、ディスプレイ315に表示させる。   The display control unit 34 is realized mainly by the processing of the CPU 301 and performs control for displaying various images, characters, and the like on the display 315. For example, the display control unit 34 causes the image data processed by the image processing unit 38 to be displayed on the display 315 of the display device 3. Further, the display control unit 34 causes the display 315 to display a predetermined area image related to the thumbnail selected by the operation input receiving unit 32.

画像処理部38は、付加情報を利用して画像データを画像処理する。この画像処理は、画像編集、画像加工、又は画像補正(修正)である。画像処理部38は、画像編集として、吹き出し追加、テキスト追加、トリミング、又はリサイズ等を行う。また、画像処理部38は、画像加工として、画像の切り抜き、シャープ加工、エンボス加工、又はぼかし加工等を行う。更に、画像処理部38は、画像補正として、赤目補正、明るさ調整、コントラスト調整、方位補正、又は傾き補正等を行う。   The image processing unit 38 performs image processing on the image data using the additional information. This image processing is image editing, image processing, or image correction (correction). The image processing unit 38 performs speech balloon addition, text addition, trimming, resizing, and the like as image editing. The image processing unit 38 performs image cropping, sharpening, embossing, blurring, or the like as image processing. Further, the image processing unit 38 performs red-eye correction, brightness adjustment, contrast adjustment, azimuth correction, inclination correction, and the like as image correction.

記憶・抽出部39は、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を抽出する。記憶・抽出部39は、例えば、撮影画像、共有選択用画像、又は所定領域画像の各データを、記憶部3000に対して記録したり、記憶部3000から抽出する。   The storage / extraction unit 39 stores various data (or information) in the storage unit 3000 and extracts various data (or information) from the storage unit 3000. The storage / extraction unit 39 records, for example, each data of a captured image, a shared selection image, or a predetermined area image in the storage unit 3000 or extracts from the storage unit 3000.

<付加情報管理システムの機能構成>
次に、図15を用いて、付加情報管理システム5の各機能構成について詳細に説明する。付加情報管理システム5は、送受信部51、判断部52、取得部55、及び記憶・抽出部59を有している。これら各部は、図13に示されている各構成要素のいずれかが、HD504からRAM503上に展開された付加情報管理システム5用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of additional information management system>
Next, each functional configuration of the additional information management system 5 will be described in detail with reference to FIG. The additional information management system 5 includes a transmission / reception unit 51, a determination unit 52, an acquisition unit 55, and a storage / extraction unit 59. Each of these components is realized by any one of the constituent elements shown in FIG. 13 operating according to a command from the CPU 501 according to the program for the additional information management system 5 expanded from the HD 504 onto the RAM 503. It is a function or means.

また、付加情報管理システム5は、図13に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、後述の付加情報管理テーブルによって構成されている付加情報管理DB5001が構築されている。   Further, the additional information management system 5 includes a storage unit 5000 constructed by the RAM 503 and the HD 504 shown in FIG. In the storage unit 5000, an additional information management DB 5001 configured by an additional information management table described later is constructed.

(付加情報管理テーブル)
図16は、付加情報管理テーブルを示す概念図である。この付加情報管理テーブルでは、ユーザを識別するためのユーザ識別情報、画像データを識別するための画像識別情報、及び上述の付加情報が関連付けて記憶され管理されている。
(Additional information management table)
FIG. 16 is a conceptual diagram showing an additional information management table. In this additional information management table, user identification information for identifying a user, image identification information for identifying image data, and the above-described additional information are stored and managed in association with each other.

なお、図16では、ユーザ識別情報の一例としてユーザID(Identification)が示されているが、ユーザを特定できればユーザIDである必要はない。例えば、ユーザ識別情報には、ユーザ名、従業員番号、学籍番号、国民総背番号制に基づく国民番号等も含まれる。また、図16では、画像識別情報の一例として画像IDが示されているが、画像データを特定できれば画像IDである必要はない。例えば、画像識別情報には、画像データのファイル名等も含まれる。   In FIG. 16, a user ID (Identification) is shown as an example of the user identification information. However, if the user can be specified, the user ID is not necessary. For example, the user identification information includes a user name, an employee number, a student ID number, a national number based on a national gross number system, and the like. In FIG. 16, an image ID is shown as an example of the image identification information. However, if the image data can be specified, it is not necessary to be an image ID. For example, the image identification information includes the file name of the image data.

(付加情報管理システムの各機能構成)
次に、図13及び図15を用いて、付加情報管理システム5の各機能構成について詳細に説明する。
(Functional configuration of additional information management system)
Next, each functional configuration of the additional information management system 5 will be described in detail with reference to FIGS. 13 and 15.

付加情報管理システム5の送受信部51は、主に、図13に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して表示装置3、又は画像管理システム7と各種データ(または情報)の送受信を行う。   The transmission / reception unit 51 of the additional information management system 5 is realized mainly by the processing of the network I / F 509 and the CPU 501 shown in FIG. 13, and is connected to the display device 3 or the image management system 7 via the communication network 9. Send and receive data (or information).

判断部52は、主に、図13に示されているCPU501によって実現され、表示装置3から送信されてきた画像識別情報に対応する付加情報が、付加情報管理テーブルに記憶されているか否かを判断する。   The determination unit 52 is realized mainly by the CPU 501 shown in FIG. 13 and determines whether or not additional information corresponding to the image identification information transmitted from the display device 3 is stored in the additional information management table. to decide.

取得部55は、送受信部51によって受信された後に記憶部5000に記憶されている画像データから、この画像データに付加されている付加情報を取得する。なお、この取得によって、元の画像データに付加情報が付加されたままの状態であってもよく、又は元の画像データに付加情報が付加されていない状態(分離された状態)であってもよい。   The acquisition unit 55 acquires additional information added to the image data from the image data stored in the storage unit 5000 after being received by the transmission / reception unit 51. Note that, by this acquisition, the additional image information may remain added to the original image data, or the additional image information may not be added to the original image data (separated state). Good.

記憶・抽出部59は、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を抽出する。   The storage / extraction unit 59 stores various data (or information) in the storage unit 5000 and extracts various data (or information) from the storage unit 5000.

<画像管理システムの機能構成>
次に、図13及び図15を用いて、画像管理システム7の機能構成について詳細に説明する。画像管理システム7は、送受信部71、作成部72、及び、記憶・抽出部79を有している。これら各部は、図13に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理システム7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of image management system>
Next, the functional configuration of the image management system 7 will be described in detail with reference to FIGS. 13 and 15. The image management system 7 includes a transmission / reception unit 71, a creation unit 72, and a storage / extraction unit 79. Each of these units is a function realized by any one of the constituent elements shown in FIG. 13 operating according to a command from the CPU 501 according to the program for the image management system 7 developed from the HD 504 onto the RAM 503. Or means.

また、画像管理システム7は、図13に示されているRAM503、及びHD504によって構築される記憶部7000を有している。この記憶部7000には、後述の画像管理テーブルによって構成されている画像管理DB7001が構築される。   Further, the image management system 7 has a storage unit 7000 constructed by the RAM 503 and the HD 504 shown in FIG. In the storage unit 7000, an image management DB 7001 configured by an image management table described later is constructed.

(画像管理テーブル)
図17は、画像管理テーブルを示す概念図である。この画像管理テーブルでは、画像オブジェクトのデータが管理されている。この画像オブジェクトは、ユーザを識別するためのユーザ識別情報、画像を識別するための画像識別情報、この画像識別情報に係る画像データの記憶部7000における格納場所であるURL(Uniform Resource Locator)を示すURL情報、及び属性情報が関連付けて管理されている。
(Image management table)
FIG. 17 is a conceptual diagram showing an image management table. In this image management table, image object data is managed. This image object indicates user identification information for identifying a user, image identification information for identifying an image, and a URL (Uniform Resource Locator) that is a storage location in the storage unit 7000 of image data related to the image identification information. URL information and attribute information are managed in association with each other.

なお、画像オブジェクトのユーザ識別情報及び画像識別情報は、図16に示されているユーザ識別情報及び画像識別情報と同じである。一方で、属性情報は、図16に示されている付加情報とは異なる。即ち、属性情報は、後述の作成部72が画像データに基づいて作成した画像データの本来的な情報(画像ファイル名、画像の縦横画素数を示す情報等)であり、付加情報のように画像データの画像処理には利用されない。   Note that the user identification information and the image identification information of the image object are the same as the user identification information and the image identification information shown in FIG. On the other hand, the attribute information is different from the additional information shown in FIG. That is, the attribute information is original information (image file name, information indicating the number of vertical and horizontal pixels of the image, etc.) of the image data created by the creation unit 72 described later based on the image data, It is not used for image processing of data.

(画像管理システムの各機能構成)
次に、図15を用いて、画像管理システム7の各機能構成について詳細に説明する。
(Each functional configuration of the image management system)
Next, each functional configuration of the image management system 7 will be described in detail with reference to FIG.

画像管理システム7の送受信部71は、主に、図13に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して表示装置3、又は付加情報管理システム5と各種データ(または情報)の送受信を行う。   The transmission / reception unit 71 of the image management system 7 is realized mainly by the processing of the network I / F 509 and the CPU 501 shown in FIG. 13, and various kinds of information are displayed with the display device 3 or the additional information management system 5 via the communication network 9. Send and receive data (or information).

作成部72は、表示装置3から送られて来た画像データを画像管理システム7で管理するために、画像データに対して画像識別情報を割り当て、この画像データのヘッダ部分に画像識別情報を付与する。また、作成部72は、画像オブジェクトを作成する。   The creation unit 72 assigns image identification information to the image data in order to manage the image data sent from the display device 3 by the image management system 7, and assigns the image identification information to the header portion of the image data. To do. The creation unit 72 creates an image object.

記憶・抽出部79は、記憶部7000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を抽出する。   The storage / extraction unit 79 stores various data (or information) in the storage unit 7000 and extracts various data (or information) from the storage unit 5000.

<<実施形態の処理または動作>>
次に、図18及び図19を用いて、ユーザAが表示装置3aを用いて、画像データをアップロードする処理を説明する。図18は、撮影画像のアップロードの処理を示したシーケンス図である。図19は、画像オブジェクトを示した図である。
<< Processing or Operation of Embodiment >>
Next, a process in which the user A uploads image data using the display device 3a will be described with reference to FIGS. FIG. 18 is a sequence diagram illustrating processing for uploading a captured image. FIG. 19 shows an image object.

なお、表示装置3a、付加情報管理システム5、および画像管理システム7間の通信ネットワーク9を介する通信プロトコルは、ハイパーテキスト通信プロトコル(HTTP)によるHTTP通信である。表示装置3aはHTTPクライアントに相当し、付加情報管理システム5及び画像管理システム7はHTTPサーバに相当する。   Note that the communication protocol via the communication network 9 between the display device 3a, the additional information management system 5, and the image management system 7 is HTTP communication based on the hypertext communication protocol (HTTP). The display device 3a corresponds to an HTTP client, and the additional information management system 5 and the image management system 7 correspond to an HTTP server.

以下特に断りがない限り、各シーケン図における表示装置3aから付加情報管理システム5及び画像管理システム7への矢印はHTTPリクエストに相当し、付加情報管理システム5及び画像管理システム7から表示装置3aへの矢印はHTTPレスポンスに相当する。   Unless otherwise specified, the arrows from the display device 3a to the additional information management system 5 and the image management system 7 in each sequence diagram correspond to HTTP requests, and from the additional information management system 5 and the image management system 7 to the display device 3a. The arrow corresponds to an HTTP response.

まず、ユーザAは、付加情報が付加されている画像データを撮影装置1から表示装置3aの記憶部3000に取り込んでおく。   First, the user A captures the image data to which the additional information is added from the photographing device 1 into the storage unit 3000 of the display device 3a.

次に、ユーザAがアップロードする画像データを選択することにより、表示装置3aの操作入力受付部32は、アップロードされる画像データの選択を受け付ける(ステップS1)。そして、表示装置3aの送受信部31は、通信ネットワーク9を介して付加情報管理システム5へ、ユーザAのユーザ識別情報、付加情報が付加されている画像データ、及びこの画像データのファイル名のデータを送信することで、画像データのアップロードを行う(ステップS2)。これにより、付加情報管理システム5の送受信部51は、ユーザ識別情報、及び付加情報が付加されている画像データを受信することになる。   Next, when the user A selects the image data to be uploaded, the operation input reception unit 32 of the display device 3a receives the selection of the image data to be uploaded (step S1). Then, the transmission / reception unit 31 of the display device 3a sends the user identification information of the user A, the image data to which the additional information is added, and the file name data of the image data to the additional information management system 5 via the communication network 9. To upload the image data (step S2). As a result, the transmission / reception unit 51 of the additional information management system 5 receives the user identification information and the image data to which the additional information is added.

次に、付加情報管理システム5の取得部55は、上記ステップS1によってダウンロードされる画像データから付加情報を取得する(ステップS3)。そして、記憶・抽出部59は、上記ステップS2によって受信されたユーザ識別情報と上記ステップS3によって取得された付加情報とを関連付けて、付加情報管理テーブル(図16参照)に記憶して管理する(ステップS4)。   Next, the acquisition unit 55 of the additional information management system 5 acquires additional information from the image data downloaded in step S1 (step S3). Then, the storage / extraction unit 59 associates the user identification information received in step S2 with the additional information acquired in step S3, and stores and manages it in the additional information management table (see FIG. 16) (see FIG. 16). Step S4).

次に、送受信部51は、上記ステップS2によって受信された画像データ及びユーザ識別情報を、通信ネットワーク9を介して画像管理システム7へ送信する(ステップS5)。これにより、画像管理システム7の送受信部71は、画像データ及びユーザ識別情報を受信することになる。   Next, the transmitting / receiving unit 51 transmits the image data and user identification information received in step S2 to the image management system 7 via the communication network 9 (step S5). Thereby, the transmission / reception unit 71 of the image management system 7 receives the image data and the user identification information.

次に、画像管理システム7の作成部72は、ステップS5によって受信された画像データに基づいて、図19に示されているような画像オブジェクトを作成する(ステップS6)。この画像オブジェクトのデータには、ユーザ識別情報、画像識別情報、URL情報、及び属性情報が含まれている。   Next, the creation unit 72 of the image management system 7 creates an image object as shown in FIG. 19 based on the image data received in step S5 (step S6). The image object data includes user identification information, image identification information, URL information, and attribute information.

次に、記憶・抽出部79は、ステップS6によって作成された画像オブジェクトを画像管理テーブル(図17参照)に記憶して管理する(ステップS7)。そして、送受信部71は、通信ネットワーク9を介して付加情報管理システム5へ、画像オブジェクトを送信する(ステップS8)。これにより、付加情報管理システム5の送受信部51は、画像オブジェクトを受信することになる。   Next, the storage / extraction unit 79 stores and manages the image object created in step S6 in the image management table (see FIG. 17) (step S7). Then, the transmission / reception unit 71 transmits the image object to the additional information management system 5 via the communication network 9 (step S8). Thereby, the transmitting / receiving unit 51 of the additional information management system 5 receives the image object.

また、付加情報管理システム5の記憶・抽出部59は、上記ステップS4によって記憶されているユーザ識別情報及び付加情報に加え、上記ステップS8によって受信された画像オブジェクトの画像識別情報を関連付けて記憶することで管理する(ステップS9)。これにより、図16に示されているような付加情報管理テーブルが構築される。   The storage / extraction unit 59 of the additional information management system 5 stores the image identification information of the image object received in step S8 in association with the user identification information and additional information stored in step S4. (Step S9). Thereby, the additional information management table as shown in FIG. 16 is constructed.

そして、送受信部51は、通信ネットワーク9を介して表示装置3aへ、付加情報の管理が完了した旨を示す結果と共に画像識別情報を送信する(ステップS10)。これにより、画像データの一連のアップロードの処理が終了する。   Then, the transmission / reception unit 51 transmits the image identification information together with the result indicating that the management of the additional information is completed to the display device 3a via the communication network 9 (step S10). Thus, a series of image data upload processing is completed.

次に、図20乃至図22を用いて、ユーザBが表示装置3bを用いて、画像データをダウンロードする処理を説明する。なお、図20は、撮影画像のダウンロードの処理を示したシーケンス図である。   Next, a process in which the user B downloads image data using the display device 3b will be described with reference to FIGS. FIG. 20 is a sequence diagram illustrating a process of downloading a captured image.

まず、ユーザBが、表示装置3bの送受信部31から通信ネットワーク9を介して画像管理システム7へ、ダウンロードしたい画像のファイル名を示すファイル名リストを要求する(ステップS21)。これにより、画像管理システム7の送受信部71は、ファイル名リストの要求を受け付ける。   First, the user B requests a file name list indicating file names of images to be downloaded from the transmission / reception unit 31 of the display device 3b to the image management system 7 via the communication network 9 (step S21). Thereby, the transmission / reception unit 71 of the image management system 7 accepts a request for a file name list.

また、これに応じて、画像管理システム7の記憶・抽出部79は、画像管理テーブル(図17参照)から画像識別情報と付加情報のファイル名情報を読み出す(ステップS22)。そして、送受信部71は、通信ネットワーク9を介して表示装置3bへ、画像識別情報及びこの画像識別情報に対応するファイル名情報を含むファイル名リストのデータを送信する(ステップS23)。これにより、表示装置3bの送受信部31は、ファイル名リストのデータを受信することになる。   In response to this, the storage / extraction unit 79 of the image management system 7 reads the image identification information and the file name information of the additional information from the image management table (see FIG. 17) (step S22). Then, the transmission / reception unit 71 transmits image identification information and file name list data including file name information corresponding to the image identification information to the display device 3b via the communication network 9 (step S23). Thereby, the transmission / reception unit 31 of the display device 3b receives the data of the file name list.

次に、ユーザBがファイル名リストのうちで、ダウンロードしたい画像データを示すファイル名を選択すると、表示装置3bの操作入力受付部32は、ファイル名の選択を受け付ける(ステップS24)。そして、表示装置3bの送受信部31は、通信ネットワーク9を介して付加情報管理システム5へ、上記ステップS24によって受け付けられたファイル名に対応する画像識別情報を送信すると共に付加情報を要求する(ステップS25)。これにより、付加情報管理システム5の送受信部51は、画像識別情報を受信すると共に、付加情報の要求を受け付けることになる。   Next, when the user B selects a file name indicating image data to be downloaded from the file name list, the operation input receiving unit 32 of the display device 3b receives a file name selection (step S24). Then, the transmission / reception unit 31 of the display device 3b transmits the image identification information corresponding to the file name accepted in step S24 to the additional information management system 5 via the communication network 9 and requests additional information (step). S25). As a result, the transmission / reception unit 51 of the additional information management system 5 receives the image identification information and receives a request for additional information.

次に、付加情報管理システム5は、付加情報の検索処理を行う(ステップS26)。この検索処理について、図21を用いて説明する。なお、図21は、付加情報の検索処理を示したフローチャートである。   Next, the additional information management system 5 performs a process for searching for additional information (step S26). This search process will be described with reference to FIG. FIG. 21 is a flowchart showing the additional information search process.

まず、記憶・抽出部59は、図21に示されているように、上記ステップS25によって受信された画像識別情報を検索キーとして、付加情報管理テーブル(図16参照)を検索する(ステップS101)。   First, as shown in FIG. 21, the storage / extraction unit 59 searches the additional information management table (see FIG. 16) using the image identification information received in step S25 as a search key (step S101). .

次に、判断部52は、このステップS101によって、対応する付加情報が記憶されているか否かを判断する(ステップS102)。そして、判断部52によって、対応する付加情報が記憶されていると判断された場合には(YES)、記憶・抽出部59は、対応する付加情報を読み出し、続けて図20のステップS27の処理が行われる。一方、判断部52によって、対応する付加情報が記憶されていないと判断された場合には(NO)、後述の図24のステップS41の処理が行われる。   Next, the determination unit 52 determines whether or not corresponding additional information is stored in step S101 (step S102). If the determination unit 52 determines that the corresponding additional information is stored (YES), the storage / extraction unit 59 reads the corresponding additional information, and then continues the processing of step S27 in FIG. Is done. On the other hand, when the determination unit 52 determines that the corresponding additional information is not stored (NO), the process of step S41 of FIG. 24 described later is performed.

次に、上記ステップS102において、対応する付加情報が記憶されていると判断された場合に(YES)、図20のステップS27の処理から説明を続ける。送受信部51は、図20に示されているように、通信ネットワーク9を介して表示装置3bへ付加情報を送信する(ステップS27)。これにより、表示装置3bの送受信部31は、付加情報を受信することになる。   Next, when it is determined in step S102 that the corresponding additional information is stored (YES), the description is continued from the process of step S27 in FIG. As shown in FIG. 20, the transmitting / receiving unit 51 transmits additional information to the display device 3b via the communication network 9 (step S27). Thereby, the transmission / reception unit 31 of the display device 3b receives the additional information.

次に、表示装置3bは、通信ネットワーク9を介して画像管理システム7へ、ユーザBがダウンロードしたい画像の画像識別情報を送信すると共に画像オブジェクトを要求する(ステップS28)。これにより、画像管理システム7の送受信部71は、画像識別情報を受信すると共に画像オブジェクトの要求を受け付けることになる。   Next, the display device 3b transmits the image identification information of the image that the user B wants to download to the image management system 7 via the communication network 9, and requests an image object (step S28). Thereby, the transmission / reception unit 71 of the image management system 7 receives the image identification information and accepts the request for the image object.

次に、画像管理システムの記憶・抽出部79は、上記ステップS28によって受信された画像識別情報を検索キーとして、画像管理テーブル(図17参照)を検索することにより、この画像識別情報を含んだ画像オブジェクトを抽出する(ステップS29)。そして、送受信部71は、通信ネットワーク9を介して表示装置3bへ、上記ステップS29によって抽出された画像オブジェクトのデータを送信する(ステップS30)。これにより、表示装置3bの送受信部31は、画像オブジェクトのデータを受信することになる。   Next, the storage / extraction unit 79 of the image management system includes the image identification information by searching the image management table (see FIG. 17) using the image identification information received in step S28 as a search key. An image object is extracted (step S29). Then, the transmission / reception unit 71 transmits the data of the image object extracted in step S29 to the display device 3b via the communication network 9 (step S30). Thereby, the transmission / reception unit 31 of the display device 3b receives the data of the image object.

次に、送受信部31は、画像オブジェクトに含まれるURLにアクセスすることにより、画像管理システム7に対してURLで管理されている画像データを要求する(ステップS31)。これに対して、画像管理システム7の記憶・抽出部79は、記憶部7000から要求された画像データを抽出する(ステップS32)。そして、送受信部79は、通信ネットワーク9を介して表示装置3bへ、上記ステップS32によって抽出された画像データを送信する(ステップS33)。これにより、表示装置3bの送受信部31は、画像データを受信することになる。   Next, the transmission / reception unit 31 requests the image data managed by the URL from the image management system 7 by accessing the URL included in the image object (step S31). In response to this, the storage / extraction unit 79 of the image management system 7 extracts the requested image data from the storage unit 7000 (step S32). Then, the transmission / reception unit 79 transmits the image data extracted in step S32 to the display device 3b via the communication network 9 (step S33). Thereby, the transmission / reception unit 31 of the display device 3b receives the image data.

次に、表示装置3bの画像処理部38は、上記ステップS27によって受信された付加情報に基づき、上記ステップS33によって受信された画像データに対して画像処理を行う(ステップS34)。そして、表示装置3bは、画像処理後の画像データをディスプレイ315に表示させる(ステップS35)。   Next, the image processing unit 38 of the display device 3b performs image processing on the image data received in step S33 based on the additional information received in step S27 (step S34). The display device 3b displays the image data after image processing on the display 315 (step S35).

ここで、図22及び図23を用いて、画像処理の一例として地平線を補正する画像補正について説明する。なお、図22は、画像補正しない場合の撮影画像を2Dで示した図である。図23は、画像補正しない場合の撮影画像を3Dで示した図である。   Here, image correction for correcting the horizon as an example of image processing will be described with reference to FIGS. Note that FIG. 22 is a diagram illustrating a captured image in 2D when image correction is not performed. FIG. 23 is a diagram illustrating a captured image in 3D when image correction is not performed.

例えば、ユーザAが撮影装置1で被写体を撮影する際に、撮影装置1を斜めに傾けて撮影していた場合、表示装置3bで画像補正をしなければ、図22(2Dで示した場合)又は図23(3Dで表示した場合)に示されているような傾いた画像のままである。しかし、表示制御部34が図22に示される2Dの画像データを3Dへ視覚化する際に、画像処理部38が方位・傾き情報のうちの傾きの情報に基づいて表示位置を補正する。これにより、表示制御部34は、図7に示されているように、地平線を水平にした全天球パノラマ画像として、ディスプレイ315に表示させることができる。なお、その後、ユーザBがディスプレイ315をタッチすると、操作入力受付部32がタッチを受け付け、表示制御部34が図9(b)に示されているような所定領域画像を表示させることができる。   For example, when the user A captures an image of a subject with the image capturing device 1 and the image capturing device 1 is tilted, the image is not corrected by the display device 3b. FIG. 22 (in the case of 2D) Alternatively, the image remains tilted as shown in FIG. 23 (when displayed in 3D). However, when the display control unit 34 visualizes the 2D image data shown in FIG. 22 into 3D, the image processing unit 38 corrects the display position based on the tilt information of the azimuth / tilt information. Thereby, the display control part 34 can be made to display on the display 315 as an omnidirectional panoramic image which leveled the horizon, as FIG. 7 shows. After that, when the user B touches the display 315, the operation input receiving unit 32 receives the touch, and the display control unit 34 can display a predetermined area image as shown in FIG. 9B.

次に、図24を用いて、上記ステップS102によって付加情報が記憶されていないと判断された後の処理について説明する。なお、図24は、撮影画像のダウンロードができなかった場合の処理を示したシーケンス図である。   Next, with reference to FIG. 24, processing after it is determined in step S102 that additional information is not stored will be described. Note that FIG. 24 is a sequence diagram illustrating a process when a captured image cannot be downloaded.

図24に示されているように、付加情報管理システム5の送受信部51は、通信ネットワーク9を介して表示装置3bへ、対応する付加情報が記憶されていない旨を示すエラーメッセージを送信する。これにより、表示装置3bの送受信部31は、エラーメッセージを受信することになる。   As shown in FIG. 24, the transmission / reception unit 51 of the additional information management system 5 transmits an error message indicating that the corresponding additional information is not stored to the display device 3b via the communication network 9. Thereby, the transmission / reception unit 31 of the display device 3b receives the error message.

次に、表示装置3bの表示制御部34は、ディスプレイ315上にエラーメッセージを表示させる(ステップS42)。このように、付加情報管理システム5で付加情報が管理されていない場合には、画像データをダウンロードする処理(ステップS31〜S33)に進まないようにすることで、ダウンロード処理を省略することができる。このエラーメッセージが表示されるユースケースとしては、画像がメルカトル画像ではない通常の2D画像である場合が考えられる。撮影画像がメルカトル画像の場合、図7に示されているように3Dへ視覚化した全天球パノラマ画像として表示しても違和感なく表示されるが、メルカトル画像ではない通常の2D画像を3Dへ視覚化して表示してしまうと益々湾曲して非常に見えづらい表示になってしまう。よって、本実施形態では、画像補正に寄与する付加情報が記憶されていなければ、画像データのダウンロードの処理を進めないようにしている。   Next, the display control unit 34 of the display device 3b displays an error message on the display 315 (step S42). As described above, when the additional information management system 5 does not manage the additional information, the download process can be omitted by not proceeding to the process of downloading the image data (steps S31 to S33). . As a use case in which this error message is displayed, a case where the image is a normal 2D image that is not a Mercator image can be considered. When the photographed image is a Mercator image, even if it is displayed as an omnidirectional panoramic image visualized in 3D as shown in FIG. 7, it is displayed without a sense of incongruity, but a normal 2D image that is not a Mercator image is displayed in 3D. If it is visualized and displayed, it will become increasingly curved and become very difficult to see. Therefore, in the present embodiment, the process of downloading image data is not allowed to proceed unless additional information that contributes to image correction is stored.

なお、付加情報が記憶されていない場合であっても、画像データのダウンロードの処理を行えるようにしてもよい。この場合、表示装置3では、3Dへ視覚化して表示することを抑制し、通常の2D表示を行うようにすればよい。   Note that even when the additional information is not stored, the image data download process may be performed. In this case, the display device 3 may suppress the visualization to display in 3D and perform normal 2D display.

<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、付加情報管理システム5は、表示装置3a(送信装置)から送信されて来た画像データから付加情報を取得する一方で、画像管理システム7から画像識別情報を受信する。そして、付加情報管理システム5は、付加情報と画像識別情報を関連付けて記憶することで、画像管理システム7に代わって付加情報を管理することができる。これにより、ユーザBが表示装置3b(受信装置)によって画像管理システム7から画像データをダウンロードする際に、対応する画像識別情報に基づいて付加情報管理システム5から付加情報をダウンロードすることができるため、画像データを補正する等の画像処理を行うことができるという効果を奏する。
<< Main effects of this embodiment >>
As described above, according to the present embodiment, the additional information management system 5 acquires the additional information from the image data transmitted from the display device 3a (transmission device), while the image management system 7 identifies the image. Receive information. The additional information management system 5 can manage the additional information in place of the image management system 7 by storing the additional information and the image identification information in association with each other. Thereby, when the user B downloads image data from the image management system 7 by the display device 3b (receiving device), the additional information can be downloaded from the additional information management system 5 based on the corresponding image identification information. There is an effect that image processing such as correction of image data can be performed.

〔実施形態の補足〕
上記各実施形態における付加情報管理システム5、及び画像管理システム7は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
[Supplement of Embodiment]
The additional information management system 5 and the image management system 7 in each of the above embodiments may be constructed by a single computer, or a plurality of units arbitrarily assigned by dividing each unit (function, means, or storage unit). It may be constructed by a computer.

また、上記実施形態の各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHD504は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。   In addition, a recording medium such as a CD-ROM in which the programs of the above-described embodiments are stored, and the HD 504 in which these programs are stored may be provided domestically or abroad as a program product. it can.

1 撮影装置
3a 表示装置(送信装置の一例)
3b 表示装置(受信装置の一例)
5 付加情報管理システム
7 画像管理システム
9 通信ネットワーク
9a、9b 基地局
31 送受信部(送信手段の一例、受信手段の一例)
32 操作入力受付部
33 作成部(作成手段の一例)
34 表示制御部(表示制御手段の一例)
38 画像処理部(画像処理手段の一例)
39 記憶・抽出部
51 送受信部
52 判断部
55 取得部(取得手段の一例)
71 送受信部
72 作成部
79 記憶・抽出部
315 ディスプレイ(表示手段の一例)
3000 記憶部(記憶手段の一例)
5000 記憶部
5001 付加情報管理DB
7000 記憶部
7001 画像管理DB
1 Imaging device 3a Display device (an example of a transmission device)
3b Display device (an example of a receiving device)
5 Additional Information Management System 7 Image Management System 9 Communication Network 9a, 9b Base Station 31 Transmission / Reception Unit (Example of Transmission Unit, Example of Reception Unit)
32 Operation input reception unit 33 Creation unit (an example of creation means)
34 Display control unit (an example of display control means)
38 Image processing unit (an example of image processing means)
39 Storage / Extraction Unit 51 Transmission / Reception Unit 52 Determination Unit 55 Acquisition Unit (Example of Acquisition Unit)
71 Transmission / Reception Unit 72 Creation Unit 79 Storage / Extraction Unit 315 Display (an example of display means)
3000 storage unit (an example of storage means)
5000 storage unit 5001 additional information management DB
7000 storage unit 7001 image management DB

特開2011−120201号公報JP 2011-120201 A

Claims (10)

表示装置と、画像データの画像処理に利用される付加情報を記憶する付加情報管理システムと、を備え、前記画像データ及び該画像データを識別するための画像識別情報を関連付けて記憶する画像管理システムと通信を行う画像共有システムであって、
前記表示装置は、
前記付加情報管理システムに対して、前記付加情報が付加された画像データを送信する第1送信手段と、
前記送信された画像データに対して、前記画像管理システムによって割り当てられた前記画像識別情報を、前記付加情報管理システムから受信する第1受信手段と、を備え、
前記付加情報管理システムは
画像データ及び該画像データに付加された付加情報を前記表示装置から受信する第2受信手段と、
前記受信された画像データに対して、前記画像管理システムによって割り当てられた前記画像識別情報を、前記表示装置へ送信する第2送信手段と、を備えたことを特徴とする画像共有システム。
An image management system comprising: a display device; and an additional information management system for storing additional information used for image processing of image data, and storing the image data and image identification information for identifying the image data in association with each other An image sharing system that communicates with
The display device
First transmission means for transmitting image data to which the additional information is added to the additional information management system ;
For the transmitted image data, the image identification information allocated by the image management system, and a first receiving means for receiving from said additional information management system,
The additional information management system includes :
Second receiving means for receiving image data and additional information added to the image data from the display device;
An image sharing system comprising: second transmission means for transmitting the image identification information assigned by the image management system to the display device for the received image data.
前記第2受信手段は、前記表示装置から前記画像データに加えて、前記表示装置のユーザを識別するためのユーザ識別情報を受信することを特徴とする請求項1に記載の画像共有システム。The image sharing system according to claim 1, wherein the second receiving unit receives user identification information for identifying a user of the display device in addition to the image data from the display device. 前記付加情報管理システムは、The additional information management system includes:
前記第2受信手段によって受信された画像データを前記画像管理システムへ送信する第3送信手段と、Third transmission means for transmitting the image data received by the second reception means to the image management system;
前記第3送信手段によって送信された画像データに割り当てられた前記画像識別情報を、前記画像管理システムから受信する第3受信手段と、を備え、And third receiving means for receiving the image identification information assigned to the image data transmitted by the third transmitting means from the image management system,
前記第2送信手段は、前記第3受信手段によって受信された画像識別情報を前記表示装置へ送信することを特徴とする請求項1又は2に記載の画像共有システム。3. The image sharing system according to claim 1, wherein the second transmission unit transmits the image identification information received by the third reception unit to the display device.
前記第2受信手段は、前記表示装置から前記画像識別情報を受信すると共に前記付加情報の要求を受信し、The second receiving means receives the image identification information from the display device and receives the request for the additional information;
前記付加情報管理システムは、The additional information management system includes:
前記第2受信手段によって受信された画像識別情報に関連する付加情報を抽出する抽出手段を有し、Extracting means for extracting additional information related to the image identification information received by the second receiving means;
前記第2送信手段は、前記抽出手段によって抽出された付加情報を、前記表示装置へ送信することを特徴とする請求項1乃至3のいずれか一項に記載の画像共有システム。4. The image sharing system according to claim 1, wherein the second transmission unit transmits the additional information extracted by the extraction unit to the display device. 5.
前記付加情報管理システムは、
前記第2受信手段によって受信された画像識別情報に対応する付加情報があるか否かを判断する判断手段を有し、
前記判断手段によって対応する付加情報があると判断された場合には、前記第2送信手段は、前記表示装置に前記対応する付加情報を送信し、前記判断手段によって対応する付加情報がないと判断された場合には、前記第2送信手段は、前記表示装置にエラーメッセージを送信することを特徴とする請求項4に記載の画像共有システム
The additional information management system includes:
Determining means for determining whether there is additional information corresponding to the image identification information received by the second receiving means;
When the determination means determines that there is corresponding additional information, the second transmission means transmits the corresponding additional information to the display device, and the determination means determines that there is no corresponding additional information. 5. The image sharing system according to claim 4, wherein the second transmission unit transmits an error message to the display device when it is performed .
前記画像処理は、画像編集、画像加工、又は画像補正であることを特徴とする請求項1乃至5のいずれか一項に記載の画像共有システム。The image sharing system according to any one of claims 1 to 5, wherein the image processing is image editing, image processing, or image correction. 前記画像データは、メルカトル画像のデータであることを特徴とする請求項1乃至6のいずれか一項に記載の画像共有システム。The image sharing system according to claim 1, wherein the image data is Mercator image data. 請求項1乃至7のいずれか一項に記載の画像共有システムは、The image sharing system according to any one of claims 1 to 7,
前記画像管理システムを、さらに備えたことを特徴とする画像共有システム。An image sharing system, further comprising the image management system.
表示装置と、画像データの画像処理に利用される付加情報を記憶する付加情報管理システムと、を備え、前記画像データ及び該画像データを識別するための画像識別情報を関連付けて記憶する画像管理システムと通信を行う画像共有システムが実行する通信方法であって、
前記表示装置が、
前記付加情報管理システムに対して、前記付加情報が付加された画像データを送信する第1送信ステップと、
前記送信された画像データに対して、前記画像管理システムによって割り当てられた画像識別情報を、前記付加情報管理システムから受信する第1受信ステップと、を実行し、
前記付加情報管理システムは
画像データ及び該画像データに付加された付加情報を前記表示装置から受信する第2受信ステップと、
前記受信された画像データに対して前記画像管理システムによって割り当てられた前記画像識別情報を、前記表示装置へ送信する第2送信ステップと、を実行することを特徴とする通信方法。
An image management system comprising: a display device; and an additional information management system for storing additional information used for image processing of image data, and storing the image data and image identification information for identifying the image data in association with each other A communication method executed by an image sharing system that communicates with
The display device
A first transmission step of transmitting image data to which the additional information is added to the additional information management system;
A first receiving step of receiving, from the additional information management system, image identification information assigned by the image management system to the transmitted image data;
The additional information management system includes :
A second receiving step of receiving image data and additional information added to the image data from the display device;
And a second transmission step of transmitting the image identification information assigned by the image management system to the display device with respect to the received image data.
コンピュータに、請求項9に記載の各ステップを実行させることを特徴とするプログラム。 A program causing a computer to execute each step according to claim 9 .
JP2016104975A 2016-05-26 2016-05-26 Image sharing system, communication method and program Expired - Fee Related JP6233451B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016104975A JP6233451B2 (en) 2016-05-26 2016-05-26 Image sharing system, communication method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016104975A JP6233451B2 (en) 2016-05-26 2016-05-26 Image sharing system, communication method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012146726A Division JP5942637B2 (en) 2012-06-29 2012-06-29 Additional information management system, image sharing system, additional information management method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017206094A Division JP6508288B2 (en) 2017-10-25 2017-10-25 SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2016194930A JP2016194930A (en) 2016-11-17
JP6233451B2 true JP6233451B2 (en) 2017-11-22

Family

ID=57322903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016104975A Expired - Fee Related JP6233451B2 (en) 2016-05-26 2016-05-26 Image sharing system, communication method and program

Country Status (1)

Country Link
JP (1) JP6233451B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05159033A (en) * 1991-12-10 1993-06-25 Toshiba Corp Picture storage communication system
JP2006343944A (en) * 2005-06-08 2006-12-21 Hitachi Medical Corp Information management system and device
JP4732235B2 (en) * 2006-05-24 2011-07-27 キヤノン株式会社 Information management apparatus, control method therefor, and program
JP5064917B2 (en) * 2007-07-13 2012-10-31 株式会社エクシング Electronic album system and electronic album creation method
JP2009230429A (en) * 2008-03-21 2009-10-08 Fujifilm Corp Interest information preparing method for registered content, content stock server, content information management server, and interest information preparing system for registered content

Also Published As

Publication number Publication date
JP2016194930A (en) 2016-11-17

Similar Documents

Publication Publication Date Title
JP6075066B2 (en) Image management system, image management method, and program
JP6186775B2 (en) Communication terminal, display method, and program
JP5920057B2 (en) Transmission device, image sharing system, transmission method, and program
JP2014112302A (en) Prescribed area management system, communication method, and program
JP7420126B2 (en) System, management system, image management method, and program
US20180124310A1 (en) Image management system, image management method and recording medium
JP2021039468A (en) Imaging device, communication system, communication method, and program
JP6816465B2 (en) Image display systems, communication systems, image display methods, and programs
JP6011117B2 (en) Reception device, image sharing system, reception method, and program
JP6304300B2 (en) Transmitting apparatus, communication method, program, and receiving apparatus
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP6115113B2 (en) Predetermined area management system, predetermined area management method, and program
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
JP2018026642A (en) Image management system, image communication system, image management method, and program
JP5942637B2 (en) Additional information management system, image sharing system, additional information management method, and program
JP6586819B2 (en) Image management system, image communication system, image management method, and program
JP6508288B2 (en) SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM
JP6233451B2 (en) Image sharing system, communication method and program
JP6665440B2 (en) Image management system, image management method, image communication system, and program
JP2016194782A (en) Image management system, communication terminal, communication system, image management method, and program
JP2018050123A (en) Image display system, image display method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170502

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171009

R151 Written notification of patent or utility model registration

Ref document number: 6233451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees