JP6816403B2 - Image management system, image communication system, image management method, and program - Google Patents
Image management system, image communication system, image management method, and program Download PDFInfo
- Publication number
- JP6816403B2 JP6816403B2 JP2016158865A JP2016158865A JP6816403B2 JP 6816403 B2 JP6816403 B2 JP 6816403B2 JP 2016158865 A JP2016158865 A JP 2016158865A JP 2016158865 A JP2016158865 A JP 2016158865A JP 6816403 B2 JP6816403 B2 JP 6816403B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- management system
- attached
- drawn
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 117
- 238000007726 management method Methods 0.000 title claims description 94
- 238000000034 method Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 46
- 230000005540 biological transmission Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000009795 derivation Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 239000013256 coordination polymer Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Description
本発明は、画像管理システム、画像通信システム、画像管理方法、及びプログラムに関するものである。 The present invention relates to an image management system, an image communication system, an image management method, and a program.
近年、一度の撮影で、360°の全天球パノラマ画像を得る特殊なデジタルカメラが提供されている(特許文献1参照)。但し、この特殊なデジタルカメラは、全天球パノラマ画像を得るが、そのままでは画像が湾曲して利用者が見えづらい。そのため、スマートフォン等が、全天球パノラマ画像の一部であって、所定の視点からの視野に入る所定領域における所定領域画像を表示することで、利用者は従来のデジタルカメラで撮影された画像と同じ平面画像を閲覧する感覚で所定領域画像を閲覧することができる。 In recent years, a special digital camera that obtains a 360 ° spherical panoramic image with a single shooting has been provided (see Patent Document 1). However, although this special digital camera obtains an omnidirectional panoramic image, the image is curved and difficult for the user to see as it is. Therefore, a smartphone or the like is a part of the spherical panoramic image, and by displaying a predetermined area image in a predetermined area that enters the field of view from a predetermined viewpoint, the user can take an image taken by a conventional digital camera. You can browse the predetermined area image as if you were browsing the same plane image as.
一方、従来から、利用者によって平面画像上に描画された描画像に基づいて、この描画像を含む添付画像を作成し、この添付画像を平面画像に添付することが知られている。 On the other hand, conventionally, it is known that an attached image including this drawn image is created based on a drawn image drawn on a flat image by a user, and the attached image is attached to the flat image.
しかしながら、全天球パノラマ画像の一部である所定領域画像に添付画像を添付する場合、実際には添付画像を立体球表面に合わせて湾曲させた状態で添付することになる。そのため、上記視点の位置を変更すると、描画時の描画像の形状とは異なる形状の描画像が表示されることになるため、利用者が困惑するという課題が生じる。 However, when the attached image is attached to the predetermined region image which is a part of the spherical panoramic image, the attached image is actually attached in a curved state according to the surface of the three-dimensional sphere. Therefore, if the position of the viewpoint is changed, a drawn image having a shape different from the shape of the drawn image at the time of drawing is displayed, which causes a problem that the user is confused.
請求項1に係る発明は、撮影画像を管理する画像管理システムであって、全天球パノラマ画像である前記撮影画像上に描画された描画像に基づいて、当該描画像を含み前記撮影画像に添付するための添付画像を作成する作成手段と、前記作成された添付画像を前記撮影画像に平面画像として添付する添付手段と、を有することを特徴とする画像管理システムである。
The invention according to
以上説明したように本発明によれば、添付画像を湾曲させないで平面画像として撮影画像に添付するため、利用者が困惑することを解消することができる。 As described above, according to the present invention, since the attached image is attached to the captured image as a flat image without being curved, it is possible to eliminate the confusion of the user.
以下、図面を用いて、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<<実施形態の概略>>
<全天球パノラマ画像の生成方法>
図1乃至図7を用いて、全天球パノラマ画像の生成方法について説明する。
<< Outline of Embodiment >>
<How to generate spherical panoramic images>
A method of generating a spherical panoramic image will be described with reference to FIGS. 1 to 7.
まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の正面図であり、図1(c)は撮影装置の平面図である。
First, the appearance of the photographing
図1(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図1(a),(b),(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。これら撮像素子103a,103bは、半球画像(画角180°以上)の撮影が可能な光学部材(例えば、後述する魚眼レンズ102a,102b)と併せて用いられる。また、図1(b)に示されているように、撮影装置1の背面側(後側)には、シャッターボタン等の操作部115が設けられている。
As shown in FIG. 1A, the photographing
次に、図2を用いて、撮影装置1の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置1は、図2に示されているように、例えば、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。
Next, the usage state of the photographing
次に、図3及び図4を用いて、撮影装置1で撮影された画像から全天球パノラマ画像が作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。図4(a)はメルカトル画像で球を被う状態を示した概念図、図4(b)は全天球パノラマ画像を示した図である。
Next, the outline of the process from the image taken by the photographing
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。
As shown in FIG. 3A, the image obtained by the
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、メルカトル画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球パノラマ画像が作成される。このように、全天球パノラマ画像は、メルカトル画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球パノラマ画像は、静止画であっても動画であってもよい。 Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), as shown in FIG. 4 (a), the Mercator image is pasted so as to cover the spherical surface, and in FIG. 4 (b). An omnidirectional panoramic image as shown is created. In this way, the spherical panoramic image is represented as an image in which the Mercator image faces the center of the sphere. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. The spherical panoramic image may be a still image or a moving image.
以上のように、全天球パノラマ画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球パノラマ画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。 As described above, since the spherical panoramic image is an image pasted so as to cover the spherical surface, it gives a sense of discomfort to humans. Therefore, by displaying a part of a predetermined region of the spherical panoramic image (hereinafter, referred to as “predetermined region image”) as a flat image with less curvature, it is possible to display the image without giving a sense of discomfort to humans. This will be described with reference to FIGS. 5 and 6.
なお、図5は、全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、3次元の立体球として表示されている全天球パノラマ画像に対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球パノラマ画像が、3次元の立体球CSで表わされている。このように生成された全天球パノラマ画像が、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球パノラマ画像の外部に位置している。全天球パノラマ画像における所定領域Tは、この全天球パノラマ画像における仮想カメラICの位置の所定領域情報によって特定される。この所定領域情報は、例えば、座標(x(rH)、y(rV)、及び画角α(angle))又は座標(X,Y,Z)によって示される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球パノラマ画像に近づいたり、遠ざけたりすることで表現することもできる。 Note that FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined area when the spherical panoramic image is a three-dimensional three-dimensional sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who sees the panoramic image of the spherical image displayed as a three-dimensional three-dimensional sphere. Further, FIG. 6A is a three-dimensional perspective view of FIG. 5, and FIG. 6B is a diagram showing a predetermined area image when displayed on a display. Further, in FIG. 6A, the spherical panoramic image shown in FIG. 4 is represented by a three-dimensional three-dimensional sphere CS. Assuming that the spherical panoramic image generated in this way is a three-dimensional sphere CS, the virtual camera IC is located outside the spherical panoramic image as shown in FIG. The predetermined area T in the spherical panoramic image is specified by the predetermined area information of the position of the virtual camera IC in the spherical panoramic image. This predetermined area information is indicated by, for example, coordinates (x (rH), y (rV), and angle of view α (angle)) or coordinates (X, Y, Z). The zoom of the predetermined region T can be expressed by expanding or contracting the range (arc) of the angle of view α. Further, the zoom of the predetermined area T can be expressed by moving the virtual camera IC closer to or further away from the spherical panoramic image.
そして、図6(a)で示されているように、全天球パノラマ画像における所定領域Tの画像は、図6(b)に示されているように、所定のディスプレイに、所定領域画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報(x,y,α)によって表された画像である。 Then, as shown in FIG. 6 (a), the image of the predetermined region T in the spherical panoramic image is displayed as a predetermined region image on the predetermined display as shown in FIG. 6 (b). Is displayed. The image shown in FIG. 6B is an image represented by the predetermined area information (x, y, α) that has been initialized (default).
ここで、図7を用いて、所定領域情報と所定領域画像の関係について説明する。なお、図7は、所定領域情報と所定領域画像の関係との関係を示した図である。図7に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角線画角2Lとした場合の中心点CPが、所定領域情報の(x,y)パラメータとなる。fは仮想カメラICから中心点CPまでの距離である。そして、図7では、一般的に以下の式(1)で示される三角関数が成り立つ。 Here, the relationship between the predetermined area information and the predetermined area image will be described with reference to FIG. 7. Note that FIG. 7 is a diagram showing the relationship between the predetermined area information and the predetermined area image. As shown in FIG. 7, the center point CP when the diagonal angle of view 2L of the predetermined area T represented by the angle of view α of the virtual camera IC is set is the (x, y) parameter of the predetermined area information. .. f is the distance from the virtual camera IC to the center point CP. Then, in FIG. 7, the trigonometric function generally represented by the following equation (1) holds.
Lf=tan(α/2)・・・(式1)
<画像通信システムの概略>
続いて、図8を用いて、本実施形態の画像通信システムの構成の概略について説明する。図8は、本実施形態の画像通信システムの構成の概略図である。
Lf = tan (α / 2) ... (Equation 1)
<Outline of image communication system>
Subsequently, the outline of the configuration of the image communication system of the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram of the configuration of the image communication system of the present embodiment.
図8に示されているように、本実施形態の画像通信システムは、撮影装置1、通信端末3、画像管理システム5、及び通信端末7によって構成されている。
As shown in FIG. 8, the image communication system of the present embodiment is composed of a photographing
このうち、撮影装置1は、上述のように、全天球パノラマ画像を得るためのデジタルカメラである。なお、この撮影装置1は、一般的なデジタルカメラであっても良く、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために全天球パノラマ画像を得るためのデジタルカメラとして説明を行う。通信端末3は、WiFi等の無線通信技術を利用し、撮影装置1とデータ通信すると共に、通信ネットワーク9を介して画像管理システム5とデータ通信を行なうことができる。なお、通信ネットワーク9は、例えば、インターネットである。
Of these, the photographing
また、画像管理システム5は、例えば、サーバコンピュータであり、通信ネットワーク9を介して、通信端末3,7とデータ通信を行なうことができる。画像管理システム5には、OpenGL ESがインストールされており、全天球パノラマ画像を作成する。また、画像管理システム5は、全天球パノラマ画像の一部の領域を示す所定領域情報(又は、この所定領域情報で示される画像である所定領域画像を作成し、通信端末7に撮影画像データ及び所定領域情報(又は所定領域画像)を提供する。 Further, the image management system 5 is, for example, a server computer, and can perform data communication with the communication terminals 3 and 7 via the communication network 9. OpenGL ES is installed in the image management system 5, and a spherical panoramic image is created. Further, the image management system 5 creates predetermined area information (or a predetermined area image which is an image indicated by the predetermined area information) indicating a part of the panoramic image of the whole sky, and captures image data on the communication terminal 7. And provide predetermined area information (or predetermined area image).
また、通信端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理システム5とデータ通信を行なうことができる。なお、画像管理システム5は、単一のサーバコンピュータによって構成されてもよいし、複数のサーバコンピュータによって構成されてもよい。 Further, the communication terminal 7 is, for example, a notebook PC (Personal Computer), and can perform data communication with the image management system 5 via the communication network 9. The image management system 5 may be configured by a single server computer or may be configured by a plurality of server computers.
更に、撮影装置1及び通信端末3は、撮影者Xによって利用される。通信端末7は、閲覧者Yによって利用される。画像管理システム5は、各拠点の通信端末3から送られて来た撮影画像データを通信端末7に提供するサービスを行なうサービス会社等に設置されている。
Further, the photographing
<実施形態のハードウェア構成>
次に、図9乃至図11を用いて、本実施形態の撮影装置1、通信端末3,7、及び画像管理システム5のハードウェア構成を詳細に説明する。
<Hardware configuration of the embodiment>
Next, the hardware configurations of the photographing
まず、図9を用いて、撮影装置1のハードウェア構成を説明する。なお、図9は、撮影装置のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全方位撮影装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。
First, the hardware configuration of the photographing
図9に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
As shown in FIG. 9, the photographing
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
Of these, the
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
The
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているようなメルカトル画像のデータを作成する。
The
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
The image pickup control unit 105 generally uses the image pickup control unit 105 as a master device and the
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
Further, the image pickup control unit 105 instructs the
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置には表示部が設けられていないが、表示部を設けてもよい。
Further, as will be described later, the image pickup control unit 105 also functions as a synchronization control means for synchronizing the output timings of the image data of the
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
The
CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
The
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。
The
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
Network I / F116 is a general term for interface circuits (USB I / F, etc.) with external media such as SD cards and personal computers. Further, the network I / F116 may be a network interface regardless of whether it is wireless or wired. The Mercator image data stored in the
通信部117は、撮影装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)やNFC等の短距離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
The
電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。
The
次に、図10を用いて、通信端末3のハードウェア構成を説明する。図10は、通信端末3のハードウェア構成図である。図10に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種加速度・方位センサ306、フラッシュメモリ等の記録メディア307に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ308を備えている。そして、メディアドライブ308の制御に従って、既に記録されていたデータが読み出され、又は新たにデータが書き込まれて記憶する記録メディア307が着脱自在な構成となっている。
Next, the hardware configuration of the communication terminal 3 will be described with reference to FIG. FIG. 10 is a hardware configuration diagram of the communication terminal 3. As shown in FIG. 10, the communication terminal 3 includes a
なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。
The
更に、通信端末3は、音声を音声信号に変換する音声入力部311、音声信号を音声に変換する音声出力部312、アンテナ313a、このアンテナ313aを利用して無線通信信号により、最寄の基地局等と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、被写体の画像や各種アイコン等を表示する液晶や有機ELなどのディスプレイ315、このディスプレイ315上に載せられ、感圧式又は静電式のパネルによって構成され、指やタッチペン等によるタッチによってディスプレイ315上におけるタッチ位置を検出するタッチパネル316、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
Further, the communication terminal 3 uses a
なお、音声入力部311は、音声を入力するマイクが含まれ、音声出力部312には、音声を出力するスピーカが含まれている。
The
次に、図11を用いて、画像管理システム5及びノートPCの場合の通信端末7のハードウェア構成を説明する。なお、図11は、画像管理システム5及び通信端末7のハードウェア構成図である。画像管理システム5、及び通信端末7は、ともにコンピュータであるため、以下では、画像管理システム5の構成について説明し、通信端末7の構成の説明は省略する。 Next, the hardware configuration of the communication terminal 7 in the case of the image management system 5 and the notebook PC will be described with reference to FIG. Note that FIG. 11 is a hardware configuration diagram of the image management system 5 and the communication terminal 7. Since both the image management system 5 and the communication terminal 7 are computers, the configuration of the image management system 5 will be described below, and the description of the configuration of the communication terminal 7 will be omitted.
画像管理システム5は、画像管理システム5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、画像管理システム5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を図11に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
The image management system 5 includes a
<<実施形態の機能構成>>
次に、図9乃至図14を用いて、本実施形態の機能構成について説明する。図12は、本実施形態の画像通信システムの一部を構成する、撮影装置1、通信端末3、画像管理システム5、及通信端末7の各機能ブロック図である。図12では、画像管理システム5が、通信ネットワーク9を介して、通信端末3及び通信端末7とデータ通信することができる。
<< Functional configuration of the embodiment >>
Next, the functional configuration of the present embodiment will be described with reference to FIGS. 9 to 14. FIG. 12 is a functional block diagram of the photographing
<撮影装置1の機能構成>
図12に示されているように、撮影装置1は、受付部12、撮像部13、集音部14、通信部18、及び記憶・読出部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of photographing
As shown in FIG. 12, the photographing
また、撮影装置1は、図9に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。
Further, the photographing
(撮影装置1の各機能構成)
次に、図9及び図12を用いて、撮影装置1の各機能構成について更に詳細に説明する。
(Each function configuration of the photographing device 1)
Next, each functional configuration of the photographing
撮影装置1の受付部12は、主に、図9に示されている操作部115及びCPU111の処理によって実現され、利用者(図8では、撮影者X)からの操作入力を受け付ける。
The reception unit 12 of the photographing
撮像部13は、主に、図9に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。
The
集音部14は、図9に示されている108及び音処理ユニット109、並びにCPU111の処理によって実現され、撮影装置1の周囲の音を収音する。
The sound collecting unit 14 is realized by the processing of the 108 shown in FIG. 9, the
通信部18は、主に、CPU111の処理によって実現され、通信端末3の通信部38と、NFC(Near Field Communication)規格、BlueTooth(登録商標)、WiFi(Wireless Fidelity)等による短距離無線技術によって通信することができる。
The
記憶・読出部19は、主に、図9に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。
The storage / reading unit 19 is mainly realized by the processing of the
<通信端末3の機能構成>
図12にされているように、通信端末3は、送受信部31、受付部32、表示制御部33、判断部34、通信部38、及び記憶・読出部39を有している。これら各部は、図10に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された通信端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of communication terminal 3>
As shown in FIG. 12, the communication terminal 3 has a transmission / reception unit 31, a reception unit 32, a display control unit 33, a determination unit 34, a
また、通信端末3は、図10に示されているROM302、RAM303、及びEEPROM304によって構築される記憶部3000を有している。
Further, the communication terminal 3 has a
(通信端末3の各機能構成)
次に、図10及び図12を用いて、通信端末3の各機能構成について更に詳細に説明する。
(Each function configuration of communication terminal 3)
Next, each functional configuration of the communication terminal 3 will be described in more detail with reference to FIGS. 10 and 12.
通信端末3の送受信部31は、主に、図10に示されている通信部313及びCPU301の処理によって実現され、通信ネットワーク9を介して、画像管理システム5と各種データ(または情報)の送受信を行う。
The transmission / reception unit 31 of the communication terminal 3 is realized mainly by the processing of the
受付部32は、主にタッチパネル316及びCPU301による処理によって実現され、ユーザから各種の選択又は入力を受け付ける。
The reception unit 32 is realized mainly by processing by the touch panel 316 and the
表示制御部33は、主にCPU301の処理によって実現され、ディスプレイ315に各種画像や文字等を表示させるための制御を行う。
The display control unit 33 is realized mainly by the processing of the
判断部34は、主にCPU301の処理によって実現され、各種判断を行なう。
The determination unit 34 is realized mainly by the processing of the
通信部38は、主に、CPU301の処理によって実現され、撮影装置1通信部18と、NFC規格、BlueTooth、WiFi等による短距離無線技術によって通信することができる。
The
記憶・読出部39は、主に、図10に示されているCPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。
The storage /
<画像管理システムの機能構成>
次に、図11及び図12を用いて、画像管理システム5の各機能構成について詳細に説明する。画像管理システム5は、送受信部51、特定部52、作成部53、変換部54、導出部55、添付部56、透過部57及び記憶・読出部59を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理システム5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of image management system>
Next, each functional configuration of the image management system 5 will be described in detail with reference to FIGS. 11 and 12. The image management system 5 includes a transmission / reception unit 51, a specific unit 52, a creation unit 53, a conversion unit 54, a derivation unit 55, an attachment unit 56, a transmission unit 57, and a storage /
また、画像管理システム5は、図11に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、撮影画像管理DB5001、及び添付画像管理DB5002が構築されている。このうち、撮影画像管理DB5001は、図13に示されている撮影画像管理テーブルによって構成されている。添付画像管理DB5002は、図14に示される添付画像管理テーブルによって構成されている。
Further, the image management system 5 has a
(撮影画像管理テーブル)
図13は、撮影画像管理テーブルを示す概念図である。この撮影画像管理テーブルでは、ユーザID、撮影画像ID、撮影画像データのファイル名、及び撮影日時が関連付けて記憶されて管理されている。このうち、ユーザIDは、各撮影者を識別するための利用者識別情報の一例である。撮影画像IDは、各撮影画像(全天球パノラマ画像)を識別するための撮影画像識別情報の一例である。撮影日時は、撮影者が撮影して、撮影画像を得た日時を示す。
(Captured image management table)
FIG. 13 is a conceptual diagram showing a captured image management table. In this captured image management table, a user ID, a captured image ID, a file name of captured image data, and a captured date and time are stored and managed in association with each other. Of these, the user ID is an example of user identification information for identifying each photographer. The captured image ID is an example of captured image identification information for identifying each captured image (omnidirectional panoramic image). The shooting date and time indicates the date and time when the photographer took a picture and obtained the shot image.
(添付画像管理テーブル)
図14は、添付画像管理テーブルを示す概念図である。なお、以降、三次元の仮想空間における座標(X,Y,Z)を用いて説明する。この添付画像管理テーブルでは、撮影画像ID、添付画像ID、添付画像データのファイル名、添付位置、基準位置、及び添付画像のサイズが関連付けて記憶されて管理されている。このうち、添付画像IDは、各添付画像を識別するための添付画像識別情報の一例である。添付位置は、三次元の仮想空間内の撮影画像(全天球パノラマ画像)における添付画像の添付位置を示す。基準位置は、三次元の仮想空間内における仮想カメラICの初期位置(初期視点の位置)を示す。
(Attached image management table)
FIG. 14 is a conceptual diagram showing an attached image management table. In the following description, coordinates (X, Y, Z) in a three-dimensional virtual space will be used. In this attached image management table, the captured image ID, the attached image ID, the file name of the attached image data, the attached position, the reference position, and the size of the attached image are stored and managed in association with each other. Of these, the attached image ID is an example of attached image identification information for identifying each attached image. The attachment position indicates the attachment position of the attached image in the captured image (omnidirectional panoramic image) in the three-dimensional virtual space. The reference position indicates the initial position (position of the initial viewpoint) of the virtual camera IC in the three-dimensional virtual space.
(画像管理システムの各機能構成)
次に、図11及び図12を用いて、画像管理システム5の各機能構成について詳細に説明する。
(Each function configuration of the image management system)
Next, each functional configuration of the image management system 5 will be described in detail with reference to FIGS. 11 and 12.
画像管理システム5の送受信部51は、主に、図11に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は通信端末7と各種データ(または情報)の送受信を行う。
The transmission / reception unit 51 of the image management system 5 is mainly realized by the processing of the network I /
特定部52は、主に、図11に示されているCPU501の処理によって実現され、例えば、二次元の描画領域における描画像g1の中心点p1(x1,y1)を特定する。
The identification unit 52 is mainly realized by the processing of the
作成部53は、主に、図11に示されているCPU501の処理によって実現され、例えば、特定部52によって特定された二次元の描画領域における中心点をp1とする描画像g1を包含する添付画像a1を作成する。
The creation unit 53 is mainly realized by the processing of the
変換部54は、主に、図11に示されているCPU501の処理によって実現され、例えば、特定部52によって特定された二次元の描画領域における中心点p1を、三次元の仮想領域内の特定位置(例えば、点P2(X2,Y2,Z2))に変換する。
The conversion unit 54 is mainly realized by the processing of the
導出部55は、主に、図11に示されているCPU501の処理によって実現され、例えば、三次元の仮想空間内において、変換部54によって変換された特定位置(例えば、点P2)と仮想カメラICの位置P01とを通る直線D1を導出する。
The derivation unit 55 is mainly realized by the processing of the
添付部56は、主に、図11に示されているCPU501の処理によって実現され、例えば、三次元の仮想空間内の直線上の特定の点において、この直線の法線に沿って添付画像を添付する。
The attachment portion 56 is mainly realized by the processing of the
透過部57は、主に、図11に示されているCPU501の処理によって実現され、例えば、所定の添付画像のうち、描画像以外の部分を透過させる。
The transparent portion 57 is mainly realized by the processing of the
記憶・読出部59は、主に、図11に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。
The storage /
<通信端末7の機能構成>
次に、図11及び図13を用いて、通信端末7の機能構成について詳細に説明する。通信端末7は、送受信部71、受付部72、判断部74、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された通信端末7用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of communication terminal 7>
Next, the functional configuration of the communication terminal 7 will be described in detail with reference to FIGS. 11 and 13. The communication terminal 7 has a transmission /
また、通信端末7は、図11に示されているRAM503、及びHD504によって構築される記憶部7000を有している。
Further, the communication terminal 7 has a
(通信端末7の各機能構成)
次に、図13を用いて、通信端末7の各機能構成について詳細に説明する。
(Each function configuration of communication terminal 7)
Next, each functional configuration of the communication terminal 7 will be described in detail with reference to FIG.
通信端末7の送受信部71は、主に、図11に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理システム5と各種データ(または情報)の送受信を行う。
The transmission /
受付部72は、主に、図11に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、利用者(図8では、閲覧者Y)からの操作入力を受け付ける。
The reception unit 72 is realized mainly by the processing of the
表示制御部73は、主に、図11に示されているCPU501の処理によって実現され、通信端末7のディスプレイ508に各種画像を表示させるための制御を行なう。
The display control unit 73 is mainly realized by the processing of the
判断部74は、主に、図11に示されているCPU501の処理によって実現され、各種判断を行なう。
The determination unit 74 is mainly realized by the processing of the
記憶・読出部79は、主に、図11に示されているHDD505、及びCPU501の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。
The storage /
<<実施形態の処理又は動作>>
続いて、図15乃至図27を用いて、本実施形態の処理又は動作について説明する。図15は、撮影画像における添付画像の添付位置を導出する処理を示したフローチャートである。図16は、添付画像を撮影画像に添付する処理を示したフローチャートである。図17乃至図25は、それぞれ(a)が画像管理システム5及び通信端末7における二次元(x,y)の描画領域を示した概念図、(b)が画像管理システム5における三次元(X,Y,Z)の仮想空間を示した概念図である。
<< Processing or operation of the embodiment >>
Subsequently, the process or operation of the present embodiment will be described with reference to FIGS. 15 to 27. FIG. 15 is a flowchart showing a process of deriving the attachment position of the attached image in the captured image. FIG. 16 is a flowchart showing a process of attaching an attached image to a captured image. 17 to 25 are conceptual diagrams in which (a) shows a two-dimensional (x, y) drawing area in the image management system 5 and the communication terminal 7, respectively, and (b) is a three-dimensional (X) in the image management system 5. , Y, Z) is a conceptual diagram showing a virtual space.
なお、図17乃至図25の各(a)では、描画された添付画像a1を目立たせるため、図26(a)に示されているビル等の所定領域画像を省略し、添付画像の描画領域のみを示す。また、通信端末7の表示制御部73は、ブラウザ機能を有している。これにより、図17乃至図25の各(a)の図面において、画像管理システム5と通信端末7の両方における二次元の描画領域が実現する。即ち、通信端末7側の閲覧者Yによる描画領域への入力データが画像管理システム5側に送られると、画像管理システム5側で処理が行なわれ、処理後の画像データが通信端末7に送られることで、通信端末7はディスプレイ508上に図26(a)に示されているような描画像g1を描画及び表示させることができる。また、図17乃至図25の各(b)では、仮想カメラICは、撮影画像の外側にある場合について示している。
In each of FIGS. 17 to 25 (a), in order to make the drawn attached image a1 stand out, the predetermined area image such as the building shown in FIG. 26 (a) is omitted, and the drawn area of the attached image is omitted. Show only. Further, the display control unit 73 of the communication terminal 7 has a browser function. As a result, in the drawings of FIGS. 17 to 25 (a), a two-dimensional drawing area in both the image management system 5 and the communication terminal 7 is realized. That is, when the input data to the drawing area by the viewer Y on the communication terminal 7 side is sent to the image management system 5, processing is performed on the image management system 5 side, and the processed image data is sent to the communication terminal 7. By doing so, the communication terminal 7 can draw and display the drawn image g1 as shown in FIG. 26A on the
まずは、図15、及び図17乃至図22を用い、閲覧者Yが図26(a)に示されているように所定領域画像上に描画像g1を描画する場合において、撮影画像(全天球パノラマ画像)における添付画像a1の添付位置P4’を導出する処理を説明する。 First, when the viewer Y draws the drawn image g1 on the predetermined region image as shown in FIG. 26 (a) using FIGS. 15 and 17 to 22, the photographed image (omnidirectional image) The process of deriving the attachment position P4'of the attachment image a1 in the panorama image) will be described.
図17(a)に示されているように、閲覧者Yが通信端末7における二次元の描画領域内に所定の描画像(ここでは、正三角形)g1を描画すると、受付部72が描画の入力を受け付け、送受信部71から画像管理システム5の送受信部に描画を行う命令を送信する(ステップS101)。この時点で、画像管理システム5の特定部52は、三次元の仮想空間内において、図17(b)に示されているように、全天球パノラマ画像である撮影画像A1の位置、仮想カメラICの基準位置P01(X01,Y01,Z01)、及び所定領域Tを特定している。なお、所定領域Tが視野に入る場合の視点が仮想カメラICの位置P01である。また、図18以降は、図面が徐々に複雑になるため、所定領域Tの記載は省略する。
As shown in FIG. 17A, when the viewer Y draws a predetermined drawing image (here, an equilateral triangle) g1 in the two-dimensional drawing area of the communication terminal 7, the reception unit 72 draws. The input is received, and the transmission /
次に、画像管理システム5の作成部53は、図18(a)に示されているように、描画像g1の中心点p1(x1,y1)を特定する(ステップS102)。但し、中心点p1は視覚的に表示されないで、描画像g1のみが視覚的に表示される。更に、作成部53は、中心点をp1とする描画像g1を包含する添付画像a1を作成する(ステップS103)。但し、添付画像は視覚的に表示されないで、描画像g1のみが視覚的に表示される。この時点では、図18(b)に示されているように、三次元の仮想空間内の状態は変わらない。 Next, the creating unit 53 of the image management system 5 identifies the center point p1 (x1, y1) of the drawn image g1 as shown in FIG. 18A (step S102). However, the center point p1 is not visually displayed, and only the drawn image g1 is visually displayed. Further, the creating unit 53 creates an attached image a1 including the drawn image g1 having the center point as p1 (step S103). However, the attached image is not visually displayed, and only the drawn image g1 is visually displayed. At this point, as shown in FIG. 18B, the state in the three-dimensional virtual space does not change.
次に、変換部54は、図19(a)に示されている二次元の描画領域における中心点p1を、図19(b)における三次元の仮想領域内の特定位置(ここでは、点P2(X2,Y2,Z2))に変換する(ステップS104)。 Next, the conversion unit 54 sets the center point p1 in the two-dimensional drawing area shown in FIG. 19A at a specific position in the three-dimensional virtual area in FIG. 19B (here, the point P2). (X2, Y2, Z2)) (step S104).
次に、導出部55は、図20(b)に示されているように、点P2と仮想カメラICの位置P01とを通る直線D1を導出する(ステップS105)。この時点では、図20(a)に示されているように、二次元の描画領域内の状態は変わらない。 Next, the out-licensing unit 55 derives a straight line D1 passing through the point P2 and the position P01 of the virtual camera IC as shown in FIG. 20 (b) (step S105). At this point, as shown in FIG. 20 (a), the state in the two-dimensional drawing area does not change.
次に、導出部55は、図21(b)に示されているように、直線D1と撮影画像A1との交点P4(X4,Y4,Z4),P5(X5,Y5,Z5)を導出する(ステップS106)。ここでは、交点P4が仮想カメラICから遠い点で、交点P5が仮想カメラICから近い点である。更に、特定部52は、2つの交点P4,P5のうち、仮想カメラICから遠い交点P4を特定する(ステップS107)。この時点では、図21(a)に示されているように、二次元の描画領域内の状態は変わらない。 Next, as shown in FIG. 21B, the derivation unit 55 derives the intersections P4 (X4, Y4, Z4) and P5 (X5, Y5, Z5) between the straight line D1 and the captured image A1. (Step S106). Here, the intersection P4 is a point far from the virtual camera IC, and the intersection P5 is a point close to the virtual camera IC. Further, the identification unit 52 identifies the intersection P4 far from the virtual camera IC among the two intersections P4 and P5 (step S107). At this point, as shown in FIG. 21 (a), the state in the two-dimensional drawing area does not change.
次に、導出部55は、図22(b)に示されているように、交点P4から直線D1に沿って距離d(=βφ/q)だけ、全天球パノラマ画像の立体球の内側に移動した位置である点P4’(X4’,Y4’,Z4’)を導出する(ステップS108)。なお、βは定数、φは立体球の半径、qは仮想カメラICの位置P01と交点P4との直線距離である。この時点では、図22(a)に示されているように、二次元の描画領域内の状態は変わらない。このように、添付画像a1をdだけ立体球の内側に添付するのは、実験によって、図26(a)に示されているように、添付画像a1の描画像g11が、描画時の描画像g1に近い鮮明な画像として表示させることが可能であることが判明したからである。即ち、図26(a)に示されているように、一旦、描画像g1が描画され、後述のステップS109によって添付画像a1に関する各データが記憶された後、後述のステップS201以降の処理で添付画像a1に関する各データが読み出されて、撮影画像A1に添付画像a1が添付された場合に、添付画像a1の描画像g11が、描画時の描画像g1に近い鮮明な画像として表示されるからである。 Next, as shown in FIG. 22B, the derivation unit 55 is inside the three-dimensional sphere of the spherical panoramic image by a distance d (= βφ / q) from the intersection P4 along the straight line D1. The point P4'(X4', Y4', Z4'), which is the moved position, is derived (step S108). Β is a constant, φ is the radius of the three-dimensional sphere, and q is the linear distance between the position P01 of the virtual camera IC and the intersection P4. At this point, as shown in FIG. 22 (a), the state in the two-dimensional drawing area does not change. In this way, the attached image a1 is attached to the inside of the three-dimensional sphere by d. As shown in FIG. 26 (a), the drawn image g11 of the attached image a1 is a drawn image at the time of drawing. This is because it has been found that it is possible to display a clear image close to g1. That is, as shown in FIG. 26A, the drawn image g1 is once drawn, each data related to the attached image a1 is stored in step S109 described later, and then attached in the processes after step S201 described later. When each data related to the image a1 is read and the attached image a1 is attached to the captured image A1, the drawn image g11 of the attached image a1 is displayed as a clear image close to the drawn image g1 at the time of drawing. Is.
次に、記憶・読出部59は、添付画像に関する各データを添付画像管理テーブル(図14参照)に記憶する(ステップS109)。具体的には、記憶・読出部59は、撮影画像ID、添付画像ID、及び添付画像データのファイル名に対して、添付位置のフィールドに点P4’のX,Y,Zの各パラメータを関連付け、基準位置のフィールドに点P01のX,Y,Zの各パラメータを関連付け、添付画像のサイズのフィールドに添付画像a1の画像サイズのパラメータを関連付けて管理する。このように、添付位置だけでなく、基準位置も関連付けて管理するのは、図26(a)に示されているように、一旦、描画像g1が描画され、ステップS109によって添付画像a1に関する各データが記憶された後、後述のステップS201以降の処理で添付画像a1に関する各データが読み出されて、撮影画像A1に添付画像a1が添付された場合に、描画時の描画像g1と同じ形状の描画像g11が表示されるからである。逆に、添付位置を記憶して基準位置を記憶しない場合には、図22(b)における点P4’が明確になっても、直線D1の法線が不明確であるため、図26(a)に示されている読み出し後の描画像g11は、描画時の描画像g1と同じ形状としては表示されない状態が生じ得る。
Next, the storage /
なお、ステップS109の処理後、閲覧者Yは、図26(a)に示されている、描画像g1が描画された状態の所定領域画像(撮影画像)の表示を終了させる。 After the process of step S109, the viewer Y ends the display of the predetermined area image (photographed image) in the state in which the drawn image g1 is drawn, which is shown in FIG. 26 (a).
続いて、図16及び図23を用い、閲覧者Yが通信端末7を用いて、図26(a)に示されているように、再び所定領域画像(撮影画像)を表示させる場合に、画像管理システム5が、添付画像a1を撮影画像A1に添付した状態で表示させる処理を説明する。 Subsequently, using FIGS. 16 and 23, when the viewer Y uses the communication terminal 7 to display the predetermined area image (photographed image) again as shown in FIG. 26A, the image is displayed. The process in which the management system 5 displays the attached image a1 in a state of being attached to the captured image A1 will be described.
まず、閲覧者Yが通信端末7で、撮影画像の再表示のための入力を行うと、受付部72が撮影画像の再表示を受け付け、送受信部71から画像管理システム5の送受信部に再表示を行う命令を送信する(ステップS201)。この場合、再表示の対象である撮影画像の撮影画像IDも送信される。
First, when the viewer Y inputs for redisplaying the captured image on the communication terminal 7, the reception unit 72 accepts the redisplay of the captured image and redisplays it from the transmission /
次に、画像管理システム5の記憶・読出部59は、撮影画像IDを検索キーとして、添付画像管理テーブル(図14参照)を検索することにより、対応する各データ(添付画像ID、添付画像データのファイル名、添付位置、基準位置、及び添付が画像のサイズ)を読み出す(ステップS202)。
Next, the storage /
次に、添付部56は、ステップS202によって読み出された各データに基づき、図23(b)に示されているように、直線D1上の点P4’において、直線D1の法線に沿って添付画像a1を添付する(ステップS203)。これにより、図23(a)に示されているように、描画像g11が図22(a)に示されている描画時の描画像g1と同じ形状となる添付画像a1が、撮影画像A1に添付される。 Next, based on the data read in step S202, the attachment portion 56 is located along the normal line of the straight line D1 at the point P4'on the straight line D1 as shown in FIG. 23 (b). The attached image a1 is attached (step S203). As a result, as shown in FIG. 23 (a), the attached image a1 in which the drawn image g11 has the same shape as the drawn image g1 at the time of drawing shown in FIG. 22 (a) becomes the captured image A1. It will be attached.
次に、透過部57は、添付画像a1のうち、描画像g11以外の部分を透過させる(ステップS204)。そして、送受信部51が、通信端末7の送受信部71に、ステップS201〜S204の処理によって添付画像a1を添付した状態の撮影画像A1のデータを送信することで、通信端末7の表示制御部73が通信端末7のディスプレイ508上に、図26(a)に示されているような描画像g11を含む所定領域画像を表示させる(ステップS205)。
Next, the transparent portion 57 transmits a portion of the attached image a1 other than the drawn image g11 (step S204). Then, the transmission / reception unit 51 transmits the data of the captured image A1 in the state where the attached image a1 is attached by the processing of steps S201 to S204 to the transmission /
以上により、撮影画像を再表示する場合、描画時の描画像g1と同じ形状の描画像g11を含んだ撮影画像を再表示することができる。 As described above, when the captured image is redisplayed, the captured image including the drawn image g11 having the same shape as the drawn image g1 at the time of drawing can be redisplayed.
なお、図26(a)は、ステップS203による歪み補正ありでステップS204による透過処理ありの場合の所定領域画像の例であるが、図26(b)は、歪み補正なしで透過処理ありの場合の所定領域画像の例である。また、図27(a)は、歪み補正なしで透過処理ありの場合の全天球パノラマ画像の例である。更に、図27(b)は、歪み補正なしで透過処理なしの場合の全天球パノラマ画像の例である。 Note that FIG. 26 (a) is an example of a predetermined area image in the case where the distortion is corrected by step S203 and the transmission process is performed in step S204, but FIG. 26 (b) is the case where the transparency process is performed without distortion correction. This is an example of a predetermined area image of. Further, FIG. 27A is an example of an omnidirectional panoramic image in the case where there is transmission processing without distortion correction. Further, FIG. 27B is an example of an omnidirectional panoramic image in the case where there is no distortion correction and no transmission processing.
ところで、仮に、図24(a)に示されているように、閲覧者Yが通信端末7側で所定領域画像を、矢印の方向(左側)に移動させると、図24(b)に示されているように、三次元の仮想空間内では、仮想カメラICの位置がP01からP02(X02,Y02,Z02)の位置に移動する。これにより、添付画像a1は、視点P02から見た画像となるため、描画像g1は、図24(a)に示されているように、形状が変形した描画像g1’となる。 By the way, if the viewer Y moves the predetermined area image in the direction of the arrow (left side) on the communication terminal 7 side as shown in FIG. 24 (a), it is shown in FIG. 24 (b). As shown above, the position of the virtual camera IC moves from P01 to the position of P02 (X02, Y02, Z02) in the three-dimensional virtual space. As a result, the attached image a1 becomes an image viewed from the viewpoint P02, so that the drawn image g1 becomes a drawn image g1'in which the shape is deformed as shown in FIG. 24 (a).
更に、図25(a)に示されているように、新たに描画像g2が描かれると、図25(b)に示されているように、新たな直線D2上の点P14’の位置で、直線D2の法線に沿って添付画像a2が添付される。なお、図25(b)において、直線D2、点P02、点P12、点P14及び点P14’は、それぞれ、図22(b)において、直線D1、点P01、点P2、点P4及び点P4’に対応している。 Further, as shown in FIG. 25 (a), when a newly drawn image g2 is drawn, as shown in FIG. 25 (b), at the position of the point P14'on the new straight line D2. , Attached image a2 is attached along the normal line of the straight line D2. In addition, in FIG. 25 (b), the straight line D2, the point P02, the point P12, the point P14 and the point P14'are the straight line D1, the point P01, the point P2, the point P4 and the point P4', respectively. It corresponds to.
<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、添付画像a1を湾曲させないで平面画像として撮影画像A1に添付するため、閲覧者Yが、再度、撮影画像(所定領域画像)を閲覧する場合には、図26(a)に示されているように、描画像g11が描画時の描画像g1と同じ形状で表示される。即ち、図26(b)に示されている描画像g9のように湾曲された状態では表示されない。これにより、閲覧者Y(利用者)が、描画像g11を閲覧して困惑することを解消することができる。
<< Main effects of this embodiment >>
As described above, according to the present embodiment, since the attached image a1 is attached to the captured image A1 as a flat image without being curved, when the viewer Y browses the captured image (predetermined area image) again. , As shown in FIG. 26A, the drawn image g11 is displayed in the same shape as the drawn image g1 at the time of drawing. That is, it is not displayed in a curved state as in the drawn image g9 shown in FIG. 26 (b). As a result, it is possible to eliminate the confusion that the viewer Y (user) browses the drawn image g11.
〔実施形態の補足〕
上記実施形態における画像管理システム5は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
[Supplement to Embodiment]
The image management system 5 in the above embodiment may be constructed by a single computer, or may be constructed by a plurality of computers arbitrarily assigned by dividing each unit (function, means, or storage unit). Good.
また、上記実施形態の各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHD504は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。 In addition, a recording medium such as a CD-ROM in which each program of the above-described embodiment is stored, and an HD504 in which these programs are stored may be provided as a program product in Japan or overseas. it can.
1 撮影装置
3 通信端末
5 画像管理システム
7 通信端末
9 通信ネットワーク
51 送受信部(送信手段の一例、受信手段の一例)
52 特定部(特定手段の一例)
53 作成部(作成手段の一例)
54 変換部(変換手段の一例)
55 導出部(導出手段の一例)
56 添付部(添付手段の一例)
57 透過部(透過手段の一例)
1 Imaging device 3 Communication terminal 5 Image management system 7 Communication terminal 9 Communication network 51 Transmission / reception unit (example of transmission means, example of reception means)
52 Specific part (example of specific means)
53 Creation Department (Example of Creation Method)
54 Conversion unit (example of conversion means)
55 Derivation unit (example of derivation means)
56 Attachment (an example of attachment means)
57 Transmissive part (an example of transmissive means)
Claims (7)
全天球パノラマ画像である前記撮影画像上に描画された描画像に基づいて、当該描画像を含み前記撮影画像に添付するための添付画像を作成する作成手段と、
前記作成された添付画像を前記撮影画像に平面画像として添付する添付手段と、
を有することを特徴とする画像管理システム。 An image management system that manages captured images
A creation means for creating an attached image including the drawn image and attaching it to the captured image based on the drawn image drawn on the captured image which is a spherical panoramic image.
And attach attachment means as a planar image on the shooting image attached image created in the above,
An image management system characterized by having.
前記添付手段によって前記添付画像が添付された前記撮影画像を表示する通信端末と、
を有することを特徴とする画像通信システム。 The image management system according to any one of claims 1 to 4.
A communication terminal that displays the captured image to which the attached image is attached by the attachment means, and
An image communication system characterized by having.
前記画像管理システムは、
全天球パノラマ画像である前記撮影画像上に描画された描画像に基づいて、当該描画像を含み前記撮影画像に添付するための添付画像を作成する作成ステップと、
前記作成された添付画像を前記撮影画像に平面画像として添付する添付ステップと、
を実行することを特徴とする画像管理方法。 It is an image management method executed by an image management system that manages captured images.
The image management system
Based on the drawn image drawn on the captured image which is a spherical panoramic image, a creation step of creating an attached image including the drawn image and attaching to the captured image, and
And attaching attachment step as a planar image on the shooting image attached image created in the above,
An image management method characterized by executing.
A program for causing a computer to perform the method according to claim 6.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/270,583 US10147160B2 (en) | 2015-09-30 | 2016-09-20 | Image management apparatus and system, and method for controlling display of captured image |
EP16191016.1A EP3151541B1 (en) | 2015-09-30 | 2016-09-28 | Image management system, image communication system, method for controlling display of captured image, and carrier means |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015194289 | 2015-09-30 | ||
JP2015194289 | 2015-09-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017068832A JP2017068832A (en) | 2017-04-06 |
JP6816403B2 true JP6816403B2 (en) | 2021-01-20 |
Family
ID=58492578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016158865A Active JP6816403B2 (en) | 2015-09-30 | 2016-08-12 | Image management system, image communication system, image management method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6816403B2 (en) |
-
2016
- 2016-08-12 JP JP2016158865A patent/JP6816403B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017068832A (en) | 2017-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6756269B2 (en) | Communication terminals, image communication systems, communication methods, and programs | |
JP6186775B2 (en) | Communication terminal, display method, and program | |
JP6075066B2 (en) | Image management system, image management method, and program | |
JP2022031324A (en) | Communication management system, communication system, communication management method and program | |
JP2017135659A (en) | Image management system, image management method, image communication system and program | |
JP6954410B2 (en) | Management system | |
JP7205386B2 (en) | IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM | |
EP3328073A1 (en) | Image management system, image management method and program | |
JP2017212510A (en) | Image management device, program, image management system, and information terminal | |
US10147160B2 (en) | Image management apparatus and system, and method for controlling display of captured image | |
JP2018110384A (en) | Image processing apparatus, imaging system, image processing method and program | |
JP2018026642A (en) | Image management system, image communication system, image management method, and program | |
JP2018109946A (en) | Display device, program, and method for display | |
JP2018139052A (en) | Communication terminal, image communication system, display method and program | |
JP6586819B2 (en) | Image management system, image communication system, image management method, and program | |
JP6812643B2 (en) | Communication terminals, image communication systems, display methods, and programs | |
JP7017045B2 (en) | Communication terminal, display method, and program | |
JP6711118B2 (en) | Image management system, program and information terminal | |
JP7020523B2 (en) | Image display system, image display method, and program | |
JP6816403B2 (en) | Image management system, image communication system, image management method, and program | |
JP5942637B2 (en) | Additional information management system, image sharing system, additional information management method, and program | |
JP7358938B2 (en) | Communication terminal, image communication system, display method, and program | |
JP6992338B2 (en) | Communication system, communication management method, program, system and communication method | |
JP2017182548A (en) | Image management system, image management method, image communication system, and program | |
JP6665440B2 (en) | Image management system, image management method, image communication system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190712 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6816403 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |