JP2017041881A - Protective appliance, image communication system, radiation method, and program - Google Patents

Protective appliance, image communication system, radiation method, and program Download PDF

Info

Publication number
JP2017041881A
JP2017041881A JP2016158529A JP2016158529A JP2017041881A JP 2017041881 A JP2017041881 A JP 2017041881A JP 2016158529 A JP2016158529 A JP 2016158529A JP 2016158529 A JP2016158529 A JP 2016158529A JP 2017041881 A JP2017041881 A JP 2017041881A
Authority
JP
Japan
Prior art keywords
image
communication terminal
unit
irradiation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016158529A
Other languages
Japanese (ja)
Inventor
由登 西原
Yoshitaka Nishihara
由登 西原
荒木 禎史
Sadafumi Araki
禎史 荒木
大塚 愛子
Aiko Otsuka
愛子 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US15/237,821 priority Critical patent/US20170054907A1/en
Publication of JP2017041881A publication Critical patent/JP2017041881A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Accessories Of Cameras (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

SOLUTION: A protective appliance that allows a photographing device 1 to be attached, and can obtain data on an entire-celestial-sphere panoramic image from the attached photographing device 1, and transmit it to a prescribed communication terminal 7 via a communication network is adopted.EFFECT: Because the present invention is a protective appliance, it has high affinity with a construction site from a safety aspect. Worker at the site can perform work such as construction in consideration of the protective appliance, and therefore can reduce the possibility of toppling down a communication terminal 3 accidently.SELECTED DRAWING: Figure 8

Description

本発明は、保安器具、画像通信システム、照射方法及びプログラムに関するものである。   The present invention relates to a security device, an image communication system, an irradiation method, and a program.

近年、一度の撮影で、360°の全天球パノラマ画像を得る特殊なデジタルカメラが提供されている(特許文献1参照)。   In recent years, there has been provided a special digital camera that obtains a 360-degree panoramic image at one time (see Patent Document 1).

このデジタルカメラは、全天球パノラマ画像を得るが、そのままでは画像が湾曲して利用者が見えづらいため、スマートフォン等が全天球パノラマ画像の一部である所定領域画像を表示することで、利用者は従来のデジタルカメラで撮影された画像と同じ平面画像を閲覧することができる。   This digital camera obtains an omnidirectional panoramic image, but since the image is curved as it is and it is difficult to see the user, a smartphone or the like displays a predetermined area image that is a part of the omnidirectional panoramic image, The user can view the same planar image as the image taken with the conventional digital camera.

また、工事現場等に監視目的でカメラ(Webカメラ含む)が設置され、撮影された映像を現地又は遠隔地から閲覧するシステムが存在する。多くの場合、特定箇所の監視を目的としているため、壁、柱、ポールなどにカメラが固定される。更に、工事現場等において、監視目的ではなく、現場の作業の進捗状況を確認する為に現場にカメラを設置し遠隔地から閲覧したり監督したりしたいというニーズがある。このニーズを満たすには、全天球を撮影できるカメラを設置することが、1台のカメラで全体を俯瞰できるという点で、従来のカメラの設置と比較し優れている。全天球カメラを設置し工事現場等を内部から撮影する際に有効なカメラの設置位置は、従来の壁、柱、よりも撮影範囲の空間の中心に近い場所になる。また、施工過程の現場は日々変化していくことから、長期間の定点固定ではなく、状況に応じて簡単に位置を変更することが求められる。   In addition, there is a system in which a camera (including a Web camera) is installed at a construction site or the like for viewing, and a photographed image is browsed from a local location or a remote location. In many cases, the camera is fixed to a wall, a pillar, a pole, or the like because the purpose is to monitor a specific part. Furthermore, there is a need at a construction site or the like to install a camera on the site so as to check the progress of the work on the site, not for the purpose of monitoring, and to view or supervise it from a remote location. In order to satisfy this need, installation of a camera capable of photographing the entire celestial sphere is superior to installation of conventional cameras in that the entire camera can be viewed from a single camera. The effective camera installation position when the omnidirectional camera is installed and the construction site is photographed from the inside is closer to the center of the space of the photographing range than the conventional wall and pillar. In addition, since the construction site changes day by day, it is required not to fix the fixed point for a long time but to change the position easily according to the situation.

しかしながら、全天球カメラを建設現場での撮影範囲の中心に近い位置に設置しようとした場合、三脚等を使用し設置する必要があるが、この方法では現場作業員が誤って転倒させてしまう可能性があるという課題が生じる。   However, if the omnidirectional camera is to be installed at a position close to the center of the shooting range at the construction site, it is necessary to install it using a tripod, etc., but this method causes the field worker to accidentally tip over. There arises the problem that there is a possibility.

請求項1に係る発明は、被写体を撮像して全天球パノラマ画像のデータを得る撮影装置が取り付け可能な取付手段と、前記取り付けられた撮影装置から前記データを取得する取得手段と、所定の通信端末に前記全天球パノラマ画像のデータを転送する画像管理システムに対し、通信ネットワークを介して前記取得されたデータを送信する送信手段と、を有することを特徴とする保安器具である。   According to a first aspect of the present invention, there is provided attachment means to which an imaging device that captures a subject and obtains panoramic image data can be attached; acquisition means for acquiring the data from the attached imaging device; A security device, comprising: a transmission unit configured to transmit the acquired data via a communication network to an image management system that transfers the data of the panoramic image to the communication terminal.

以上説明したように本発明によれば、撮影装置を取り付けることができ、取り付けられた撮影装置から全天球パノラマ画像のデータを取得し、通信ネットワークを介して所定の通信端末に送ることができる保安器具を採用する。このように、保安器具であることで、安全面から工事現場との親和性が高く、現場の作業者は、保安器具を意識して(避けて)工事等の作業を進めることができるため、誤って保安器具を転倒させてしまう可能性を減少させることができる。   As described above, according to the present invention, an imaging device can be attached, and data of a panoramic image can be acquired from the attached imaging device and sent to a predetermined communication terminal via a communication network. Use safety equipment. In this way, because it is a safety device, it has a high affinity with the construction site from the safety aspect, and workers on the site can proceed with work such as construction while being aware of the safety device (avoidance) The possibility of accidentally overturning the security device can be reduced.

(a)は撮影装置の左側面図であり、(b)は撮影装置の正面図であり、(c)は撮影装置の平面図である。(A) is a left side view of the photographing apparatus, (b) is a front view of the photographing apparatus, and (c) is a plan view of the photographing apparatus. 撮影装置の使用イメージ図である。It is a usage image figure of an imaging device. (a)は撮影装置で撮影された半球画像(前)、(b)は撮影装置で撮影された半球画像(後)、(c)はメルカトル図法により表された画像を示した図である。(A) is the hemispherical image (front) image | photographed with the imaging device, (b) is the hemispherical image (back) image | photographed with the imaging device, (c) is the figure which showed the image represented by the Mercator projection. (a)メルカトル画像で球を被う状態を示した概念図、(b)全天球パノラマ画像を示した図である。(A) The conceptual diagram which showed the state which covers a sphere with a Mercator image, (b) The figure which showed the omnidirectional panoramic image. 全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is the figure which showed the position of the virtual camera and predetermined | prescribed area | region at the time of making an omnidirectional panoramic image into a three-dimensional solid sphere. (a)は図4の立体斜視図、(b)はディスプレイに所定領域の画像が表示された通信端末を示す図である。(A) is the three-dimensional perspective view of FIG. 4, (b) is a figure which shows the communication terminal by which the image of the predetermined area | region was displayed on the display. 所定領域情報と所定領域画像との関係を示した図である。It is the figure which showed the relationship between predetermined area information and a predetermined area image. 本発明の実施形態に係る画像通信システムの概略図である。1 is a schematic diagram of an image communication system according to an embodiment of the present invention. 撮影装置のハードウェア構成図である。It is a hardware block diagram of an imaging device. (a)は通信端末の斜視図、(b)は取付部の斜視図である。(A) is a perspective view of a communication terminal, (b) is a perspective view of an attachment part. (a)は通信端末の平面図、(b)は通信端末の側面図である。(A) is a top view of a communication terminal, (b) is a side view of a communication terminal. (a)ガイドレールの平面図、(b)図12(a)のA−A断面図、(c)図12(a)のB−B断面図である。(A) Top view of a guide rail, (b) AA sectional drawing of Fig.12 (a), (c) BB sectional drawing of Fig.12 (a). 通信端末3のハードウェア構成図である。2 is a hardware configuration diagram of a communication terminal 3. FIG. 画像管理システム及び通信端末7のハードウェア構成図である。It is a hardware block diagram of an image management system and the communication terminal. 画像データの登録及び取得の処理の概略を示した図である。It is the figure which showed the outline of the process of registration and acquisition of image data. 拠点管理テーブルを示す概念図である。It is a conceptual diagram which shows a base management table. 端末管理テーブルを示す概念図である。It is a conceptual diagram which shows a terminal management table. 撮影管理テーブルを示す概念図である。It is a conceptual diagram which shows an imaging | photography management table. 画像管理テーブルを示す概念図である。It is a conceptual diagram which shows an image management table. 拠点レイアウトマップの概念図である。It is a conceptual diagram of a base layout map. 撮影予約の処理を示すシーケンス図である。It is a sequence diagram which shows a process of imaging reservation. 撮影指示を行なう処理を示したシーケンス図である。It is the sequence figure which showed the process which performs photographing instruction. レイアウトマップの表示の処理を示すシーケンス図である。FIG. 10 is a sequence diagram illustrating a layout map display process. 撮影画像データの表示処理を示すシーケンス図である。It is a sequence diagram which shows the display process of picked-up image data. 監督者側の画面例を示す図である。It is a figure which shows the example of a screen by the supervisor side. 監督者側の画面例を示す図である。It is a figure which shows the example of a screen by the supervisor side. 監督者側の画面例を示す図である。It is a figure which shows the example of a screen by the supervisor side. 監督者側の画面例を示す図である。It is a figure which shows the example of a screen by the supervisor side. 監督者側の画面例を示す図である。It is a figure which shows the example of a screen by the supervisor side. 監督者側の画面例を示す図である。It is a figure which shows the example of a screen by the supervisor side. 監督者側の画面例を示す図である。It is a figure which shows the example of a screen by the supervisor side. 撮影現場の状況を示した図である。It is the figure which showed the condition of the photography field. 照射像の照射位置の移動の制御を示すフローチャートである。It is a flowchart which shows control of the movement of the irradiation position of an irradiation image. カーソルと照射像の照射位置との関係の画面例を示す図である。It is a figure which shows the example of a screen of the relationship between a cursor and the irradiation position of an irradiation image. カーソルと照射像の照射位置との関係を示す概念図である。It is a conceptual diagram which shows the relationship between a cursor and the irradiation position of an irradiation image.

以下、図面を用いて、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<<実施形態の概略>>
<全天球パノラマ画像の生成方法>
図1乃至図7を用いて、全天球パノラマ画像の生成方法について説明する。
<< Summary of Embodiment >>
<Generation method of panoramic image>
A method for generating an omnidirectional panoramic image will be described with reference to FIGS.

まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の正面図であり、図1(c)は撮影装置の平面図である。   First, the external appearance of the photographing apparatus 1 will be described with reference to FIG. The photographing apparatus 1 is a digital camera for obtaining a photographed image that is the basis of a panoramic image of a celestial sphere (360 °). 1A is a left side view of the photographing apparatus, FIG. 1B is a front view of the photographing apparatus, and FIG. 1C is a plan view of the photographing apparatus.

図1(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図1(a),(b),(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。これら撮像素子103a,103bは、半球画像(画角180°以上)の撮影が可能な光学部材(例えば、後述する魚眼レンズ102a,102b)と併せて用いられる。また、図1(b)に示されているように、撮影装置1の背面側(後側)には、シャッターボタン等の操作部115が設けられている。   As shown in FIG. 1A, the photographing apparatus 1 has a size that a human can hold with one hand. Further, as shown in FIGS. 1A, 1B, and 1C, on the upper part of the photographing apparatus 1, an image sensor 103a is provided on the front side (front side) and an image sensor is provided on the back side (rear side). 103b is provided. These image sensors 103a and 103b are used in combination with an optical member (for example, fish-eye lenses 102a and 102b described later) capable of capturing a hemispherical image (angle of view of 180 ° or more). Further, as shown in FIG. 1B, an operation unit 115 such as a shutter button is provided on the back side (rear side) of the photographing apparatus 1.

次に、図2を用いて、撮影装置1の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置1は、図2に示されているように、例えば、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。   Next, the usage situation of the imaging device 1 will be described with reference to FIG. FIG. 2 is a usage image diagram of the photographing apparatus. As shown in FIG. 2, the photographing apparatus 1 is used, for example, for photographing a subject around the user by holding it in his hand. In this case, two hemispherical images can be obtained by imaging the subject around the user by the imaging device 103a and the imaging device 103b shown in FIG.

次に、図3及び図4を用いて、撮影装置1で撮影された画像から全天球パノラマ画像が作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。図4(a)はメルカトル画像で球を被う状態を示した概念図、図4(b)は全天球パノラマ画像を示した図である。   Next, an outline of processing until an omnidirectional panoramic image is created from an image photographed by the photographing apparatus 1 will be described with reference to FIGS. 3 and 4. 3A is a hemispheric image (front side) photographed by the photographing apparatus, FIG. 3B is a hemispheric image photographed by the photographing apparatus (rear side), and FIG. 3C is represented by Mercator projection. FIG. 6 is a diagram showing an image (hereinafter referred to as “Mercatl image”). FIG. 4A is a conceptual diagram showing a state in which a sphere is covered with a Mercator image, and FIG. 4B is a diagram showing an omnidirectional panoramic image.

図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。   As shown in FIG. 3A, the image obtained by the image sensor 103a is a hemispherical image (front side) curved by a fish-eye lens 102a described later. Also, as shown in FIG. 3B, the image obtained by the image sensor 103b is a hemispherical image (rear side) curved by a fish-eye lens 102b described later. Then, the hemispherical image (front side) and the hemispherical image inverted by 180 degrees (rear side) are combined by the photographing apparatus 1 to create a Mercator image as shown in FIG.

そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、メルカトル画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球パノラマ画像が作成される。このように、全天球パノラマ画像は、メルカトル画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球パノラマ画像は、静止画であっても動画であってもよい。   By using OpenGL ES (Open Graphics Library for Embedded Systems), as shown in FIG. 4A, the Mercator image is pasted so as to cover the spherical surface, and FIG. An omnidirectional panoramic image as shown is created. Thus, the omnidirectional panoramic image is represented as an image in which the Mercator image faces the center of the sphere. OpenGL ES is a graphics library used for visualizing 2D (2-Dimensions) and 3D (3-Dimensions) data. Note that the omnidirectional panoramic image may be a still image or a moving image.

以上のように、全天球パノラマ画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球パノラマ画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。   As described above, since the omnidirectional panoramic image is an image pasted so as to cover the spherical surface, it is uncomfortable when viewed by a human. Therefore, by displaying a predetermined area (hereinafter referred to as “predetermined area image”) of a part of the omnidirectional panoramic image as a flat image with little curvature, a display that does not give a sense of incongruity to humans can be achieved. This will be described with reference to FIGS.

なお、図5は、全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、3次元の立体球として表示されている全天球パノラマ画像に対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球パノラマ画像が、3次元の立体球CSで表わされている。このように生成された全天球パノラマ画像が、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球パノラマ画像の外部に位置している。全天球パノラマ画像における所定領域Tは、この全天球パノラマ画像における仮想カメラICの位置の所定領域情報によって特定される。この所定領域情報は、例えば、座標(x(rH)、y(rV)、及び画角α(angle))又は座標(X,Y,Z)によって示される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球パノラマ画像に近づいたり、遠ざけたりすることで表現することもできる。   FIG. 5 is a diagram illustrating the positions of the virtual camera and the predetermined area when the panoramic image is a three-dimensional solid sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the omnidirectional panoramic image displayed as a three-dimensional solid sphere. FIG. 6A is a three-dimensional perspective view of FIG. 5, and FIG. 6B is a diagram showing a predetermined area image when displayed on the display. In FIG. 6A, the omnidirectional panoramic image shown in FIG. 4 is represented by a three-dimensional solid sphere CS. If the omnidirectional panoramic image generated in this way is a solid sphere CS, the virtual camera IC is located outside the omnidirectional panoramic image as shown in FIG. The predetermined area T in the omnidirectional panoramic image is specified by predetermined area information of the position of the virtual camera IC in the omnidirectional panoramic image. The predetermined area information is indicated by, for example, coordinates (x (rH), y (rV), and angle of view α (angle)) or coordinates (X, Y, Z). The zoom of the predetermined region T can be expressed by expanding or contracting the range (arc) of the angle of view α. The zoom of the predetermined area T can also be expressed by moving the virtual camera IC closer to or away from the panoramic image.

そして、図6(a)で示されているように、全天球パノラマ画像における所定領域Tの画像は、図6(b)に示されているように、所定のディスプレイに、所定領域画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報(x,y,α)によって表された画像である。   Then, as shown in FIG. 6A, the image of the predetermined area T in the omnidirectional panoramic image is displayed on the predetermined display as the predetermined area image as shown in FIG. 6B. Is displayed. The image shown in FIG. 6B is an image represented by predetermined area information (x, y, α) that is initially set (default).

ここで、図7を用いて、所定領域情報と所定領域画像の関係について説明する。なお、図7は、所定領域情報と所定領域画像の関係との関係を示した図である。図7に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角線画角を2Lとした場合の中心点CPが、所定領域情報の(x,y)パラメータとなる。fは仮想カメラICから所定領域Tの中心点CPまでの距離である。そして、図7では、一般的に以下の式(1)で示される三角関数が成り立つ。   Here, the relationship between the predetermined area information and the predetermined area image will be described with reference to FIG. FIG. 7 is a diagram showing the relationship between the predetermined region information and the relationship between the predetermined region images. As shown in FIG. 7, the center point CP when the diagonal field angle of the predetermined area T represented by the field angle α of the virtual camera IC is 2L is the (x, y) parameter of the predetermined area information. Become. f is the distance from the virtual camera IC to the center point CP of the predetermined area T. In FIG. 7, a trigonometric function represented by the following formula (1) is generally established.

Lf=tan(α/2)・・・(式1)
<画像通信システムの概略>
続いて、図8を用いて、本実施形態の画像通信システムの構成の概略について説明する。図8は、本実施形態の画像通信システムの構成の概略図である。
Lf = tan (α / 2) (Formula 1)
<Outline of image communication system>
Next, an outline of the configuration of the image communication system according to the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram of the configuration of the image communication system of the present embodiment.

図8に示されているように、本実施形態の画像通信システムは、撮影装置1、通信端末3、画像管理システム5、及び通信端末7によって構成されている。   As shown in FIG. 8, the image communication system according to the present embodiment includes an imaging device 1, a communication terminal 3, an image management system 5, and a communication terminal 7.

このうち、撮影装置1は、上述のように、全天球パノラマ画像を得るためのデジタルカメラである。なお、この撮影装置1は、一般的なデジタルカメラであっても良く、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために全天球パノラマ画像を得るためのデジタルカメラとして説明を行う。通信端末3は、撮影装置1への充電やデータ送受信を行なうクレードル(Cradle)の役割を果たし、一例として、工事現場等に設置される保安器具(ここでは、カラーコーン)の場合について示している。また、通信端末3は、接点を介して撮影装置1とデータ通信を行なうことができると共に、WiFi等の無線通信技術を利用し、通信ネットワーク9を介して画像管理システム5とデータ通信を行なうことができる。なお、通信ネットワーク9は、例えば、インターネットである。   Among these, the imaging device 1 is a digital camera for obtaining an omnidirectional panoramic image as described above. The photographing apparatus 1 may be a general digital camera. When the communication terminal 3 has a camera, the communication terminal 3 can be a digital camera. In the present embodiment, the description will be made as a digital camera for obtaining an omnidirectional panoramic image for easy understanding. The communication terminal 3 serves as a cradle that charges the photographing device 1 and transmits / receives data. As an example, the communication terminal 3 shows a case of a security device (here, a color cone) installed at a construction site or the like. . In addition, the communication terminal 3 can perform data communication with the photographing apparatus 1 through the contact point, and can perform data communication with the image management system 5 through the communication network 9 using a wireless communication technology such as WiFi. Can do. The communication network 9 is, for example, the Internet.

また、画像管理システム5は、例えば、サーバコンピュータであり、通信ネットワーク9を介して、通信端末3,5とデータ通信を行なうことができる。画像管理システム5には、OpenGL ESがインストールされており、全天球パノラマ画像を作成する。また、画像管理システム5は、全天球パノラマ画像の一部の画像(所定領域画像又は後述の特定領域画像)を作成し、通信端末7にサムネイルデータ及び撮影画像データを提供する。   The image management system 5 is a server computer, for example, and can perform data communication with the communication terminals 3 and 5 via the communication network 9. OpenGL ES is installed in the image management system 5 and creates a panoramic image. Further, the image management system 5 creates a partial image (predetermined region image or a specific region image described later) of the omnidirectional panoramic image and provides thumbnail data and captured image data to the communication terminal 7.

また、通信端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理システム5とデータ通信を行なうことができる。なお、画像管理システム5は、単一のサーバコンピュータによって構成されてもよいし、複数のサーバコンピュータによって構成されてもよい。   The communication terminal 7 is, for example, a notebook PC (Personal Computer), and can perform data communication with the image management system 5 via the communication network 9. The image management system 5 may be configured by a single server computer or may be configured by a plurality of server computers.

更に、撮影装置1、及び通信端末3は、アパート等の各工事拠点で作業者Xによって所定の位置に設置される。通信端末7は、各工事拠点を統括及び遠隔的に監督する本社等に設置され、画像管理システム5を介して送られて来る各拠点の状況を表した画像を表示することで、監督者Yが各拠点の状況を表した画面(以下、「拠点状況画面」と示す)を閲覧することができる。画像管理システム5は、各拠点の通信端末3から送られて来た撮影画像データを通信端末7に提供するサービスを行なうサービス会社等に設置されている。   Furthermore, the photographing device 1 and the communication terminal 3 are installed at predetermined positions by the worker X at each construction base such as an apartment. The communication terminal 7 is installed in a head office or the like that supervises and remotely supervises each construction site, and displays an image representing the status of each site sent via the image management system 5, so that the supervisor Y Can view a screen showing the status of each site (hereinafter referred to as a “site status screen”). The image management system 5 is installed in a service company that provides a service for providing the communication terminal 7 with captured image data sent from the communication terminal 3 at each site.

<実施形態のハードウェア構成>
次に、図9乃至図14を用いて、本実施形態の撮影装置1、通信端末3,7、及び画像管理システム5のハードウェア構成を詳細に説明する。
<Hardware Configuration of Embodiment>
Next, the hardware configuration of the imaging device 1, the communication terminals 3 and 7, and the image management system 5 according to the present embodiment will be described in detail with reference to FIGS.

まず、図9を用いて、撮影装置1のハードウェア構成を説明する。なお、図9は、撮影装置のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全方位撮影装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。   First, the hardware configuration of the photographing apparatus 1 will be described with reference to FIG. FIG. 9 is a hardware configuration diagram of the photographing apparatus. In the following, the photographing apparatus 1 is an omnidirectional photographing apparatus using two imaging elements, but the number of imaging elements may be three or more. In addition, it is not always necessary to use an apparatus dedicated to omnidirectional imaging. By attaching a retrofit omnidirectional imaging unit to a normal digital camera, smartphone, or the like, the apparatus may have substantially the same function as the imaging apparatus 1. .

図9に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。   As shown in FIG. 9, the imaging apparatus 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory). ) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, and antenna 117a.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。   Among these, the imaging unit 101 includes wide-angle lenses (so-called fish-eye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging units provided corresponding to the wide-angle lenses. Elements 103a and 103b are provided. The image sensors 103a and 103b are image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor that convert an optical image obtained by a fisheye lens into image data of an electric signal and output the image data. A timing generation circuit for generating a vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。   The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I / F bus. On the other hand, the imaging elements 103 a and 103 b of the imaging unit 101 are connected to a serial I / F bus (I2C bus or the like) separately from the imaging control unit 105. The image processing unit 104 and the imaging control unit 105 are connected to the CPU 111 via the bus 110. Further, ROM 112, SRAM 113, DRAM 114, operation unit 115, network I / F 116, communication unit 117, and electronic compass 118 are connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているようなメルカトル画像のデータを作成する。   The image processing unit 104 takes in the image data output from the image sensors 103a and 103b through the parallel I / F bus, performs predetermined processing on the respective image data, and then combines these image data. Then, data of a Mercator image as shown in FIG.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。   In general, the imaging control unit 105 sets a command or the like in a register group of the imaging elements 103a and 103b using the I2C bus with the imaging control unit 105 as a master device and the imaging elements 103a and 103b as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to capture status data of the register groups of the imaging elements 103a and 103b and send it to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。   The imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some photographing apparatuses have a preview display function by a display and a function corresponding to a moving image display. In this case, output of image data from the image sensors 103a and 103b is continuously performed at a predetermined frame rate (frame / min).

また、撮像制御ユニット105は、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置には表示部が設けられていないが、表示部を設けてもよい。   The imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of the image data of the imaging elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the photographing apparatus is not provided with a display unit, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。   The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。   The CPU 111 controls the overall operation of the photographing apparatus 1 and executes necessary processes. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data being processed by the image processing unit 104 and processed Mercator image data.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。   The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel that has both display and operation functions, and the like. The user inputs various shooting modes and shooting conditions by operating the operation buttons.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。   The network I / F 116 is a general term for an interface circuit (USB I / F or the like) with an external medium such as an SD card or a personal computer. Further, the network I / F 116 may be a network interface regardless of wireless or wired. The data of the Mercator image stored in the DRAM 114 is recorded on an external medium via the network I / F 116 or the communication terminal 3 or the like via the network I / F 116 which becomes a network I / F as necessary. Or sent to an external device.

通信部117は、撮影装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)やNFC等の短距離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。   The communication unit 117 communicates with an external device such as the communication terminal 3 by a short-range wireless technology such as WiFi (wireless fidelity) or NFC via the antenna 117 a provided in the photographing apparatus 1. The communication unit 117 can also transmit Mercator image data to an external device of the communication terminal 3.

電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。   The electronic compass 118 calculates the azimuth and tilt (Roll rotation angle) of the photographing apparatus 1 from the earth's magnetism, and outputs azimuth / tilt information. This azimuth / tilt information is an example of related information (metadata) along Exif, and is used for image processing such as image correction of a captured image. Note that the related information includes each data of the image capturing date and time and the data capacity of the image data.

次に、図10及び図14を用いて、通信端末3のハードウェア構成を説明する。なお、図10(a)は通信端末の斜視図、図10(b)は取付部の斜視図である。図11(a)は通信端末の平面図、図11(b)は通信端末の側面図である。   Next, the hardware configuration of the communication terminal 3 will be described with reference to FIGS. 10 and 14. 10A is a perspective view of the communication terminal, and FIG. 10B is a perspective view of the mounting portion. FIG. 11A is a plan view of the communication terminal, and FIG. 11B is a side view of the communication terminal.

図10(a)に示されているように、通信端末3は、主に、カラーコーン300、照射位置制御部350、及びカバー390によって構成されている。カラーコーン300は、工事現場等で用いられる内部が空洞のプレスチック製である。カラーコーン300の内空部分には、通信制御部310、及びバッテリ330が備え付けられている。通信制御部310は、撮影装置1から取得したデータを、通信ネットワーク9を介して画像管理システム5に送信することができる。バッテリ330は、二次電池として停電に対応するための役割を果たす。バッテリ330は、プラグ399が接続されたコンセントから給電されることで、充電することができる。また、カラーコーン300の上部には、撮影装置1を取り付けるための凹部を有する取付部400が備えられている。   As shown in FIG. 10A, the communication terminal 3 mainly includes a color cone 300, an irradiation position control unit 350, and a cover 390. The color cone 300 is made of a plastic with a hollow inside used in a construction site or the like. A communication control unit 310 and a battery 330 are provided in the inner space of the color cone 300. The communication control unit 310 can transmit the data acquired from the imaging device 1 to the image management system 5 via the communication network 9. The battery 330 plays a role for responding to a power failure as a secondary battery. The battery 330 can be charged by being supplied with power from an outlet to which the plug 399 is connected. In addition, an attachment portion 400 having a recess for attaching the photographing apparatus 1 is provided on the upper portion of the color cone 300.

図10(b)に示されているように、取付部400には、撮影装置1を挿脱自在な凹部である開口部410が形成されている。この開口部410の底部には、撮影装置1の底面に形成されているUSB接続I/Fの凹部に挿脱自在な凸部のUSB接続I/F420が設けられている。また、撮影装置1の撮像素子103aが常に通信端末3の特定の方向を向くように、撮影装置1が通信端末3に装着される。カバー390は、プラスチック製又はガラス製の透明のカバーであり、撮影装置1を保護する。なお、USB接続I/Fは、Micro USB接続I/Fであってもよい。   As shown in FIG. 10B, the attachment portion 400 is formed with an opening 410 that is a concave portion into which the photographing apparatus 1 can be inserted and removed. A convex USB connection I / F 420 that can be inserted into and removed from a concave portion of the USB connection I / F formed on the bottom surface of the photographing apparatus 1 is provided at the bottom of the opening 410. In addition, the imaging device 1 is attached to the communication terminal 3 so that the image sensor 103 a of the imaging device 1 always faces a specific direction of the communication terminal 3. The cover 390 is a plastic or glass transparent cover and protects the photographing apparatus 1. The USB connection I / F may be a Micro USB connection I / F.

また、取付部400と通信制御部310と間にはケーブル391が接続されており、このケーブル391は取付部400と通信制御部310との間のデータの送受信や給電に利用される。照射位置制御部350と通信制御部310と間にはケーブル392が接続されており、このケーブル392は照射位置制御部350と通信制御部310との間のデータの送受信や給電に利用される。通信制御部310とバッテリ330と間にはケーブル393が接続されており、このケーブル393はバッテリ330から通信制御部310への給電に利用される。バッテリ330とプラグ399との間には給電ケーブル394が接続されている。   Further, a cable 391 is connected between the attachment unit 400 and the communication control unit 310, and this cable 391 is used for data transmission / reception and power feeding between the attachment unit 400 and the communication control unit 310. A cable 392 is connected between the irradiation position control unit 350 and the communication control unit 310, and this cable 392 is used for data transmission / reception and power feeding between the irradiation position control unit 350 and the communication control unit 310. A cable 393 is connected between the communication control unit 310 and the battery 330, and this cable 393 is used for power supply from the battery 330 to the communication control unit 310. A power supply cable 394 is connected between the battery 330 and the plug 399.

また、図11(a)、(b)に示されているように、照射位置制御部350は、主に、ガイドレール360、複数の支持棒361〜368、支持台372、及び照射装置380によって構成されている。これらのうち、ガイドレール360は、支持台372をθ方向に回動させるためのレールである。複数の支持棒361〜368は、カラーコーン300にガイドレール360を設けて、カラーコーン300を支えるための棒である。支持台372は、照射装置380を設置する土台になるとともに、ガイドレール360に沿ってθ方向に回動することで、照射装置380を回動させることができる。   Further, as shown in FIGS. 11A and 11B, the irradiation position control unit 350 mainly includes a guide rail 360, a plurality of support rods 361 to 368, a support base 372, and an irradiation device 380. It is configured. Among these, the guide rail 360 is a rail for rotating the support base 372 in the θ direction. The plurality of support bars 361 to 368 are bars for supporting the color cone 300 by providing the color cone 300 with a guide rail 360. The support base 372 becomes a base on which the irradiation device 380 is installed, and can rotate the irradiation device 380 by rotating in the θ direction along the guide rail 360.

次に、図12を用いて、照射位置制御部350の機構について詳細に説明する。図12(a)は照射位置制御部350の平面図、図12(b)は図12(a)のA−A断面図、図12(c)は図12(a)のB−B断面図である。   Next, the mechanism of the irradiation position control unit 350 will be described in detail with reference to FIG. 12A is a plan view of the irradiation position control unit 350, FIG. 12B is a cross-sectional view taken along line AA in FIG. 12A, and FIG. 12C is a cross-sectional view taken along line BB in FIG. It is.

図12(a),(b)に示されているように、照射位置制御部350は、主に、モータ351、ガイドレール360、回転台371、支持台372、平歯車374、及び照射装置380によって構成されている。   12A and 12B, the irradiation position control unit 350 mainly includes a motor 351, a guide rail 360, a rotating base 371, a support base 372, a spur gear 374, and an irradiation device 380. It is constituted by.

モータ351は、サーボモータであり、回転軸375を介して平歯車374に所定の回転を与える。また、ガイドレール360上には、リング状の回転台371が回転自在に設けられている。回転台371には、内歯車(インターナルギヤ)が形成されており、平歯車374と噛み合い、平歯車374がモータ351によって回転することで、回転台371がガイドレール360に対してθ方向に回転する。これに伴い、回転台371に設けられた支持台372もθ方向に回転するため、支持台372上に設けられた照射装置380もθ方向に回転する。   The motor 351 is a servo motor and applies a predetermined rotation to the spur gear 374 via the rotation shaft 375. On the guide rail 360, a ring-shaped turntable 371 is rotatably provided. An internal gear (internal gear) is formed on the turntable 371, meshed with the spur gear 374, and the spur gear 374 is rotated by the motor 351, so that the turntable 371 moves in the θ direction with respect to the guide rail 360. Rotate. Along with this, the support table 372 provided on the turntable 371 also rotates in the θ direction, so that the irradiation device 380 provided on the support table 372 also rotates in the θ direction.

更に、図12(c)に示されているように、照射装置380の内部には、ポインタ381、及びモータ353が設けられている。ポインタ381の先端部にはLED355が設けられている。モータ353は、サーボモータであり、回転軸383を介してポインタ381をφ方向に回転させることができる。   Furthermore, as shown in FIG. 12C, a pointer 381 and a motor 353 are provided inside the irradiation device 380. An LED 355 is provided at the tip of the pointer 381. The motor 353 is a servo motor and can rotate the pointer 381 in the φ direction via the rotation shaft 383.

これにより、照射位置制御部350は、撮影装置1が全天球パノラマ撮影する被写体のほとんどの領域に対して、レーザ光を照射することができる。   As a result, the irradiation position control unit 350 can irradiate the laser light to almost the area of the subject that the imaging apparatus 1 performs panoramic panoramic imaging.

次に、図13を用いて、通信端末3のハードウェア構成を説明する。図13は、通信端末3の電気的なハードウェア構成図である。   Next, the hardware configuration of the communication terminal 3 will be described with reference to FIG. FIG. 13 is an electrical hardware configuration diagram of the communication terminal 3.

図13に示されているように、通信端末3は、通信制御部310及び照射位置制御部350によって構成されている。このうち、通信制御部310は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305、各種デバイスとの電気的な接続を行なうためのデバイスI/F308を備えている。このデバイスI/Fにより、図10に示されているように、撮影装置1が通信端末3に取り付けられた場合に、通信端末3が撮影装置1と電気的に接続する。   As illustrated in FIG. 13, the communication terminal 3 includes a communication control unit 310 and an irradiation position control unit 350. Among these, the communication control unit 310 is a CPU 301 that controls the operation of the entire communication terminal 3, a ROM 302 that stores basic input / output programs, a RAM (Random Access Memory) 303 that is used as a work area of the CPU 301, and the control of the CPU 301. An EEPROM (Electrically Erasable and Programmable ROM) 304 that reads or writes data, a CMOS sensor 305 as an image sensor that captures an image of a subject under the control of the CPU 301, and a device for electrical connection with various devices An I / F 308 is provided. With this device I / F, as shown in FIG. 10, when the photographing apparatus 1 is attached to the communication terminal 3, the communication terminal 3 is electrically connected to the photographing apparatus 1.

なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。   The EEPROM 304 stores an operating system (OS) executed by the CPU 301, other programs, and various data. A CCD sensor may be used instead of the CMOS sensor 305.

更に、通信端末3は、アンテナ313a、このアンテナ313aを利用して無線通信信号により、他の装置(端末)と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン320を備えている
また、デバイスI/F308には、照射位置制御部350が電気的に接続されている。照射位置制御部350には、図12(b)に示されている通信端末3のガイドレール360に沿って照射装置380を回転(θ方向への回転)させるためのモータ351、及び、モータ351の駆動を制御するためのモータドライバ352が設けられている。また、照射位置制御部350には、図12(c)に示されている通信端末3のガイドレール360の特定位置で上下方向にポインタ381を回転(φ方向への回転)させるためのモータ353、及び、モータ353の駆動を制御するためのモータドライバ354が設けられている。更に、照射位置制御部350には、レーザ光を照射するためのLED(Light Emitting Diode)355、及び、LED355の照射のONとOFFを制御するためのLED制御回路356が設けられている。なお、照射位置制御部350のモータドライバ352、モータドライバ354、及びLED制御回路356は、通信制御部310のCPU301によって処理及び動作が制御される。
Further, the communication terminal 3 includes an antenna 313a, a communication unit 313 that communicates with other devices (terminals) using a wireless communication signal using the antenna 313a, a GPS (Global Positioning Systems) satellite, or an IMES (indoor GPS). A GPS receiving unit 314 that receives a GPS signal including position information (latitude, longitude, and altitude) of the communication terminal 3 by an indoor MEssaging System), an address bus, a data bus, and the like for electrically connecting the above units Further, the irradiation position control unit 350 is electrically connected to the device I / F 308. The irradiation position control unit 350 includes a motor 351 for rotating (rotating in the θ direction) the irradiation device 380 along the guide rail 360 of the communication terminal 3 illustrated in FIG. A motor driver 352 for controlling the driving of the motor is provided. Further, the irradiation position control unit 350 includes a motor 353 for rotating the pointer 381 in the vertical direction (rotation in the φ direction) at a specific position of the guide rail 360 of the communication terminal 3 illustrated in FIG. , And a motor driver 354 for controlling the drive of the motor 353 is provided. Furthermore, the irradiation position control unit 350 is provided with an LED (Light Emitting Diode) 355 for irradiating laser light, and an LED control circuit 356 for controlling ON / OFF of irradiation of the LED 355. The processing and operation of the motor driver 352, the motor driver 354, and the LED control circuit 356 of the irradiation position control unit 350 are controlled by the CPU 301 of the communication control unit 310.

次に、図14を用いて、画像管理システム5及びノートPCの場合の通信端末7のハードウェア構成を説明する。なお、図14は、画像管理システム5及び通信端末7のハードウェア構成図である。画像管理システム5、及び通信端末7は、ともにコンピュータであるため、以下では、画像管理システム5の構成について説明し、通信端末7の構成の説明は省略する。   Next, the hardware configuration of the communication terminal 7 in the case of the image management system 5 and the notebook PC will be described with reference to FIG. FIG. 14 is a hardware configuration diagram of the image management system 5 and the communication terminal 7. Since the image management system 5 and the communication terminal 7 are both computers, the configuration of the image management system 5 will be described below, and the description of the configuration of the communication terminal 7 will be omitted.

画像管理システム5は、画像管理システム5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、画像管理システム5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を図14に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。   The image management system 5 includes a CPU 501 that controls the overall operation of the image management system 5, a ROM 502 that stores programs used to drive the CPU 501 such as an IPL, a RAM 503 that is used as a work area for the CPU 501, and a program for the image management system 5. For reading various data such as HD504, HDD (Hard Disk Drive) 505 for controlling the reading or writing of various data to the HD504 in accordance with the control of the CPU 501, and data reading or writing (storage) for a recording medium 506 such as a flash memory. A media drive 507 to be controlled, a display 508 for displaying various information such as a cursor, menu, window, character, or image, and a network I / F 509 for data communication using the communication network 9 An example of a keyboard 511 having a plurality of keys for inputting characters, numerical values, various instructions, a mouse 512 for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like, and a removable recording medium A CD-ROM drive 514 for controlling the reading or writing of various data with respect to a CD-ROM (Compact Disc Read Only Memory) 513, and the above-mentioned components are electrically connected as shown in FIG. A bus line 510 such as an address bus or a data bus.

<<実施形態の機能構成>>
次に、図9乃至図14、及び図15を用いて、本実施形態の機能構成について説明する。図15は、本実施形態の画像通信システムの一部を構成する、撮影装置1、通信端末3、画像管理システム5、及び通信端末7の各機能ブロック図である。図15では、画像管理システム5が、通信ネットワーク9を介して、通信端末3及び通信端末7とデータ通信することができる。
<< Functional Configuration of Embodiment >>
Next, the functional configuration of this embodiment will be described with reference to FIGS. 9 to 14 and FIG. FIG. 15 is a functional block diagram of the image capturing device 1, the communication terminal 3, the image management system 5, and the communication terminal 7 that constitute a part of the image communication system of the present embodiment. In FIG. 15, the image management system 5 can perform data communication with the communication terminal 3 and the communication terminal 7 via the communication network 9.

<撮影装置1の機能構成>
図15に示されているように、撮影装置1は、受付部12、撮像部13、集音部14、接続部18、及び記憶・読出部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of photographing apparatus 1>
As illustrated in FIG. 15, the imaging device 1 includes a reception unit 12, an imaging unit 13, a sound collection unit 14, a connection unit 18, and a storage / readout unit 19. Each of these units is a function or means realized by any of the constituent elements shown in FIG. 9 being operated by a command from the CPU 111 in accordance with a shooting storage program developed from the SRAM 113 onto the DRAM 114. It is.

また、撮影装置1は、図9に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。   Further, the photographing apparatus 1 has a storage unit 1000 constructed by the ROM 112, the SRAM 113, and the DRAM 114 shown in FIG.

(撮影装置1の各機能構成)
次に、図9及び図15を用いて、撮影装置1の各機能構成について更に詳細に説明する。
(Each functional configuration of the photographing apparatus 1)
Next, each functional configuration of the photographing apparatus 1 will be described in more detail with reference to FIGS. 9 and 15.

撮影装置1の受付部12は、主に、図9に示されている操作部115及びCPU111の処理によって実現され、利用者(図8では、作業者X)からの操作入力を受け付ける。   The accepting unit 12 of the photographing apparatus 1 is mainly realized by the processing of the operation unit 115 and the CPU 111 shown in FIG. 9 and accepts an operation input from a user (worker X in FIG. 8).

撮像部13は、主に、図9に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。   The imaging unit 13 is realized mainly by the processing of the imaging unit 101, the image processing unit 104, the imaging control unit 105, and the CPU 111 shown in FIG. 9, and images a landscape and the like to obtain captured image data.

集音部14は、図9に示されている108及び音処理ユニット109、並びにCPU111の処理によって実現され、撮影装置1の周囲の音を収音する。   The sound collecting unit 14 is realized by the processing of the CPU 108, the sound processing unit 109, and the CPU 111 shown in FIG. 9, and collects sounds around the photographing apparatus 1.

接続部18は、主に、撮影装置1の底面に設けられた凹部のUSB接続I/F、及びCPU111の処理によって実現され、通信端末3からの電源供給を受けると共に、データ通信を行う。   The connection unit 18 is realized mainly by the USB connection I / F of the recess provided on the bottom surface of the photographing apparatus 1 and the processing of the CPU 111, and receives power supply from the communication terminal 3 and performs data communication.

記憶・読出部19は、主に、図9に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。   The storage / reading unit 19 is realized mainly by the processing of the CPU 111 shown in FIG. 9, and stores various data (or information) in the storage unit 1000 or stores various data (or information) from the storage unit 1000. Read out.

<通信端末3の機能構成>
図15に示されているように、通信端末3は、通信制御部310及び照射位置制御部350を有している。このうち、通信制御部310は、送受信部31、判断部33、算出部34、接続部38、及び記憶・読出部39を有している。これら各部は、図13に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された通信端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of communication terminal 3>
As illustrated in FIG. 15, the communication terminal 3 includes a communication control unit 310 and an irradiation position control unit 350. Among these, the communication control unit 310 includes a transmission / reception unit 31, a determination unit 33, a calculation unit 34, a connection unit 38, and a storage / reading unit 39. Each of these units is a function or means realized by any of the constituent elements shown in FIG. 13 being operated by a command from the CPU 301 in accordance with the program for the communication terminal 3 expanded from the EEPROM 304 onto the RAM 303. It is.

また、通信端末3は、図13に示されているROM302、RAM303、及びEEPROM304によって構築される記憶部3000を有している。   Further, the communication terminal 3 includes a storage unit 3000 constructed by the ROM 302, the RAM 303, and the EEPROM 304 shown in FIG.

一方、照射位置制御部350は、変更部35、及び照射部36を有している。これら各部は、図13に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された通信端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。   On the other hand, the irradiation position control unit 350 includes a changing unit 35 and an irradiation unit 36. Each of these units is a function or means realized by any of the constituent elements shown in FIG. 13 being operated by a command from the CPU 301 in accordance with the program for the communication terminal 3 expanded from the EEPROM 304 onto the RAM 303. It is.

(通信端末3の各機能構成)
次に、図13及び図15を用いて、通信端末3の各機能構成について更に詳細に説明する。
(Each functional configuration of the communication terminal 3)
Next, each functional configuration of the communication terminal 3 will be described in more detail with reference to FIGS. 13 and 15.

通信制御部310の送受信部31は、主に、図13に示されている通信部313及びCPU301の処理によって実現され、通信ネットワーク9を介して、画像管理システム5と各種データ(または情報)の送受信を行う。   The transmission / reception unit 31 of the communication control unit 310 is mainly realized by the processing of the communication unit 313 and the CPU 301 shown in FIG. 13, and the image management system 5 and various data (or information) are transmitted via the communication network 9. Send and receive.

判断部33は、主に、図13に示されているCPU301の処理によって実現され、カーソル4による指定位置と、LEDによる照射位置との間の距離が閾値(例えば、現実世界の10cm)以内であるか否か等の判断を行なう。   The determination unit 33 is realized mainly by the processing of the CPU 301 shown in FIG. 13, and the distance between the designated position by the cursor 4 and the irradiation position by the LED is within a threshold (for example, 10 cm in the real world). It is judged whether or not there is.

算出部34は、主に、図13に示されているCPU301の処理によって実現され、撮影装置1における全天球パノラマ画像の座標系から、通信端末3が設置された拠点の空間の座標系に変換することで、全天球パノラマ画像における指定位置から、拠点の空間におけるレーザ光の照射位置を算出する。   The calculation unit 34 is mainly realized by the processing of the CPU 301 shown in FIG. 13, and changes from the coordinate system of the panoramic image of the photographic device 1 to the coordinate system of the space of the base where the communication terminal 3 is installed. By converting, the irradiation position of the laser beam in the base space is calculated from the designated position in the panoramic image.

接続部38は、主に、USB接続I/F420、及びCPU301の処理によって実現され、通信端末3に電源供給すると共にデータ通信を行う。接続部18は全天球パノラマ画像データを提供する提供手段の一例であり、接続部38は全天球パノラマ画像データの取得する取得手段の一例である。   The connection unit 38 is mainly realized by processing of the USB connection I / F 420 and the CPU 301, and supplies power to the communication terminal 3 and performs data communication. The connection unit 18 is an example of a providing unit that provides omnidirectional panoramic image data, and the connection unit 38 is an example of an acquisition unit that acquires omnidirectional panoramic image data.

記憶・読出部39は、主に、図13に示されているCPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。   The storage / reading unit 39 is mainly realized by the processing of the CPU 301 shown in FIG. 13, and stores various data (or information) in the storage unit 3000 or stores various data (or information) from the storage unit 3000. Read out.

一方、照射位置制御部350の変更部35は、主に、図13に示されているモータドライバ352,354、及びモータ351,353、並びにCPU301の処理によって実現され、照射装置380のθ方向への回転(左右移動)及びポインタ381のφ方向への回転(上下移動)の変更を制御する。また、照射位置制御部350の照射部36は、主に、図12に示されている照射位置制御部350、図13に示されているLED制御回路356、及びLED355、並びにCPU301の処理によって実現され、照射位置制御部350からのレーザ光の照射及び照射の制御を行なう。   On the other hand, the changing unit 35 of the irradiation position control unit 350 is realized mainly by the processing of the motor drivers 352 and 354, the motors 351 and 353, and the CPU 301 shown in FIG. And the rotation of the pointer 381 in the φ direction (up and down movement) are controlled. The irradiation unit 36 of the irradiation position control unit 350 is mainly realized by the processing of the irradiation position control unit 350 shown in FIG. 12, the LED control circuit 356 and the LED 355 shown in FIG. Then, the laser beam irradiation from the irradiation position control unit 350 and the irradiation control are performed.

<画像管理システムの機能構成>
次に、図14及び図15を用いて、画像管理システム5の各機能構成について詳細に説明する。画像管理システム5は、送受信部51、生成部54、及び記憶・読出部59を有している。これら各部は、図14に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理システム5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of image management system>
Next, each functional configuration of the image management system 5 will be described in detail with reference to FIGS. 14 and 15. The image management system 5 includes a transmission / reception unit 51, a generation unit 54, and a storage / readout unit 59. Each of these units is a function realized by any one of the constituent elements shown in FIG. 14 operating by an instruction from the CPU 501 according to the image management system 5 program expanded from the HD 504 to the RAM 503, or Means.

また、画像管理システム5は、図14に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点管理DB5001、端末管理DB5002、撮影管理DB5003、及び画像管理DB5004が構築されている。このうち、拠点管理DB5001は、後述の拠点管理テーブルによって構成されている。端末管理DB5002は、後述の端末管理テーブルによって構成されている。撮影管理DB5003は、撮影管理テーブルによって構成されている。画像管理DB5004は、後述の画像管理テーブルによって構成されている。   Further, the image management system 5 includes a storage unit 5000 constructed by the RAM 503 and the HD 504 shown in FIG. In the storage unit 5000, a base management DB 5001, a terminal management DB 5002, a shooting management DB 5003, and an image management DB 5004 are constructed. Among these, the base management DB 5001 is configured by a base management table described later. The terminal management DB 5002 is configured by a terminal management table described later. The shooting management DB 5003 is configured by a shooting management table. The image management DB 5004 is configured by an image management table described later.

(拠点管理テーブル)
図16は、拠点管理テーブルを示す概念図である。この拠点管理テーブルでは、地域ID、地域名、拠点ID、拠点名、拠点のレイアウトマップのファイル名、及び、装置IDが関連付けて記憶されて管理されている。このうち、地域IDは、地域を識別するための地域識別情報の一例である。地域は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等の一定の範囲を示す。拠点IDは、拠点を識別するための拠点識別情報の一例である。拠点名は、工事現場等を示す。レイアウトマップは、図20に示されているように、各拠点のレイアウトを示し、2次元座標で詳細に拠点内の位置を特定することができる。なお、図20は、拠点レイアウトマップの概念図である。ここでは、工事現場であるアパートのレイアウトマップが示されている。装置IDは、撮影装置1を識別するための装置識別情報の一例である。レイアウトマップのデータは、記憶部5000に記憶されている。
(Base management table)
FIG. 16 is a conceptual diagram showing a base management table. In this base management table, a region ID, a region name, a base ID, a base name, a file name of a base layout map, and a device ID are stored and managed in association with each other. Of these, the region ID is an example of region identification information for identifying a region. The region indicates a certain range, for example, Kanto, Tokyo, Shibuya Ward, New York State, New York City. The base ID is an example of base identification information for identifying the base. The site name indicates the construction site. As shown in FIG. 20, the layout map shows the layout of each site, and can specify the position in the site in detail using two-dimensional coordinates. FIG. 20 is a conceptual diagram of the base layout map. Here, a layout map of an apartment that is a construction site is shown. The device ID is an example of device identification information for identifying the photographing device 1. The layout map data is stored in the storage unit 5000.

(端末管理テーブル)
図17は、端末管理テーブルを示す概念図である。この端末管理テーブルでは、装置ID毎に、装置設置位置情報、及び所定領域情報が関連付けて記憶されて管理されている。このうち、装置設置位置情報は、例えば、図20に示されているように、2次元座標で示された拠点レイアウトマップ上における撮影装置の設置位置を示す。所定領域情報は、図7で説明した所定領域情報である。この端末管理テーブルにおける装置ID、装置設置位置情報、及び所定領域情報は、監督者Yが作業者X等から予め取得した情報である。作業者Xは、各撮影装置1を拠点内の所定の位置に設置する際に、監督者Yに電子メール等で伝える。
(Terminal management table)
FIG. 17 is a conceptual diagram showing a terminal management table. In this terminal management table, device installation position information and predetermined area information are stored and managed in association with each device ID. Among these, the apparatus installation position information indicates the installation position of the photographing apparatus on the base layout map indicated by the two-dimensional coordinates, for example, as shown in FIG. The predetermined area information is the predetermined area information described with reference to FIG. The device ID, device installation position information, and predetermined area information in this terminal management table are information that the supervisor Y previously acquires from the worker X and the like. The worker X notifies the supervisor Y by e-mail or the like when installing each photographing apparatus 1 at a predetermined position in the base.

(撮影管理テーブル)
図18は、撮影管理テーブルを示す概念図である。この撮影管理テーブルでは、拠点ID毎に、撮影タイトル、撮影開始日時、及び撮影終了日時が関連付けて記憶されて管理されている。このうち、撮影タイトルは、閲覧者である監督者Yによって入力されたタイトルであり、監督者Yによって複数の撮影画像データから所望の撮影画像データを抽出する際に利用される。撮影開始日時は、閲覧者によって入力された日時であり、撮影装置1が撮影を開始する(又は開始した)日時を示す。撮影終了日時は、監督者Yによって入力された日時であり、撮影装置1が撮影を終了する(又は終了した)日時を示す。
(Shooting management table)
FIG. 18 is a conceptual diagram showing a photographing management table. In this shooting management table, a shooting title, a shooting start date and time, and a shooting end date and time are stored and managed in association with each base ID. Among these, the shooting title is a title input by the supervisor Y who is a viewer, and is used when the supervisor Y extracts desired shot image data from a plurality of shot image data. The shooting start date and time is the date and time input by the viewer, and indicates the date and time when the shooting apparatus 1 starts (or starts) shooting. The shooting end date and time is the date and time input by the supervisor Y and indicates the date and time when the shooting apparatus 1 ends (or ends) shooting.

(画像管理テーブル)
図19は、画像管理テーブルを示す概念図である。この画像管理テーブルでは、装置ID毎に、画像ID、撮影画像データのファイル名、及び撮影日時が関連付けて記憶されて管理されている。このうち、画像IDは、撮影画像データを識別するための画像識別情報の一例である。撮影画像データのファイル名は、この関連付けられている画像IDで示される撮影画像データのファイル名である。撮影日時は、この関連付けられている撮影画像データが装置IDで示される撮影装置1で撮影された日時である。撮影画像データは、記憶部5000に記憶されている。
(Image management table)
FIG. 19 is a conceptual diagram showing an image management table. In this image management table, for each device ID, an image ID, a file name of captured image data, and a shooting date and time are associated with each other and stored and managed. Among these, the image ID is an example of image identification information for identifying captured image data. The file name of the photographed image data is the file name of the photographed image data indicated by the associated image ID. The shooting date and time is the date and time when the associated shooting image data was shot by the shooting device 1 indicated by the device ID. The photographed image data is stored in the storage unit 5000.

(画像管理システムの各機能構成)
次に、図14及び図15を用いて、画像管理システム5の各機能構成について詳細に説明する。
(Each functional configuration of the image management system)
Next, each functional configuration of the image management system 5 will be described in detail with reference to FIGS. 14 and 15.

画像管理システム5の送受信部51は、主に、図14に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は通信端末7と各種データ(または情報)の送受信を行う。   The transmission / reception unit 51 of the image management system 5 is realized mainly by the processing of the network I / F 509 and the CPU 501 illustrated in FIG. 14, and the communication terminal 3 or the communication terminal 7 and various data ( Or information).

生成部54は、後述の図25乃至図31に示されているような、特定拠点の状況を表す拠点状況画面を生成する。   The generation unit 54 generates a site status screen representing the status of a specific site as shown in FIGS. 25 to 31 described later.

記憶・読出部59は、主に、図14に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。   The storage / reading unit 59 is realized mainly by the processing of the HDD 505 and the CPU 501 shown in FIG. 14, and stores various data (or information) in the storage unit 5000 or various data (or information) from the storage unit 5000. Information).

<通信端末7の機能構成>
次に、図14及び図15を用いて、通信端末7の機能構成について詳細に説明する。通信端末7は、送受信部71、受付部72、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図14に示されている各構成要素のいずれかが、HD504からRAM503上に展開された通信端末7用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of communication terminal 7>
Next, the functional configuration of the communication terminal 7 will be described in detail with reference to FIGS. 14 and 15. The communication terminal 7 includes a transmission / reception unit 71, a reception unit 72, a display control unit 73, and a storage / readout unit 79. Each of these units is a function or means realized by any one of the constituent elements shown in FIG. 14 operating according to a command from the CPU 501 according to the communication terminal 7 program expanded from the HD 504 to the RAM 503. It is.

また、通信端末7は、図14に示されているRAM503、及びHD504によって構築される記憶部7000を有している。   Further, the communication terminal 7 includes a storage unit 7000 constructed by the RAM 503 and the HD 504 shown in FIG.

(通信端末7の各機能構成)
次に、図15を用いて、通信端末7の各機能構成について詳細に説明する。
(Each functional configuration of the communication terminal 7)
Next, each functional configuration of the communication terminal 7 will be described in detail with reference to FIG.

通信端末7の送受信部71は、主に、図14に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理システム5と各種データ(または情報)の送受信を行う。   The transmission / reception unit 71 of the communication terminal 7 is realized mainly by the processing of the network I / F 509 and the CPU 501 shown in FIG. 14 and transmits / receives various data (or information) to / from the image management system 5 via the communication network 9. I do.

受付部72は、主に、図14に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、利用者(図8では、監督者Y)からの操作入力を受け付ける。   The accepting unit 72 is realized mainly by the processing of the keyboard 511 and mouse 512 and the CPU 501 shown in FIG. 14, and accepts an operation input from a user (supervisor Y in FIG. 8).

表示制御部73は、主に、図14に示されているCPU501の処理によって実現され、通信端末7のディスプレイ508に各種画像を表示させるための制御を行なう。   The display control unit 73 is realized mainly by the processing of the CPU 501 shown in FIG. 14 and performs control for displaying various images on the display 508 of the communication terminal 7.

記憶・読出部79は、主に、図14に示されているHDD505、及びCPU501の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。   The storage / reading unit 79 is realized mainly by the processing of the HDD 505 and the CPU 501 shown in FIG. 14, and stores various data (or information) in the storage unit 7000 or various data (or information) from the storage unit 7000. Information).

<<実施形態の処理又は動作>>
続いて、図21乃至図32を用いて、本実施形態の処理又は動作について説明する。まず、図21を用いて、監督者Yが通信端末7を利用して、撮影装置1の撮影予約の処理を説明する。図21は、撮影予約の処理を示すシーケンス図である。また、図25乃至図31は、監督者側の画面例を示す図である。このうち、図25及び図26は、日程表画面を示す。図27乃至図31は、特定拠点の状況を表す拠点状況画面を示す。
<< Processing or Operation of Embodiment >>
Subsequently, the processing or operation of the present embodiment will be described with reference to FIGS. First, using FIG. 21, the supervisor Y uses the communication terminal 7 to explain the shooting reservation process of the shooting apparatus 1. FIG. 21 is a sequence diagram illustrating a process for photographing reservation. 25 to 31 are diagrams showing examples of screens on the supervisor side. Among these, FIG.25 and FIG.26 shows a schedule table screen. FIG. 27 to FIG. 31 show site status screens showing the status of specific sites.

図21に示されているように、監督者Yが、通信端末7に拠点IDを入力すると、受付部72が拠点IDの入力を受け付ける(ステップS11)。この場合、通信端末7のディスプレイ508上には、図25(a)に示されているように、拠点IDを入力するための入力欄7110が表示されるため、監督者Yは、入力欄7110に閲覧したい工事現場等である拠点の拠点IDを入力する。これにより、送受信部71は、画像管理システム5に対して、日程表の要求を送信する(ステップS12)。この要求には、ステップS11で入力された拠点IDが含まれている。これにより、画像管理システム5の送受信部51は、日程表の要求を受信する。   As shown in FIG. 21, when the supervisor Y inputs the base ID into the communication terminal 7, the receiving unit 72 receives the input of the base ID (step S11). In this case, as shown in FIG. 25A, an input field 7110 for inputting the base ID is displayed on the display 508 of the communication terminal 7, and the supervisor Y enters the input field 7110. Enter the base ID of the base that is the construction site you want to view. Thereby, the transmission / reception part 71 transmits the request | requirement of a schedule to the image management system 5 (step S12). This request includes the base ID input in step S11. Accordingly, the transmission / reception unit 51 of the image management system 5 receives the schedule request.

次に、画像管理システム5の記憶・読出部59は、送受信部51によって受信された拠点IDを検索キーとして撮影管理テーブル(図18参照)を検索することにより、対応する撮影タイトル、撮影開始日時、及び撮影終了日時を読み出すと共に、拠点IDを検索キーとして拠点管理テーブル(図16参照)を検索することにより、対応する拠点名を読み出す(ステップS13)。そして、生成部54が、ステップS13によって読み出された各種情報に基づいて、図25(b)に示されているような日程表画面を作成し、送受信部51が通信端末7に日程表画面のデータを送信する(ステップS14)。この際、日程表画面データと共に、拠点IDも送信される。これにより、通信端末7の送受信部71は、日程表画面のデータを受信する。   Next, the storage / reading unit 59 of the image management system 5 searches the shooting management table (see FIG. 18) using the base ID received by the transmission / reception unit 51 as a search key, thereby corresponding shooting title, shooting start date and time. In addition, the photographing end date and time are read out, and the corresponding base name is read out by searching the base management table (see FIG. 16) using the base ID as a search key (step S13). And the production | generation part 54 produces a schedule table screen as shown in FIG.25 (b) based on the various information read by step S13, and the transmission / reception part 51 transmits the schedule table screen to the communication terminal 7. FIG. Is transmitted (step S14). At this time, the base ID is also transmitted together with the schedule table screen data. Thereby, the transmission / reception unit 71 of the communication terminal 7 receives the data of the schedule table screen.

次に、通信端末7では、表示制御部73が、ディスプレイ508に、図25(b)に示されているような日程表画面を表示させる(ステップS15)。日程表画面には、日毎に時間の表が表示され、予約ボタン7290が表示されている。そして、受付部72は、監督者Yから撮影予約を受け付ける(ステップS16)。具体的には、監督者Yが所望の日の項目7210を押下した後、予約ボタン7290を押下すると、表示制御部73が、図26(a)に示されているような「撮影の予約」画面を表示する。そして、監督者Yが、撮影タイトル(ここでは、「窓枠取付」)、撮影の開始時間(ここでは、10:00)、及び、撮影の終了時間(ここでは、18:00)を入力し、「OK」ボタン7380を押下すると、送受信部71が、画像管理システム5に対して、撮影予約を送信する(ステップ17)。この撮影予約には、拠点ID、撮影タイトル、撮影開始日時、及び撮影終了日時が含まれている。これにより、画像管理システム5の送受信部51は、撮影予約を受信する。   Next, in the communication terminal 7, the display control unit 73 displays a schedule table screen as shown in FIG. 25B on the display 508 (step S15). On the schedule table screen, a time table is displayed for each day, and a reservation button 7290 is displayed. And the reception part 72 receives imaging | photography reservation from the supervisor Y (step S16). Specifically, when the supervisor Y presses the item 7210 of a desired day and then presses the reservation button 7290, the display control unit 73 displays “reservation for shooting” as shown in FIG. Display the screen. Then, the supervisor Y inputs the shooting title (here, “window frame attachment”), the shooting start time (here, 10:00), and the shooting end time (here, 18:00). When the “OK” button 7380 is pressed, the transmission / reception unit 71 transmits a photographing reservation to the image management system 5 (step 17). This shooting reservation includes a base ID, a shooting title, a shooting start date and time, and a shooting end date and time. Thereby, the transmission / reception unit 51 of the image management system 5 receives the imaging reservation.

次に、画像管理システム5の記憶・読出部59は、撮影管理テーブル(図18参照)に、新たなレコードとして、撮影予約の内容を記憶する(ステップS18)。以上により、撮影予約の処理が終了する。   Next, the storage / readout unit 59 of the image management system 5 stores the contents of the shooting reservation as a new record in the shooting management table (see FIG. 18) (step S18). Thus, the shooting reservation process is completed.

続いて、図22を用いて、画像管理システム5が撮影管理テーブル(図18参照)に基づいて、通信端末3に撮影指示を行なう処理について説明する。図22は、撮影指示を行なう処理を示したシーケンス図である。   Next, a process in which the image management system 5 issues a shooting instruction to the communication terminal 3 based on the shooting management table (see FIG. 18) will be described with reference to FIG. FIG. 22 is a sequence diagram showing a process of giving a shooting instruction.

図22に示されているように、画像管理システム5の送受信部51は、拠点IDで示される拠点内の全ての通信端末3に対して、撮影指示を送信する(ステップS31)。この撮影指示には、撮影開始日時及び撮影終了日時が含まれている。これにより、通信端末3は、撮影指示を受信する。   As shown in FIG. 22, the transmission / reception unit 51 of the image management system 5 transmits a photographing instruction to all the communication terminals 3 in the site indicated by the site ID (step S31). This shooting instruction includes a shooting start date and time and a shooting end date and time. Thereby, the communication terminal 3 receives the photographing instruction.

次に、通信端末3は、撮影開始時間になると、撮影装置1に対して、撮影開始指示を送信する(ステップS32)。これにより、撮影装置1の送受信部11は、撮影開始指示を受信する。   Next, the communication terminal 3 transmits a photographing start instruction to the photographing apparatus 1 when the photographing start time is reached (step S32). Thereby, the transmission / reception part 11 of the imaging device 1 receives an imaging start instruction.

次に、撮影装置1では、例えば、10分毎に撮影を行い、通信端末3に対して、自己の装置ID、撮影画像データ、関連情報、及び所定領域情報を送信する(ステップS33)。関連情報は、実際の撮影日時等を示す。所定領域情報は、撮影装置1の工場出荷時に予め定められた視点方向を示している。これにより、通信端末3の送受信部31は、装置ID、撮影画像データ、関連情報、及び所定領域情報を受信する。   Next, the imaging device 1 performs imaging every 10 minutes, for example, and transmits its own device ID, captured image data, related information, and predetermined area information to the communication terminal 3 (step S33). The related information indicates the actual shooting date and time. The predetermined area information indicates a viewpoint direction that is predetermined when the photographing apparatus 1 is shipped from the factory. Thereby, the transmission / reception unit 31 of the communication terminal 3 receives the device ID, the captured image data, the related information, and the predetermined area information.

次に、通信端末3の送受信部31は、画像管理システム5に対して、画像の登録要求を送信する(ステップS34)。この画像の登録要求には、ステップS3で受信された装置ID、撮影画像データ、関連情報、及び所定領域情報が含まれている。これにより。画像管理システム5の送受信部51は、画像の登録要求を受信する。そして、画像管理システム5では、記憶・読出部59が、ステップS34によって受信された撮影画像データに対して、新たに画像IDを割り当てる(ステップS35)。   Next, the transmission / reception unit 31 of the communication terminal 3 transmits an image registration request to the image management system 5 (step S34). This image registration request includes the device ID, captured image data, related information, and predetermined area information received in step S3. By this. The transmission / reception unit 51 of the image management system 5 receives an image registration request. In the image management system 5, the storage / reading unit 59 newly assigns an image ID to the captured image data received in step S34 (step S35).

次に、記憶・読出部59は、各テーブルに対して各情報を記録して管理する(ステップS36)。具体的には、記憶・読出部59は、端末管理テーブル(図17参照)に対して、装置IDに対応する所定領域情報を上書きして管理する。また、記憶・読出部59は、画像管理テーブル(図19参照)に対して、新たなレコードとして、装置ID、画像ID、画像データのファイル名、及び撮影日時を関連付けて記憶する。このうち、装置IDは、ステップS34によって受信されたIDである。画像IDは、ステップS35によって割り当てられたIDである。画像データのファイル名は、ステップ34によって受信された撮影画像データのファイル名である。撮影日時は、ステップS34によって受信された関連情報に含まれる撮影日時である。   Next, the storage / reading unit 59 records and manages each information for each table (step S36). Specifically, the storage / reading unit 59 manages the terminal management table (see FIG. 17) by overwriting predetermined area information corresponding to the device ID. In addition, the storage / reading unit 59 stores the device ID, the image ID, the file name of the image data, and the shooting date and time as new records in the image management table (see FIG. 19). Among these, the device ID is the ID received in step S34. The image ID is the ID assigned in step S35. The file name of the image data is the file name of the captured image data received at step 34. The shooting date / time is the shooting date / time included in the related information received in step S34.

次に、送受信部51は、通信端末3に対して、登録完了の通知を送信する(ステップS37)。この通知には、画像IDが含まれている。これにより、通信端末3の送受信部31は、登録完了の通知を受信する。そして、通信端末3の記憶・読出部39は、記憶部3000に画像IDを記憶する(ステップS38)。   Next, the transmission / reception unit 51 transmits a registration completion notification to the communication terminal 3 (step S37). This notification includes an image ID. Thereby, the transmission / reception part 31 of the communication terminal 3 receives the notification of registration completion. Then, the storage / reading unit 39 of the communication terminal 3 stores the image ID in the storage unit 3000 (step S38).

続いて、図23を用いて、レイアウトマップの表示の処理について説明する。図23は、レイアウトマップの表示の処理を示すシーケンス図である。   Next, layout map display processing will be described with reference to FIG. FIG. 23 is a sequence diagram illustrating processing for displaying a layout map.

図23に示されているように、監督者Yが、通信端末7に拠点IDを入力すると、受付部72が拠点IDの入力を受け付ける(ステップS51)。この場合、通信端末7のディスプレイ508上には、図25(a)に示されているように、拠点IDを入力するための入力欄7110が表示されるため、監督者Yは、入力欄7110に閲覧したい工事現場等である拠点の拠点IDを入力する。これにより、送受信部71は、画像管理システム5に対して、日程表の要求を送信する(ステップS52)。この要求には、ステップS51で入力された拠点IDが含まれている。これにより、画像管理システム5の送受信部51は、日程表の要求を受信する。   As shown in FIG. 23, when the supervisor Y inputs the base ID to the communication terminal 7, the receiving unit 72 receives the input of the base ID (step S51). In this case, as shown in FIG. 25A, an input field 7110 for inputting the base ID is displayed on the display 508 of the communication terminal 7, and the supervisor Y enters the input field 7110. Enter the base ID of the base that is the construction site you want to view. Thereby, the transmission / reception part 71 transmits the request | requirement of a schedule to the image management system 5 (step S52). This request includes the base ID input in step S51. Accordingly, the transmission / reception unit 51 of the image management system 5 receives the schedule request.

次に、画像管理システム5の記憶・読出部59は、送受信部51によって受信された拠点IDを検索キーとして撮影管理テーブル(図18参照)を検索することにより、対応する撮影タイトル、撮影開始日時、及び撮影終了日時を読み出すと共に、拠点IDを検索キーとして拠点管理テーブル(図16参照)を検索することにより、対応する拠点名を読み出す(ステップS53)。そして、生成部54が、ステップS13によって読み出された各種情報に基づいて、図26(b)に示されているような日程表画面を作成し、送受信部51が通信端末7に日程表画面のデータを送信する(ステップS54)。この際、日程表画面データと共に、拠点IDも送信される。これにより、通信端末7の送受信部71は、日程表画面のデータを受信する。   Next, the storage / reading unit 59 of the image management system 5 searches the shooting management table (see FIG. 18) using the base ID received by the transmission / reception unit 51 as a search key, thereby corresponding shooting title, shooting start date and time. In addition, the photographing end date and time are read out, and the corresponding base name is read out by searching the base management table (see FIG. 16) using the base ID as a search key (step S53). And the production | generation part 54 produces a schedule table screen as shown in FIG.26 (b) based on the various information read by step S13, and the transmission / reception part 51 transmits the schedule table screen to the communication terminal 7. FIG. Is transmitted (step S54). At this time, the base ID is also transmitted together with the schedule table screen data. Thereby, the transmission / reception unit 71 of the communication terminal 7 receives the data of the schedule table screen.

次に、通信端末7では、表示制御部73が、ディスプレイ508に、図26(b)に示されているような日程表画面を表示させる(ステップS55)。ここでは、図25(b)と異なり、既に撮影予約されていた場合の日程表画面が示されている。図26(b)では、例えば、ステップS16〜S18の処理で行なわれた撮影日程の内容を示す日程情報7410等が表示されている。   Next, in the communication terminal 7, the display control unit 73 displays a schedule table screen as shown in FIG. 26B on the display 508 (step S55). Here, unlike FIG. 25 (b), a schedule table screen in the case where a shooting reservation has already been made is shown. In FIG. 26B, for example, schedule information 7410 indicating the contents of the shooting schedule performed in the processes of steps S16 to S18 is displayed.

次に、監督者Yが、例えば、日程情報7410を押下すると、受付部72が、日程情報7410に係るレイアウトマップの取得を受け付ける(ステップS56)。そして、送受信部71が、画像管理システム5に対して、レイアウトマップを要求する(ステップS57)。この要求には、拠点ID、撮影開始日時、及び撮影終了日時が含まれている。これにより、画像管理システム5の送受信部51は、レイアウトマップの要求を受信する。   Next, when the supervisor Y presses the schedule information 7410, for example, the reception unit 72 receives the acquisition of the layout map related to the schedule information 7410 (step S56). Then, the transmitting / receiving unit 71 requests a layout map from the image management system 5 (step S57). This request includes the base ID, the shooting start date and time, and the shooting end date and time. Thereby, the transmission / reception unit 51 of the image management system 5 receives the request for the layout map.

次に、画像管理システム5の記憶・読出部59は、ステップS57によって受信された拠点IDを検索キーとして、拠点管理テーブル(図16参照)を検索することにより、対応するレイアウトマップのファイル名、及び装置IDを読み出す(ステップ58)。また、記憶・読出部59は、読み出した装置IDを検索キーとして、端末管理テーブル(図17参照)を検索することにより、対応する装置設置位置情報、及び所定領域情報を読み出す(ステップS58)。   Next, the storage / read-out unit 59 of the image management system 5 searches the base management table (see FIG. 16) using the base ID received in step S57 as a search key, thereby the file name of the corresponding layout map, And the device ID is read (step 58). The storage / reading unit 59 reads the corresponding device installation position information and the predetermined area information by searching the terminal management table (see FIG. 17) using the read device ID as a search key (step S58).

次に、生成部54は、ステップS58によって読み出された各情報を利用して、レイアウトマップを生成する(ステップ59)。そして、送受信部51は、通信端末7に対して、レイアウトマップのデータを送信する(ステップS60)。これにより、通信端末7の送受信部71は、レイアウトマップのデータを受信する。そして、通信端末7では、表示制御部73が、ディスプレイ508に、図27(a)に示されているような拠点状況画面を表示させる(ステップS61)。この拠点状況画面の上部には、その拠点で撮影された位置を示すピンのアイコンを含んだレイアウトマップが表示されている。   Next, the generation unit 54 generates a layout map using each piece of information read out in step S58 (step 59). Then, the transmission / reception unit 51 transmits the layout map data to the communication terminal 7 (step S60). Thereby, the transmission / reception unit 71 of the communication terminal 7 receives the data of the layout map. In the communication terminal 7, the display control unit 73 causes the display 508 to display a site status screen as shown in FIG. 27A (step S61). At the top of the site status screen, a layout map including a pin icon indicating the position taken at the site is displayed.

続いて、図24を用いて、撮影画像データの表示処理を説明する。図24は、撮影画像データの表示処理を示すシーケンス図である。   Next, display processing of captured image data will be described with reference to FIG. FIG. 24 is a sequence diagram showing display processing of captured image data.

まず、図24に示されているように、監督者Yが、図27(b)に示すように、カーソル4を用いて所望のピンのアイコンを選択すると、受付部72が、選択された撮影装置を受け付ける(ステップS71)。これにより、送受信部71は、画像管理システム5に対して、選択された撮影装置が撮影した撮影画像データの要求を送信する(ステップS72)。この要求には、選択されたアイコンに係る撮影装置の装置IDが含まれている。これにより、画像管理システム5の送受信部51は、撮影画像データの要求を受信する。なお、カーソル4の移動は、マウス512の操作によって行なわれる。   First, as shown in FIG. 24, when the supervisor Y selects an icon of a desired pin using the cursor 4 as shown in FIG. 27B, the reception unit 72 selects the selected photographing. The device is accepted (step S71). As a result, the transmission / reception unit 71 transmits a request for captured image data captured by the selected imaging device to the image management system 5 (step S72). This request includes the device ID of the imaging device related to the selected icon. As a result, the transmission / reception unit 51 of the image management system 5 receives a request for captured image data. The cursor 4 is moved by operating the mouse 512.

次に、画像管理システム5の記憶・読出部59は、ステップS72によって受信された装置IDを検索キーとして画像管理テーブル(図19参照)を検索することにより、対応する最初の画像データのファイル名を読み出すと共に、このファイル名の撮影画像データを記憶部5000から読み出す(ステップS73)。   Next, the storage / reading unit 59 of the image management system 5 searches the image management table (see FIG. 19) by using the device ID received in step S72 as a search key, and thereby the file name of the corresponding first image data. And the captured image data of this file name is read from the storage unit 5000 (step S73).

次に、画像管理システム5の送受信部51は、通信端末7に対して、拠点名、撮影された日時の最初の撮影画像データ、及び撮影日時を送信する(ステップS79)。この場合、撮影画像データと共に、この撮影画像データの画像IDが送信される。これにより、通信端末7の送受信部71は、拠点名、撮影された日時の最初の撮影画像データ、及び撮影日時を受信する。   Next, the transmission / reception unit 51 of the image management system 5 transmits the base name, the first captured image data of the date and time of shooting, and the shooting date and time to the communication terminal 7 (step S79). In this case, the image ID of the captured image data is transmitted together with the captured image data. Thereby, the transmission / reception unit 71 of the communication terminal 7 receives the site name, the first captured image data of the date and time when the image was captured, and the captured date and time.

次に、通信端末7の表示制御部73は、図28に示されているように、拠点領域画面において、レイアウトマップの下側に所定領域画像を表示する(ステップS75)。なお、拠点領域画面の右下部には、「ポインタOFF」ボタンが表示されており、監督者が遠隔的に工事現場でレーザ光を照射させたい場合に押下される。   Next, as shown in FIG. 28, the display control unit 73 of the communication terminal 7 displays a predetermined area image below the layout map on the base area screen (step S75). A “pointer OFF” button is displayed at the lower right of the base area screen, and is pressed when the supervisor wants to remotely irradiate the construction site with laser light.

次に、監督者Yが、カーソル4を上下左右に移動させることで、受付部72は、所定領域画像の変更を受け付ける(ステップS76)。これにより、表示制御部73は、図29に示されているように、同じ全天球パノラマ画像における別の所定領域画像(以下、「特定領域画像」という)を表示させる(ステップS77)。   Next, the supervisor Y moves the cursor 4 up, down, left, and right, so that the accepting unit 72 accepts a change in the predetermined area image (step S76). Thereby, as shown in FIG. 29, the display control unit 73 displays another predetermined region image (hereinafter referred to as “specific region image”) in the same omnidirectional panoramic image (step S77).

そして、監督者Yが、カーソル4を移動させて、「ポインタOFF」ボタンを押下すると、受付部72は、レーザ光の照射準備の受け付けを行なう(ステップS78)。これにより、表示制御部73は、図30に示されているように、「ポインタOFF」ボタンを「ポインタON」ボタンへと変更する。   When the supervisor Y moves the cursor 4 and presses the “pointer OFF” button, the accepting unit 72 accepts preparation for laser light irradiation (step S78). As a result, the display control unit 73 changes the “pointer OFF” button to the “pointer ON” button as shown in FIG. 30.

次に、監督者が、カーソル4を移動させて、図31に示されているように、特定領域画像における所望の位置(ここでは、窓枠の一部)に移動してマウス512で左ダブルクリックをすると、受付部72が、レーザ光が照射する指定位置の受け付けを行なう(ステップS79)。これにより、表示制御部73は、特定領域画像上に、図31に示されている照射像6を視覚的に表示する(ステップS80)。更に、送受信部71は、画像管理システム5に対して、全天球パノラマ画像と同じ座標系における指定位置の座標(rH,rV,α)を示す指定位置座標情報を送信する(ステップS81)。これにより、画像管理システム5の送受信部51は、指定位置座標情報を受信する。   Next, the supervisor moves the cursor 4 to move to a desired position (in this case, a part of the window frame) in the specific area image as shown in FIG. When clicked, the accepting unit 72 accepts the designated position irradiated with the laser light (step S79). Thereby, the display control unit 73 visually displays the irradiation image 6 shown in FIG. 31 on the specific area image (step S80). Furthermore, the transmission / reception unit 71 transmits designated position coordinate information indicating the coordinates (rH, rV, α) of the designated position in the same coordinate system as the omnidirectional panoramic image to the image management system 5 (step S81). Thereby, the transmission / reception unit 51 of the image management system 5 receives the designated position coordinate information.

次に、画像管理システム5の送受信部5は、通信端末3に対して、指定位置座標情報を転送する(ステップS82)。これにより、通信端末3の送受信部31は、指定位置座標情報を受信する。   Next, the transmission / reception unit 5 of the image management system 5 transfers the designated position coordinate information to the communication terminal 3 (step S82). Thereby, the transmission / reception unit 31 of the communication terminal 3 receives the designated position coordinate information.

次に、通信端末3では、算出部34が、撮影装置1における全天球パノラマ画像の座標系から、通信端末3における拠点の空間の座標系に変換することで、ステップS82によって受信された指定位置座標情報に基づいて、拠点の空間におけるレーザ光の照射位置を算出する(ステップS83)。なお、図10(a)に示されている撮影装置1の撮像素子103aは、常にカラーコーンである通信端末3の特定の方向になるように取り付けられているため、座標変換が可能である。   Next, in the communication terminal 3, the calculation unit 34 converts the coordinate system of the omnidirectional panoramic image in the photographing device 1 into the coordinate system of the space of the base in the communication terminal 3, thereby receiving the designation received in step S82. Based on the position coordinate information, the irradiation position of the laser beam in the base space is calculated (step S83). Note that the image pickup device 103a of the photographing apparatus 1 shown in FIG. 10A is attached so as to be always in a specific direction of the communication terminal 3 that is a color cone, and therefore, coordinate conversion is possible.

次に、変更部35は、ステップS83によって算出された照射位置に向けて、照射位置380の位置及びポインタ381の傾きの少なくとも一方を変更させる(ステップS84)。なお、照射位置380の位置及びポインタ381の傾きが、既にステップS83によって算出された照射位置に向けられている場合には、変更部35は、照射位置380の位置及びポインタ381の傾きを変更しない。そして、照射部36は、レーザ光の照射を開始する(ステップS85)。これにより、工事現場等の拠点では、図32に示されているように、照射位置制御部350が照射位置8にレーザ光を照射する(ステップS85)。以上より、監督者Yが遠隔の作業者に対して視覚的に作業位置等を指示することができるため、監督者Yは作業者Xと電話をしながら、より的確に作業内容を伝えることができる。   Next, the changing unit 35 changes at least one of the position of the irradiation position 380 and the inclination of the pointer 381 toward the irradiation position calculated in step S83 (step S84). When the position of the irradiation position 380 and the inclination of the pointer 381 are already directed to the irradiation position calculated in step S83, the changing unit 35 does not change the position of the irradiation position 380 and the inclination of the pointer 381. . And the irradiation part 36 starts irradiation of a laser beam (step S85). As a result, at a base such as a construction site, the irradiation position control unit 350 irradiates the irradiation position 8 with laser light as shown in FIG. 32 (step S85). As described above, since the supervisor Y can visually instruct the remote worker of the work position and the like, the supervisor Y can convey the work contents more accurately while calling the worker X. it can.

ここで、図33乃至図35を用いて、照射像の照射位置の移動の制御について詳細に説明する。図33は、照射像の照射位置の移動の制御を示すフローチャートである。図34は、カーソルと照射像の照射位置との関係の画面例を示す図である。図35は、カーソルと照射像の照射位置との関係を示す概念図である。   Here, the control of the movement of the irradiation position of the irradiation image will be described in detail with reference to FIGS. FIG. 33 is a flowchart showing control of movement of the irradiation position of the irradiation image. FIG. 34 is a diagram illustrating a screen example of the relationship between the cursor and the irradiation position of the irradiation image. FIG. 35 is a conceptual diagram showing the relationship between the cursor and the irradiation position of the irradiation image.

まず、通信端末3の接続部38は、撮影装置1から、図32に示されているような照射像6を含む撮影画像データを取得する(ステップS91)。次に、算出部34は、全天球画像における照射像6の位置(x’,y’,α’)を特定する(ステップS92)。そして、算出部34は、カーソル4により指定された指定位置(x,y,α)と、特定した照射像の位置(x’,y’,α’)との間の距離を算出する(ステップS93)。例えば、図34(a)に、カーソル4による指定位置と照射像6の位置との距離が離れている場合がある。   First, the connection unit 38 of the communication terminal 3 acquires captured image data including the irradiation image 6 as illustrated in FIG. 32 from the imaging device 1 (step S91). Next, the calculation unit 34 specifies the position (x ′, y ′, α ′) of the irradiation image 6 in the omnidirectional image (step S92). Then, the calculation unit 34 calculates the distance between the specified position (x, y, α) specified by the cursor 4 and the position (x ′, y ′, α ′) of the specified irradiation image (step) S93). For example, in FIG. 34A, there is a case where the distance between the position designated by the cursor 4 and the position of the irradiation image 6 is separated.

ここで、図35を用いて、カーソルと照射像の照射位置との関係を説明する。図35の
立体球CSは、図5及び図6における立体球CSと同じであり、本来は仮想空間上に存在するが、通信端末7で表示されるカーソル4及び照射像6の関係を表すため、便宜的に図35では表している。図35に示されているように、通信端末3の撮像素子103a(103b)の位置と照射装置380の位置が異なっているため、照射装置380と照射像6を結ぶ直線L1は、撮像素子103aとカーソル4を結ぶ直線L2に並行にならない。更に、通信端末3からの距離が異なる壁A、壁Bがある場合、カーソル4の位置と照射像6の照射位置8の現実世界の距離も異なってしまう。例えば、図35では、撮像素子103aに近い壁Aと、撮像素子103aに遠い壁Bがある場合、カーソル4による指定位置と照射像6の位置との距離は、それぞれ距離a、距離bとなり、両者は異なる。よって、下記ステップS94以降の処理によるフィードバック制御が必要となる。
Here, the relationship between the cursor and the irradiation position of the irradiation image will be described with reference to FIG. The solid sphere CS in FIG. 35 is the same as the solid sphere CS in FIGS. 5 and 6, and originally exists in the virtual space, but represents the relationship between the cursor 4 and the irradiation image 6 displayed on the communication terminal 7. For convenience, it is shown in FIG. As shown in FIG. 35, since the position of the image sensor 103a (103b) of the communication terminal 3 and the position of the irradiation device 380 are different, the straight line L1 connecting the irradiation device 380 and the irradiation image 6 is the image sensor 103a. And the straight line L2 connecting the cursor 4 is not parallel. Further, when there are walls A and B having different distances from the communication terminal 3, the real-world distance between the position of the cursor 4 and the irradiation position 8 of the irradiation image 6 is also different. For example, in FIG. 35, when there is a wall A close to the image sensor 103a and a wall B far from the image sensor 103a, the distance between the position designated by the cursor 4 and the position of the irradiated image 6 is distance a and distance b, respectively. They are different. Therefore, feedback control by the processing after the following step S94 is required.

そのため、判断部33は、算出部34によって算出された距離が閾値以内かを判断する(ステップS94)。距離が閾値以内の場合には(YES)、照射像6照射位置の移動の制御は終了する。一方、距離が閾値を越える場合には(NO)、算出部34は、カーソル4により指定された指定位置(x,y,α)と、特定した照射像の位置(x’,y’,α’)との間の距離から、調整値を算出する(ステップS96)。そして、変更部35は、照射像の位置(x’,y’,α’)が指定位置(x,y,α)に近づくように、照射像6の照射位置8を変更する。これにより、図34(b)に示されているように、カーソル4による指定位置と照射像6の位置との距離が狭まり、重なるようになる。   Therefore, the determination unit 33 determines whether the distance calculated by the calculation unit 34 is within a threshold (step S94). If the distance is within the threshold (YES), the control of the movement of the irradiation position of the irradiation image 6 ends. On the other hand, when the distance exceeds the threshold value (NO), the calculation unit 34 determines the designated position (x, y, α) designated by the cursor 4 and the position (x ′, y ′, α) of the specified irradiation image. An adjustment value is calculated from the distance to “)” (step S96). Then, the changing unit 35 changes the irradiation position 8 of the irradiation image 6 so that the position (x ′, y ′, α ′) of the irradiation image approaches the designated position (x, y, α). As a result, as shown in FIG. 34B, the distance between the position designated by the cursor 4 and the position of the irradiation image 6 is narrowed and overlapped.

<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、撮影装置1を取り付けることができ、取り付けられた撮影装置1から全天球パノラマ画像のデータを取得し、通信ネットワーク9を介して所定の通信端末7に送ることができる通信端末3の一部を構成するカラーコーン等の保安器具を採用する。このように、保安器具であることで、安全面から工事現場との親和性が高く、現場の作業者は、保安器具を意識して(避けて)工事等の作業を進めることができるため、誤って通信端末3を転倒させてしまう可能性を減少させることができる。特に、保安器具が、カラーコーンの場合、日々の状況変化で簡単に設置場所を変更できるという効果を奏する。
<< Main effects of this embodiment >>
As described above, according to the present embodiment, the imaging device 1 can be attached, the data of the omnidirectional panoramic image is acquired from the attached imaging device 1, and the predetermined communication terminal 7 is obtained via the communication network 9. A security device such as a color cone that constitutes a part of the communication terminal 3 that can be sent to is adopted. In this way, because it is a safety device, it has a high affinity with the construction site from the safety aspect, and workers on the site can proceed with work such as construction while being aware of the safety device (avoidance) The possibility that the communication terminal 3 is accidentally overturned can be reduced. In particular, when the security device is a color cone, there is an effect that the installation location can be easily changed due to daily situation changes.

更に、工事現場等の拠点では、図32に示されているように、照射位置制御部350が照射位置8にレーザ光を照射することで、監督者Yが遠隔の作業者に対して視覚的に作業位置等を指示することができるため、監督者は作業者と電話をしながら、より的確に作業内容を伝えることができる。   Further, at a site such as a construction site, as shown in FIG. 32, the irradiation position control unit 350 irradiates the irradiation position 8 with laser light, so that the supervisor Y visually recognizes the remote worker. Therefore, the supervisor can tell the work contents more accurately while calling the worker.

〔実施形態の補足〕
上記実施形態における画像管理システム5は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
[Supplement of Embodiment]
The image management system 5 in the above embodiment may be constructed by a single computer, or may be constructed by a plurality of computers arbitrarily allocated by dividing each unit (function, means, or storage unit). Good.

また、上記実施形態の各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHD504は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。   In addition, a recording medium such as a CD-ROM in which the programs of the above-described embodiments are stored, and the HD 504 in which these programs are stored may be provided domestically or abroad as a program product. it can.

1 撮影装置
3 通信端末(保安器具が一例)
5 画像管理システム
7 通信端末
9 通信ネットワーク
31 送受信部(送信手段の一例、受信手段の一例)
33 判断部
34 算出部(算出手段の一例)
35 変更部(変更手段の一例)
36 照射部(照射手段の一例)
38 接続部(取得手段の一例)
310 通信制御部
350 照射位置制御部
400 取付部(取付手段の一例)
508 ディスプレイ(表示手段の一例)
5000 記憶部
5001 拠点管理DB(拠点管理手段の一例)
5002 端末管理DB(端末管理手段の一例)
5003 撮影管理DB(撮影管理手段の一例)
5004 画像管理DB(画像管理手段の一例)
1 Shooting device 3 Communication terminal (an example of security equipment)
5 Image management system 7 Communication terminal 9 Communication network 31 Transmission / reception unit (an example of transmission means, an example of reception means)
33 determination unit 34 calculation unit (an example of calculation means)
35 Changing part (an example of changing means)
36 Irradiation part (an example of irradiation means)
38 connection part (an example of an acquisition means)
310 Communication control unit 350 Irradiation position control unit 400 Mounting portion (an example of mounting means)
508 Display (an example of display means)
5000 storage unit 5001 base management DB (an example of base management means)
5002 Terminal management DB (an example of terminal management means)
5003 Shooting management DB (an example of shooting management means)
5004 Image management DB (an example of image management means)

特開2014−131215号公報JP 2014-131215 A

Claims (7)

被写体を撮像して全天球パノラマ画像のデータを得る撮影装置が取り付け可能な取付手段と、
前記取り付けられた撮影装置から前記データを取得する取得手段と、
所定の通信端末に前記全天球パノラマ画像のデータを転送する画像管理システムに対し、通信ネットワークを介して前記取得されたデータを送信する送信手段と、
を有することを特徴とする保安器具。
Mounting means to which a photographing device for capturing a subject and obtaining panoramic image data can be mounted;
Obtaining means for obtaining the data from the attached imaging device;
Transmitting means for transmitting the acquired data via a communication network to an image management system for transferring the data of the omnidirectional panoramic image to a predetermined communication terminal;
A security device characterized by comprising:
請求項1に記載の保安器具であって、
前記被写体にレーザ光を照射する照射手段と、
所定の通信端末から前記画像管理システムを介して送られ、前記全天球パノラマ画像の座標系における指定位置を示す位置座標情報を受信する受信手段と、
前記受信された前記位置座標情報に基づいて、前記照射手段の位置及び傾きの少なくとも一方を変更させる変更手段と、
を有することを特徴とする保安器具。
The security device according to claim 1,
Irradiating means for irradiating the subject with laser light;
Receiving means for receiving position coordinate information sent from a predetermined communication terminal via the image management system and indicating a specified position in the coordinate system of the omnidirectional panoramic image;
Changing means for changing at least one of the position and inclination of the irradiation means based on the received position coordinate information;
A security device characterized by comprising:
請求項2に記載の保安器具であって、
前記撮影装置における全天球パノラマ画像の座標系から、前記保安器具が設置された拠点の空間の座標系に変換することで、前記全天球パノラマ画像における指定位置から、前記拠点の空間におけるレーザ光の照射位置を算出する算出手段を有し、
前記変更手段は、前記算出された照射位置に対して前記レーザ光が照射されるように、前記照射手段の位置及び傾きの少なくいとも一方を変更することを特徴とする保安器具。
The security device according to claim 2,
By converting the coordinate system of the omnidirectional panoramic image in the imaging device to the coordinate system of the space of the base where the security device is installed, the laser in the space of the base from the specified position in the omnidirectional panoramic image Having calculation means for calculating the irradiation position of light,
The security device according to claim 1, wherein the changing unit changes at least one of the position and the inclination of the irradiation unit so that the laser beam is irradiated to the calculated irradiation position.
前記保安器具は、カラーコーンであることを特徴とする請求項1乃至3のいずれか一項に記載の保安器具。   The security device according to any one of claims 1 to 3, wherein the security device is a color cone. 請求項1乃至4のいずれか一項に記載の保安器具と、
前記通信端末と、
を有することを特徴とする画像通信システム。
The security device according to any one of claims 1 to 4,
The communication terminal;
An image communication system comprising:
所定の通信端末から、所定の通信端末に前記全天球パノラマ画像のデータを転送する画像管理システムを介して送られ、前記全天球パノラマ画像の座標系における指定位置を示す位置座標情報を受信する受信ステップと、
前記受信された前記位置座標情報に基づいて、被写体にレーザ光を照射する照射手段の位置及び傾きの少なくとも一方を変更させる変更ステップと、
前記変更された後に前記レーザ光を照射する照射ステップと、
を実行することを特徴とする照射方法。
Received from the predetermined communication terminal via the image management system for transferring the omnidirectional panoramic image data to the predetermined communication terminal, and receives the position coordinate information indicating the designated position in the coordinate system of the omnidirectional panoramic image Receiving step to
A change step of changing at least one of the position and the tilt of the irradiation means for irradiating the subject with laser light based on the received position coordinate information;
An irradiation step of irradiating the laser beam after the change;
The irradiation method characterized by performing.
コンピュータに、請求項6に記載の方法を実行させることを特徴とするプログラム。   A program causing a computer to execute the method according to claim 6.
JP2016158529A 2015-08-21 2016-08-12 Protective appliance, image communication system, radiation method, and program Pending JP2017041881A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/237,821 US20170054907A1 (en) 2015-08-21 2016-08-16 Safety equipment, image communication system, method for controlling light emission, and non-transitory recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015163933 2015-08-21
JP2015163933 2015-08-21

Publications (1)

Publication Number Publication Date
JP2017041881A true JP2017041881A (en) 2017-02-23

Family

ID=58203250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016158529A Pending JP2017041881A (en) 2015-08-21 2016-08-12 Protective appliance, image communication system, radiation method, and program

Country Status (1)

Country Link
JP (1) JP2017041881A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021088841A (en) * 2019-12-03 2021-06-10 株式会社ザクティ Road cone camera device
JP7485887B2 (en) 2020-04-28 2024-05-17 株式会社ザクティ Camera device for road cones

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021088841A (en) * 2019-12-03 2021-06-10 株式会社ザクティ Road cone camera device
JP7485887B2 (en) 2020-04-28 2024-05-17 株式会社ザクティ Camera device for road cones

Similar Documents

Publication Publication Date Title
JP7322940B2 (en) Image communication system, image communication terminal, image communication method, program, and recording medium
JP6756269B2 (en) Communication terminals, image communication systems, communication methods, and programs
JP6805861B2 (en) Image processing equipment, image processing system, image processing method and program
US20170054907A1 (en) Safety equipment, image communication system, method for controlling light emission, and non-transitory recording medium
US20200296284A1 (en) Image communication system, image capturing device, communication terminal, and mode switching method
JP6665558B2 (en) Image management system, image management method, image communication system, and program
US20210099669A1 (en) Image capturing apparatus, communication system, data distribution method, and non-transitory recording medium
JP7192592B2 (en) Imaging device, image communication system, image processing method, program
JP2019180027A (en) Communication terminal, image communication system, display method, and program
JP2019054322A (en) Communication terminal, image communication system, communication method, and program
US11818492B2 (en) Communication management apparatus, image communication system, communication management method, and recording medium
US20220070412A1 (en) Communication terminal, image communication system, method of displaying image, and recording medium
US20220094850A1 (en) Communication terminal, image communication system, and method for displaying image
JP2022057771A (en) Communication management device, image communication system, communication management method, and program
JP2018082298A (en) Image display system, communication system, image display method and program
US10147160B2 (en) Image management apparatus and system, and method for controlling display of captured image
JP6720778B2 (en) Image management system, image management method, and program
JP2017041881A (en) Protective appliance, image communication system, radiation method, and program
JP2018026642A (en) Image management system, image communication system, image management method, and program
JP6586819B2 (en) Image management system, image communication system, image management method, and program
JP2018061243A (en) Communication terminal, display method, and program
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program
JP2019145959A (en) Communication terminal, communication system, communication method, and program
JP2017182548A (en) Image management system, image management method, image communication system, and program
JP6665440B2 (en) Image management system, image management method, image communication system, and program