JP2017041881A - Protective appliance, image communication system, radiation method, and program - Google Patents
Protective appliance, image communication system, radiation method, and program Download PDFInfo
- Publication number
- JP2017041881A JP2017041881A JP2016158529A JP2016158529A JP2017041881A JP 2017041881 A JP2017041881 A JP 2017041881A JP 2016158529 A JP2016158529 A JP 2016158529A JP 2016158529 A JP2016158529 A JP 2016158529A JP 2017041881 A JP2017041881 A JP 2017041881A
- Authority
- JP
- Japan
- Prior art keywords
- image
- communication terminal
- unit
- irradiation
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Accessories Of Cameras (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、保安器具、画像通信システム、照射方法及びプログラムに関するものである。 The present invention relates to a security device, an image communication system, an irradiation method, and a program.
近年、一度の撮影で、360°の全天球パノラマ画像を得る特殊なデジタルカメラが提供されている(特許文献1参照)。 In recent years, there has been provided a special digital camera that obtains a 360-degree panoramic image at one time (see Patent Document 1).
このデジタルカメラは、全天球パノラマ画像を得るが、そのままでは画像が湾曲して利用者が見えづらいため、スマートフォン等が全天球パノラマ画像の一部である所定領域画像を表示することで、利用者は従来のデジタルカメラで撮影された画像と同じ平面画像を閲覧することができる。 This digital camera obtains an omnidirectional panoramic image, but since the image is curved as it is and it is difficult to see the user, a smartphone or the like displays a predetermined area image that is a part of the omnidirectional panoramic image, The user can view the same planar image as the image taken with the conventional digital camera.
また、工事現場等に監視目的でカメラ(Webカメラ含む)が設置され、撮影された映像を現地又は遠隔地から閲覧するシステムが存在する。多くの場合、特定箇所の監視を目的としているため、壁、柱、ポールなどにカメラが固定される。更に、工事現場等において、監視目的ではなく、現場の作業の進捗状況を確認する為に現場にカメラを設置し遠隔地から閲覧したり監督したりしたいというニーズがある。このニーズを満たすには、全天球を撮影できるカメラを設置することが、1台のカメラで全体を俯瞰できるという点で、従来のカメラの設置と比較し優れている。全天球カメラを設置し工事現場等を内部から撮影する際に有効なカメラの設置位置は、従来の壁、柱、よりも撮影範囲の空間の中心に近い場所になる。また、施工過程の現場は日々変化していくことから、長期間の定点固定ではなく、状況に応じて簡単に位置を変更することが求められる。 In addition, there is a system in which a camera (including a Web camera) is installed at a construction site or the like for viewing, and a photographed image is browsed from a local location or a remote location. In many cases, the camera is fixed to a wall, a pillar, a pole, or the like because the purpose is to monitor a specific part. Furthermore, there is a need at a construction site or the like to install a camera on the site so as to check the progress of the work on the site, not for the purpose of monitoring, and to view or supervise it from a remote location. In order to satisfy this need, installation of a camera capable of photographing the entire celestial sphere is superior to installation of conventional cameras in that the entire camera can be viewed from a single camera. The effective camera installation position when the omnidirectional camera is installed and the construction site is photographed from the inside is closer to the center of the space of the photographing range than the conventional wall and pillar. In addition, since the construction site changes day by day, it is required not to fix the fixed point for a long time but to change the position easily according to the situation.
しかしながら、全天球カメラを建設現場での撮影範囲の中心に近い位置に設置しようとした場合、三脚等を使用し設置する必要があるが、この方法では現場作業員が誤って転倒させてしまう可能性があるという課題が生じる。 However, if the omnidirectional camera is to be installed at a position close to the center of the shooting range at the construction site, it is necessary to install it using a tripod, etc., but this method causes the field worker to accidentally tip over. There arises the problem that there is a possibility.
請求項1に係る発明は、被写体を撮像して全天球パノラマ画像のデータを得る撮影装置が取り付け可能な取付手段と、前記取り付けられた撮影装置から前記データを取得する取得手段と、所定の通信端末に前記全天球パノラマ画像のデータを転送する画像管理システムに対し、通信ネットワークを介して前記取得されたデータを送信する送信手段と、を有することを特徴とする保安器具である。 According to a first aspect of the present invention, there is provided attachment means to which an imaging device that captures a subject and obtains panoramic image data can be attached; acquisition means for acquiring the data from the attached imaging device; A security device, comprising: a transmission unit configured to transmit the acquired data via a communication network to an image management system that transfers the data of the panoramic image to the communication terminal.
以上説明したように本発明によれば、撮影装置を取り付けることができ、取り付けられた撮影装置から全天球パノラマ画像のデータを取得し、通信ネットワークを介して所定の通信端末に送ることができる保安器具を採用する。このように、保安器具であることで、安全面から工事現場との親和性が高く、現場の作業者は、保安器具を意識して(避けて)工事等の作業を進めることができるため、誤って保安器具を転倒させてしまう可能性を減少させることができる。 As described above, according to the present invention, an imaging device can be attached, and data of a panoramic image can be acquired from the attached imaging device and sent to a predetermined communication terminal via a communication network. Use safety equipment. In this way, because it is a safety device, it has a high affinity with the construction site from the safety aspect, and workers on the site can proceed with work such as construction while being aware of the safety device (avoidance) The possibility of accidentally overturning the security device can be reduced.
以下、図面を用いて、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<<実施形態の概略>>
<全天球パノラマ画像の生成方法>
図1乃至図7を用いて、全天球パノラマ画像の生成方法について説明する。
<< Summary of Embodiment >>
<Generation method of panoramic image>
A method for generating an omnidirectional panoramic image will be described with reference to FIGS.
まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の正面図であり、図1(c)は撮影装置の平面図である。
First, the external appearance of the photographing
図1(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図1(a),(b),(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。これら撮像素子103a,103bは、半球画像(画角180°以上)の撮影が可能な光学部材(例えば、後述する魚眼レンズ102a,102b)と併せて用いられる。また、図1(b)に示されているように、撮影装置1の背面側(後側)には、シャッターボタン等の操作部115が設けられている。
As shown in FIG. 1A, the photographing
次に、図2を用いて、撮影装置1の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置1は、図2に示されているように、例えば、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。
Next, the usage situation of the
次に、図3及び図4を用いて、撮影装置1で撮影された画像から全天球パノラマ画像が作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。図4(a)はメルカトル画像で球を被う状態を示した概念図、図4(b)は全天球パノラマ画像を示した図である。
Next, an outline of processing until an omnidirectional panoramic image is created from an image photographed by the photographing
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。
As shown in FIG. 3A, the image obtained by the
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、メルカトル画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球パノラマ画像が作成される。このように、全天球パノラマ画像は、メルカトル画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球パノラマ画像は、静止画であっても動画であってもよい。 By using OpenGL ES (Open Graphics Library for Embedded Systems), as shown in FIG. 4A, the Mercator image is pasted so as to cover the spherical surface, and FIG. An omnidirectional panoramic image as shown is created. Thus, the omnidirectional panoramic image is represented as an image in which the Mercator image faces the center of the sphere. OpenGL ES is a graphics library used for visualizing 2D (2-Dimensions) and 3D (3-Dimensions) data. Note that the omnidirectional panoramic image may be a still image or a moving image.
以上のように、全天球パノラマ画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球パノラマ画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。 As described above, since the omnidirectional panoramic image is an image pasted so as to cover the spherical surface, it is uncomfortable when viewed by a human. Therefore, by displaying a predetermined area (hereinafter referred to as “predetermined area image”) of a part of the omnidirectional panoramic image as a flat image with little curvature, a display that does not give a sense of incongruity to humans can be achieved. This will be described with reference to FIGS.
なお、図5は、全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、3次元の立体球として表示されている全天球パノラマ画像に対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球パノラマ画像が、3次元の立体球CSで表わされている。このように生成された全天球パノラマ画像が、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球パノラマ画像の外部に位置している。全天球パノラマ画像における所定領域Tは、この全天球パノラマ画像における仮想カメラICの位置の所定領域情報によって特定される。この所定領域情報は、例えば、座標(x(rH)、y(rV)、及び画角α(angle))又は座標(X,Y,Z)によって示される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球パノラマ画像に近づいたり、遠ざけたりすることで表現することもできる。 FIG. 5 is a diagram illustrating the positions of the virtual camera and the predetermined area when the panoramic image is a three-dimensional solid sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the omnidirectional panoramic image displayed as a three-dimensional solid sphere. FIG. 6A is a three-dimensional perspective view of FIG. 5, and FIG. 6B is a diagram showing a predetermined area image when displayed on the display. In FIG. 6A, the omnidirectional panoramic image shown in FIG. 4 is represented by a three-dimensional solid sphere CS. If the omnidirectional panoramic image generated in this way is a solid sphere CS, the virtual camera IC is located outside the omnidirectional panoramic image as shown in FIG. The predetermined area T in the omnidirectional panoramic image is specified by predetermined area information of the position of the virtual camera IC in the omnidirectional panoramic image. The predetermined area information is indicated by, for example, coordinates (x (rH), y (rV), and angle of view α (angle)) or coordinates (X, Y, Z). The zoom of the predetermined region T can be expressed by expanding or contracting the range (arc) of the angle of view α. The zoom of the predetermined area T can also be expressed by moving the virtual camera IC closer to or away from the panoramic image.
そして、図6(a)で示されているように、全天球パノラマ画像における所定領域Tの画像は、図6(b)に示されているように、所定のディスプレイに、所定領域画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報(x,y,α)によって表された画像である。 Then, as shown in FIG. 6A, the image of the predetermined area T in the omnidirectional panoramic image is displayed on the predetermined display as the predetermined area image as shown in FIG. 6B. Is displayed. The image shown in FIG. 6B is an image represented by predetermined area information (x, y, α) that is initially set (default).
ここで、図7を用いて、所定領域情報と所定領域画像の関係について説明する。なお、図7は、所定領域情報と所定領域画像の関係との関係を示した図である。図7に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角線画角を2Lとした場合の中心点CPが、所定領域情報の(x,y)パラメータとなる。fは仮想カメラICから所定領域Tの中心点CPまでの距離である。そして、図7では、一般的に以下の式(1)で示される三角関数が成り立つ。 Here, the relationship between the predetermined area information and the predetermined area image will be described with reference to FIG. FIG. 7 is a diagram showing the relationship between the predetermined region information and the relationship between the predetermined region images. As shown in FIG. 7, the center point CP when the diagonal field angle of the predetermined area T represented by the field angle α of the virtual camera IC is 2L is the (x, y) parameter of the predetermined area information. Become. f is the distance from the virtual camera IC to the center point CP of the predetermined area T. In FIG. 7, a trigonometric function represented by the following formula (1) is generally established.
Lf=tan(α/2)・・・(式1)
<画像通信システムの概略>
続いて、図8を用いて、本実施形態の画像通信システムの構成の概略について説明する。図8は、本実施形態の画像通信システムの構成の概略図である。
Lf = tan (α / 2) (Formula 1)
<Outline of image communication system>
Next, an outline of the configuration of the image communication system according to the present embodiment will be described with reference to FIG. FIG. 8 is a schematic diagram of the configuration of the image communication system of the present embodiment.
図8に示されているように、本実施形態の画像通信システムは、撮影装置1、通信端末3、画像管理システム5、及び通信端末7によって構成されている。
As shown in FIG. 8, the image communication system according to the present embodiment includes an
このうち、撮影装置1は、上述のように、全天球パノラマ画像を得るためのデジタルカメラである。なお、この撮影装置1は、一般的なデジタルカメラであっても良く、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために全天球パノラマ画像を得るためのデジタルカメラとして説明を行う。通信端末3は、撮影装置1への充電やデータ送受信を行なうクレードル(Cradle)の役割を果たし、一例として、工事現場等に設置される保安器具(ここでは、カラーコーン)の場合について示している。また、通信端末3は、接点を介して撮影装置1とデータ通信を行なうことができると共に、WiFi等の無線通信技術を利用し、通信ネットワーク9を介して画像管理システム5とデータ通信を行なうことができる。なお、通信ネットワーク9は、例えば、インターネットである。
Among these, the
また、画像管理システム5は、例えば、サーバコンピュータであり、通信ネットワーク9を介して、通信端末3,5とデータ通信を行なうことができる。画像管理システム5には、OpenGL ESがインストールされており、全天球パノラマ画像を作成する。また、画像管理システム5は、全天球パノラマ画像の一部の画像(所定領域画像又は後述の特定領域画像)を作成し、通信端末7にサムネイルデータ及び撮影画像データを提供する。
The
また、通信端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理システム5とデータ通信を行なうことができる。なお、画像管理システム5は、単一のサーバコンピュータによって構成されてもよいし、複数のサーバコンピュータによって構成されてもよい。
The communication terminal 7 is, for example, a notebook PC (Personal Computer), and can perform data communication with the
更に、撮影装置1、及び通信端末3は、アパート等の各工事拠点で作業者Xによって所定の位置に設置される。通信端末7は、各工事拠点を統括及び遠隔的に監督する本社等に設置され、画像管理システム5を介して送られて来る各拠点の状況を表した画像を表示することで、監督者Yが各拠点の状況を表した画面(以下、「拠点状況画面」と示す)を閲覧することができる。画像管理システム5は、各拠点の通信端末3から送られて来た撮影画像データを通信端末7に提供するサービスを行なうサービス会社等に設置されている。
Furthermore, the photographing
<実施形態のハードウェア構成>
次に、図9乃至図14を用いて、本実施形態の撮影装置1、通信端末3,7、及び画像管理システム5のハードウェア構成を詳細に説明する。
<Hardware Configuration of Embodiment>
Next, the hardware configuration of the
まず、図9を用いて、撮影装置1のハードウェア構成を説明する。なお、図9は、撮影装置のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全方位撮影装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。
First, the hardware configuration of the photographing
図9に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
As shown in FIG. 9, the
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
Among these, the
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
The
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているようなメルカトル画像のデータを作成する。
The
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
In general, the imaging control unit 105 sets a command or the like in a register group of the
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
The imaging control unit 105 instructs the
また、撮像制御ユニット105は、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置には表示部が設けられていないが、表示部を設けてもよい。
The imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of the image data of the
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
The
CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
The
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。
The
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
The network I /
通信部117は、撮影装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)やNFC等の短距離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
The
電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。
The
次に、図10及び図14を用いて、通信端末3のハードウェア構成を説明する。なお、図10(a)は通信端末の斜視図、図10(b)は取付部の斜視図である。図11(a)は通信端末の平面図、図11(b)は通信端末の側面図である。
Next, the hardware configuration of the
図10(a)に示されているように、通信端末3は、主に、カラーコーン300、照射位置制御部350、及びカバー390によって構成されている。カラーコーン300は、工事現場等で用いられる内部が空洞のプレスチック製である。カラーコーン300の内空部分には、通信制御部310、及びバッテリ330が備え付けられている。通信制御部310は、撮影装置1から取得したデータを、通信ネットワーク9を介して画像管理システム5に送信することができる。バッテリ330は、二次電池として停電に対応するための役割を果たす。バッテリ330は、プラグ399が接続されたコンセントから給電されることで、充電することができる。また、カラーコーン300の上部には、撮影装置1を取り付けるための凹部を有する取付部400が備えられている。
As shown in FIG. 10A, the
図10(b)に示されているように、取付部400には、撮影装置1を挿脱自在な凹部である開口部410が形成されている。この開口部410の底部には、撮影装置1の底面に形成されているUSB接続I/Fの凹部に挿脱自在な凸部のUSB接続I/F420が設けられている。また、撮影装置1の撮像素子103aが常に通信端末3の特定の方向を向くように、撮影装置1が通信端末3に装着される。カバー390は、プラスチック製又はガラス製の透明のカバーであり、撮影装置1を保護する。なお、USB接続I/Fは、Micro USB接続I/Fであってもよい。
As shown in FIG. 10B, the attachment portion 400 is formed with an opening 410 that is a concave portion into which the photographing
また、取付部400と通信制御部310と間にはケーブル391が接続されており、このケーブル391は取付部400と通信制御部310との間のデータの送受信や給電に利用される。照射位置制御部350と通信制御部310と間にはケーブル392が接続されており、このケーブル392は照射位置制御部350と通信制御部310との間のデータの送受信や給電に利用される。通信制御部310とバッテリ330と間にはケーブル393が接続されており、このケーブル393はバッテリ330から通信制御部310への給電に利用される。バッテリ330とプラグ399との間には給電ケーブル394が接続されている。
Further, a
また、図11(a)、(b)に示されているように、照射位置制御部350は、主に、ガイドレール360、複数の支持棒361〜368、支持台372、及び照射装置380によって構成されている。これらのうち、ガイドレール360は、支持台372をθ方向に回動させるためのレールである。複数の支持棒361〜368は、カラーコーン300にガイドレール360を設けて、カラーコーン300を支えるための棒である。支持台372は、照射装置380を設置する土台になるとともに、ガイドレール360に沿ってθ方向に回動することで、照射装置380を回動させることができる。
Further, as shown in FIGS. 11A and 11B, the irradiation
次に、図12を用いて、照射位置制御部350の機構について詳細に説明する。図12(a)は照射位置制御部350の平面図、図12(b)は図12(a)のA−A断面図、図12(c)は図12(a)のB−B断面図である。
Next, the mechanism of the irradiation
図12(a),(b)に示されているように、照射位置制御部350は、主に、モータ351、ガイドレール360、回転台371、支持台372、平歯車374、及び照射装置380によって構成されている。
12A and 12B, the irradiation
モータ351は、サーボモータであり、回転軸375を介して平歯車374に所定の回転を与える。また、ガイドレール360上には、リング状の回転台371が回転自在に設けられている。回転台371には、内歯車(インターナルギヤ)が形成されており、平歯車374と噛み合い、平歯車374がモータ351によって回転することで、回転台371がガイドレール360に対してθ方向に回転する。これに伴い、回転台371に設けられた支持台372もθ方向に回転するため、支持台372上に設けられた照射装置380もθ方向に回転する。
The
更に、図12(c)に示されているように、照射装置380の内部には、ポインタ381、及びモータ353が設けられている。ポインタ381の先端部にはLED355が設けられている。モータ353は、サーボモータであり、回転軸383を介してポインタ381をφ方向に回転させることができる。
Furthermore, as shown in FIG. 12C, a pointer 381 and a
これにより、照射位置制御部350は、撮影装置1が全天球パノラマ撮影する被写体のほとんどの領域に対して、レーザ光を照射することができる。
As a result, the irradiation
次に、図13を用いて、通信端末3のハードウェア構成を説明する。図13は、通信端末3の電気的なハードウェア構成図である。
Next, the hardware configuration of the
図13に示されているように、通信端末3は、通信制御部310及び照射位置制御部350によって構成されている。このうち、通信制御部310は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305、各種デバイスとの電気的な接続を行なうためのデバイスI/F308を備えている。このデバイスI/Fにより、図10に示されているように、撮影装置1が通信端末3に取り付けられた場合に、通信端末3が撮影装置1と電気的に接続する。
As illustrated in FIG. 13, the
なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。
The
更に、通信端末3は、アンテナ313a、このアンテナ313aを利用して無線通信信号により、他の装置(端末)と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン320を備えている
また、デバイスI/F308には、照射位置制御部350が電気的に接続されている。照射位置制御部350には、図12(b)に示されている通信端末3のガイドレール360に沿って照射装置380を回転(θ方向への回転)させるためのモータ351、及び、モータ351の駆動を制御するためのモータドライバ352が設けられている。また、照射位置制御部350には、図12(c)に示されている通信端末3のガイドレール360の特定位置で上下方向にポインタ381を回転(φ方向への回転)させるためのモータ353、及び、モータ353の駆動を制御するためのモータドライバ354が設けられている。更に、照射位置制御部350には、レーザ光を照射するためのLED(Light Emitting Diode)355、及び、LED355の照射のONとOFFを制御するためのLED制御回路356が設けられている。なお、照射位置制御部350のモータドライバ352、モータドライバ354、及びLED制御回路356は、通信制御部310のCPU301によって処理及び動作が制御される。
Further, the
次に、図14を用いて、画像管理システム5及びノートPCの場合の通信端末7のハードウェア構成を説明する。なお、図14は、画像管理システム5及び通信端末7のハードウェア構成図である。画像管理システム5、及び通信端末7は、ともにコンピュータであるため、以下では、画像管理システム5の構成について説明し、通信端末7の構成の説明は省略する。
Next, the hardware configuration of the communication terminal 7 in the case of the
画像管理システム5は、画像管理システム5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、画像管理システム5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を図14に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
The
<<実施形態の機能構成>>
次に、図9乃至図14、及び図15を用いて、本実施形態の機能構成について説明する。図15は、本実施形態の画像通信システムの一部を構成する、撮影装置1、通信端末3、画像管理システム5、及び通信端末7の各機能ブロック図である。図15では、画像管理システム5が、通信ネットワーク9を介して、通信端末3及び通信端末7とデータ通信することができる。
<< Functional Configuration of Embodiment >>
Next, the functional configuration of this embodiment will be described with reference to FIGS. 9 to 14 and FIG. FIG. 15 is a functional block diagram of the
<撮影装置1の機能構成>
図15に示されているように、撮影装置1は、受付部12、撮像部13、集音部14、接続部18、及び記憶・読出部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of photographing
As illustrated in FIG. 15, the
また、撮影装置1は、図9に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。
Further, the photographing
(撮影装置1の各機能構成)
次に、図9及び図15を用いて、撮影装置1の各機能構成について更に詳細に説明する。
(Each functional configuration of the photographing apparatus 1)
Next, each functional configuration of the photographing
撮影装置1の受付部12は、主に、図9に示されている操作部115及びCPU111の処理によって実現され、利用者(図8では、作業者X)からの操作入力を受け付ける。
The accepting unit 12 of the photographing
撮像部13は、主に、図9に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。
The
集音部14は、図9に示されている108及び音処理ユニット109、並びにCPU111の処理によって実現され、撮影装置1の周囲の音を収音する。
The
接続部18は、主に、撮影装置1の底面に設けられた凹部のUSB接続I/F、及びCPU111の処理によって実現され、通信端末3からの電源供給を受けると共に、データ通信を行う。
The
記憶・読出部19は、主に、図9に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。
The storage / reading unit 19 is realized mainly by the processing of the
<通信端末3の機能構成>
図15に示されているように、通信端末3は、通信制御部310及び照射位置制御部350を有している。このうち、通信制御部310は、送受信部31、判断部33、算出部34、接続部38、及び記憶・読出部39を有している。これら各部は、図13に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された通信端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of
As illustrated in FIG. 15, the
また、通信端末3は、図13に示されているROM302、RAM303、及びEEPROM304によって構築される記憶部3000を有している。
Further, the
一方、照射位置制御部350は、変更部35、及び照射部36を有している。これら各部は、図13に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された通信端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
On the other hand, the irradiation
(通信端末3の各機能構成)
次に、図13及び図15を用いて、通信端末3の各機能構成について更に詳細に説明する。
(Each functional configuration of the communication terminal 3)
Next, each functional configuration of the
通信制御部310の送受信部31は、主に、図13に示されている通信部313及びCPU301の処理によって実現され、通信ネットワーク9を介して、画像管理システム5と各種データ(または情報)の送受信を行う。
The transmission /
判断部33は、主に、図13に示されているCPU301の処理によって実現され、カーソル4による指定位置と、LEDによる照射位置との間の距離が閾値(例えば、現実世界の10cm)以内であるか否か等の判断を行なう。
The
算出部34は、主に、図13に示されているCPU301の処理によって実現され、撮影装置1における全天球パノラマ画像の座標系から、通信端末3が設置された拠点の空間の座標系に変換することで、全天球パノラマ画像における指定位置から、拠点の空間におけるレーザ光の照射位置を算出する。
The
接続部38は、主に、USB接続I/F420、及びCPU301の処理によって実現され、通信端末3に電源供給すると共にデータ通信を行う。接続部18は全天球パノラマ画像データを提供する提供手段の一例であり、接続部38は全天球パノラマ画像データの取得する取得手段の一例である。
The
記憶・読出部39は、主に、図13に示されているCPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。
The storage /
一方、照射位置制御部350の変更部35は、主に、図13に示されているモータドライバ352,354、及びモータ351,353、並びにCPU301の処理によって実現され、照射装置380のθ方向への回転(左右移動)及びポインタ381のφ方向への回転(上下移動)の変更を制御する。また、照射位置制御部350の照射部36は、主に、図12に示されている照射位置制御部350、図13に示されているLED制御回路356、及びLED355、並びにCPU301の処理によって実現され、照射位置制御部350からのレーザ光の照射及び照射の制御を行なう。
On the other hand, the changing
<画像管理システムの機能構成>
次に、図14及び図15を用いて、画像管理システム5の各機能構成について詳細に説明する。画像管理システム5は、送受信部51、生成部54、及び記憶・読出部59を有している。これら各部は、図14に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理システム5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of image management system>
Next, each functional configuration of the
また、画像管理システム5は、図14に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点管理DB5001、端末管理DB5002、撮影管理DB5003、及び画像管理DB5004が構築されている。このうち、拠点管理DB5001は、後述の拠点管理テーブルによって構成されている。端末管理DB5002は、後述の端末管理テーブルによって構成されている。撮影管理DB5003は、撮影管理テーブルによって構成されている。画像管理DB5004は、後述の画像管理テーブルによって構成されている。
Further, the
(拠点管理テーブル)
図16は、拠点管理テーブルを示す概念図である。この拠点管理テーブルでは、地域ID、地域名、拠点ID、拠点名、拠点のレイアウトマップのファイル名、及び、装置IDが関連付けて記憶されて管理されている。このうち、地域IDは、地域を識別するための地域識別情報の一例である。地域は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等の一定の範囲を示す。拠点IDは、拠点を識別するための拠点識別情報の一例である。拠点名は、工事現場等を示す。レイアウトマップは、図20に示されているように、各拠点のレイアウトを示し、2次元座標で詳細に拠点内の位置を特定することができる。なお、図20は、拠点レイアウトマップの概念図である。ここでは、工事現場であるアパートのレイアウトマップが示されている。装置IDは、撮影装置1を識別するための装置識別情報の一例である。レイアウトマップのデータは、記憶部5000に記憶されている。
(Base management table)
FIG. 16 is a conceptual diagram showing a base management table. In this base management table, a region ID, a region name, a base ID, a base name, a file name of a base layout map, and a device ID are stored and managed in association with each other. Of these, the region ID is an example of region identification information for identifying a region. The region indicates a certain range, for example, Kanto, Tokyo, Shibuya Ward, New York State, New York City. The base ID is an example of base identification information for identifying the base. The site name indicates the construction site. As shown in FIG. 20, the layout map shows the layout of each site, and can specify the position in the site in detail using two-dimensional coordinates. FIG. 20 is a conceptual diagram of the base layout map. Here, a layout map of an apartment that is a construction site is shown. The device ID is an example of device identification information for identifying the photographing
(端末管理テーブル)
図17は、端末管理テーブルを示す概念図である。この端末管理テーブルでは、装置ID毎に、装置設置位置情報、及び所定領域情報が関連付けて記憶されて管理されている。このうち、装置設置位置情報は、例えば、図20に示されているように、2次元座標で示された拠点レイアウトマップ上における撮影装置の設置位置を示す。所定領域情報は、図7で説明した所定領域情報である。この端末管理テーブルにおける装置ID、装置設置位置情報、及び所定領域情報は、監督者Yが作業者X等から予め取得した情報である。作業者Xは、各撮影装置1を拠点内の所定の位置に設置する際に、監督者Yに電子メール等で伝える。
(Terminal management table)
FIG. 17 is a conceptual diagram showing a terminal management table. In this terminal management table, device installation position information and predetermined area information are stored and managed in association with each device ID. Among these, the apparatus installation position information indicates the installation position of the photographing apparatus on the base layout map indicated by the two-dimensional coordinates, for example, as shown in FIG. The predetermined area information is the predetermined area information described with reference to FIG. The device ID, device installation position information, and predetermined area information in this terminal management table are information that the supervisor Y previously acquires from the worker X and the like. The worker X notifies the supervisor Y by e-mail or the like when installing each photographing
(撮影管理テーブル)
図18は、撮影管理テーブルを示す概念図である。この撮影管理テーブルでは、拠点ID毎に、撮影タイトル、撮影開始日時、及び撮影終了日時が関連付けて記憶されて管理されている。このうち、撮影タイトルは、閲覧者である監督者Yによって入力されたタイトルであり、監督者Yによって複数の撮影画像データから所望の撮影画像データを抽出する際に利用される。撮影開始日時は、閲覧者によって入力された日時であり、撮影装置1が撮影を開始する(又は開始した)日時を示す。撮影終了日時は、監督者Yによって入力された日時であり、撮影装置1が撮影を終了する(又は終了した)日時を示す。
(Shooting management table)
FIG. 18 is a conceptual diagram showing a photographing management table. In this shooting management table, a shooting title, a shooting start date and time, and a shooting end date and time are stored and managed in association with each base ID. Among these, the shooting title is a title input by the supervisor Y who is a viewer, and is used when the supervisor Y extracts desired shot image data from a plurality of shot image data. The shooting start date and time is the date and time input by the viewer, and indicates the date and time when the
(画像管理テーブル)
図19は、画像管理テーブルを示す概念図である。この画像管理テーブルでは、装置ID毎に、画像ID、撮影画像データのファイル名、及び撮影日時が関連付けて記憶されて管理されている。このうち、画像IDは、撮影画像データを識別するための画像識別情報の一例である。撮影画像データのファイル名は、この関連付けられている画像IDで示される撮影画像データのファイル名である。撮影日時は、この関連付けられている撮影画像データが装置IDで示される撮影装置1で撮影された日時である。撮影画像データは、記憶部5000に記憶されている。
(Image management table)
FIG. 19 is a conceptual diagram showing an image management table. In this image management table, for each device ID, an image ID, a file name of captured image data, and a shooting date and time are associated with each other and stored and managed. Among these, the image ID is an example of image identification information for identifying captured image data. The file name of the photographed image data is the file name of the photographed image data indicated by the associated image ID. The shooting date and time is the date and time when the associated shooting image data was shot by the
(画像管理システムの各機能構成)
次に、図14及び図15を用いて、画像管理システム5の各機能構成について詳細に説明する。
(Each functional configuration of the image management system)
Next, each functional configuration of the
画像管理システム5の送受信部51は、主に、図14に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は通信端末7と各種データ(または情報)の送受信を行う。
The transmission /
生成部54は、後述の図25乃至図31に示されているような、特定拠点の状況を表す拠点状況画面を生成する。 The generation unit 54 generates a site status screen representing the status of a specific site as shown in FIGS. 25 to 31 described later.
記憶・読出部59は、主に、図14に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。
The storage /
<通信端末7の機能構成>
次に、図14及び図15を用いて、通信端末7の機能構成について詳細に説明する。通信端末7は、送受信部71、受付部72、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図14に示されている各構成要素のいずれかが、HD504からRAM503上に展開された通信端末7用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of communication terminal 7>
Next, the functional configuration of the communication terminal 7 will be described in detail with reference to FIGS. 14 and 15. The communication terminal 7 includes a transmission /
また、通信端末7は、図14に示されているRAM503、及びHD504によって構築される記憶部7000を有している。
Further, the communication terminal 7 includes a
(通信端末7の各機能構成)
次に、図15を用いて、通信端末7の各機能構成について詳細に説明する。
(Each functional configuration of the communication terminal 7)
Next, each functional configuration of the communication terminal 7 will be described in detail with reference to FIG.
通信端末7の送受信部71は、主に、図14に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理システム5と各種データ(または情報)の送受信を行う。
The transmission /
受付部72は、主に、図14に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、利用者(図8では、監督者Y)からの操作入力を受け付ける。
The accepting unit 72 is realized mainly by the processing of the
表示制御部73は、主に、図14に示されているCPU501の処理によって実現され、通信端末7のディスプレイ508に各種画像を表示させるための制御を行なう。
The
記憶・読出部79は、主に、図14に示されているHDD505、及びCPU501の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。
The storage /
<<実施形態の処理又は動作>>
続いて、図21乃至図32を用いて、本実施形態の処理又は動作について説明する。まず、図21を用いて、監督者Yが通信端末7を利用して、撮影装置1の撮影予約の処理を説明する。図21は、撮影予約の処理を示すシーケンス図である。また、図25乃至図31は、監督者側の画面例を示す図である。このうち、図25及び図26は、日程表画面を示す。図27乃至図31は、特定拠点の状況を表す拠点状況画面を示す。
<< Processing or Operation of Embodiment >>
Subsequently, the processing or operation of the present embodiment will be described with reference to FIGS. First, using FIG. 21, the supervisor Y uses the communication terminal 7 to explain the shooting reservation process of the
図21に示されているように、監督者Yが、通信端末7に拠点IDを入力すると、受付部72が拠点IDの入力を受け付ける(ステップS11)。この場合、通信端末7のディスプレイ508上には、図25(a)に示されているように、拠点IDを入力するための入力欄7110が表示されるため、監督者Yは、入力欄7110に閲覧したい工事現場等である拠点の拠点IDを入力する。これにより、送受信部71は、画像管理システム5に対して、日程表の要求を送信する(ステップS12)。この要求には、ステップS11で入力された拠点IDが含まれている。これにより、画像管理システム5の送受信部51は、日程表の要求を受信する。
As shown in FIG. 21, when the supervisor Y inputs the base ID into the communication terminal 7, the receiving unit 72 receives the input of the base ID (step S11). In this case, as shown in FIG. 25A, an
次に、画像管理システム5の記憶・読出部59は、送受信部51によって受信された拠点IDを検索キーとして撮影管理テーブル(図18参照)を検索することにより、対応する撮影タイトル、撮影開始日時、及び撮影終了日時を読み出すと共に、拠点IDを検索キーとして拠点管理テーブル(図16参照)を検索することにより、対応する拠点名を読み出す(ステップS13)。そして、生成部54が、ステップS13によって読み出された各種情報に基づいて、図25(b)に示されているような日程表画面を作成し、送受信部51が通信端末7に日程表画面のデータを送信する(ステップS14)。この際、日程表画面データと共に、拠点IDも送信される。これにより、通信端末7の送受信部71は、日程表画面のデータを受信する。
Next, the storage /
次に、通信端末7では、表示制御部73が、ディスプレイ508に、図25(b)に示されているような日程表画面を表示させる(ステップS15)。日程表画面には、日毎に時間の表が表示され、予約ボタン7290が表示されている。そして、受付部72は、監督者Yから撮影予約を受け付ける(ステップS16)。具体的には、監督者Yが所望の日の項目7210を押下した後、予約ボタン7290を押下すると、表示制御部73が、図26(a)に示されているような「撮影の予約」画面を表示する。そして、監督者Yが、撮影タイトル(ここでは、「窓枠取付」)、撮影の開始時間(ここでは、10:00)、及び、撮影の終了時間(ここでは、18:00)を入力し、「OK」ボタン7380を押下すると、送受信部71が、画像管理システム5に対して、撮影予約を送信する(ステップ17)。この撮影予約には、拠点ID、撮影タイトル、撮影開始日時、及び撮影終了日時が含まれている。これにより、画像管理システム5の送受信部51は、撮影予約を受信する。
Next, in the communication terminal 7, the
次に、画像管理システム5の記憶・読出部59は、撮影管理テーブル(図18参照)に、新たなレコードとして、撮影予約の内容を記憶する(ステップS18)。以上により、撮影予約の処理が終了する。
Next, the storage /
続いて、図22を用いて、画像管理システム5が撮影管理テーブル(図18参照)に基づいて、通信端末3に撮影指示を行なう処理について説明する。図22は、撮影指示を行なう処理を示したシーケンス図である。
Next, a process in which the
図22に示されているように、画像管理システム5の送受信部51は、拠点IDで示される拠点内の全ての通信端末3に対して、撮影指示を送信する(ステップS31)。この撮影指示には、撮影開始日時及び撮影終了日時が含まれている。これにより、通信端末3は、撮影指示を受信する。
As shown in FIG. 22, the transmission /
次に、通信端末3は、撮影開始時間になると、撮影装置1に対して、撮影開始指示を送信する(ステップS32)。これにより、撮影装置1の送受信部11は、撮影開始指示を受信する。
Next, the
次に、撮影装置1では、例えば、10分毎に撮影を行い、通信端末3に対して、自己の装置ID、撮影画像データ、関連情報、及び所定領域情報を送信する(ステップS33)。関連情報は、実際の撮影日時等を示す。所定領域情報は、撮影装置1の工場出荷時に予め定められた視点方向を示している。これにより、通信端末3の送受信部31は、装置ID、撮影画像データ、関連情報、及び所定領域情報を受信する。
Next, the
次に、通信端末3の送受信部31は、画像管理システム5に対して、画像の登録要求を送信する(ステップS34)。この画像の登録要求には、ステップS3で受信された装置ID、撮影画像データ、関連情報、及び所定領域情報が含まれている。これにより。画像管理システム5の送受信部51は、画像の登録要求を受信する。そして、画像管理システム5では、記憶・読出部59が、ステップS34によって受信された撮影画像データに対して、新たに画像IDを割り当てる(ステップS35)。
Next, the transmission /
次に、記憶・読出部59は、各テーブルに対して各情報を記録して管理する(ステップS36)。具体的には、記憶・読出部59は、端末管理テーブル(図17参照)に対して、装置IDに対応する所定領域情報を上書きして管理する。また、記憶・読出部59は、画像管理テーブル(図19参照)に対して、新たなレコードとして、装置ID、画像ID、画像データのファイル名、及び撮影日時を関連付けて記憶する。このうち、装置IDは、ステップS34によって受信されたIDである。画像IDは、ステップS35によって割り当てられたIDである。画像データのファイル名は、ステップ34によって受信された撮影画像データのファイル名である。撮影日時は、ステップS34によって受信された関連情報に含まれる撮影日時である。
Next, the storage /
次に、送受信部51は、通信端末3に対して、登録完了の通知を送信する(ステップS37)。この通知には、画像IDが含まれている。これにより、通信端末3の送受信部31は、登録完了の通知を受信する。そして、通信端末3の記憶・読出部39は、記憶部3000に画像IDを記憶する(ステップS38)。
Next, the transmission /
続いて、図23を用いて、レイアウトマップの表示の処理について説明する。図23は、レイアウトマップの表示の処理を示すシーケンス図である。 Next, layout map display processing will be described with reference to FIG. FIG. 23 is a sequence diagram illustrating processing for displaying a layout map.
図23に示されているように、監督者Yが、通信端末7に拠点IDを入力すると、受付部72が拠点IDの入力を受け付ける(ステップS51)。この場合、通信端末7のディスプレイ508上には、図25(a)に示されているように、拠点IDを入力するための入力欄7110が表示されるため、監督者Yは、入力欄7110に閲覧したい工事現場等である拠点の拠点IDを入力する。これにより、送受信部71は、画像管理システム5に対して、日程表の要求を送信する(ステップS52)。この要求には、ステップS51で入力された拠点IDが含まれている。これにより、画像管理システム5の送受信部51は、日程表の要求を受信する。
As shown in FIG. 23, when the supervisor Y inputs the base ID to the communication terminal 7, the receiving unit 72 receives the input of the base ID (step S51). In this case, as shown in FIG. 25A, an
次に、画像管理システム5の記憶・読出部59は、送受信部51によって受信された拠点IDを検索キーとして撮影管理テーブル(図18参照)を検索することにより、対応する撮影タイトル、撮影開始日時、及び撮影終了日時を読み出すと共に、拠点IDを検索キーとして拠点管理テーブル(図16参照)を検索することにより、対応する拠点名を読み出す(ステップS53)。そして、生成部54が、ステップS13によって読み出された各種情報に基づいて、図26(b)に示されているような日程表画面を作成し、送受信部51が通信端末7に日程表画面のデータを送信する(ステップS54)。この際、日程表画面データと共に、拠点IDも送信される。これにより、通信端末7の送受信部71は、日程表画面のデータを受信する。
Next, the storage /
次に、通信端末7では、表示制御部73が、ディスプレイ508に、図26(b)に示されているような日程表画面を表示させる(ステップS55)。ここでは、図25(b)と異なり、既に撮影予約されていた場合の日程表画面が示されている。図26(b)では、例えば、ステップS16〜S18の処理で行なわれた撮影日程の内容を示す日程情報7410等が表示されている。
Next, in the communication terminal 7, the
次に、監督者Yが、例えば、日程情報7410を押下すると、受付部72が、日程情報7410に係るレイアウトマップの取得を受け付ける(ステップS56)。そして、送受信部71が、画像管理システム5に対して、レイアウトマップを要求する(ステップS57)。この要求には、拠点ID、撮影開始日時、及び撮影終了日時が含まれている。これにより、画像管理システム5の送受信部51は、レイアウトマップの要求を受信する。
Next, when the supervisor Y presses the
次に、画像管理システム5の記憶・読出部59は、ステップS57によって受信された拠点IDを検索キーとして、拠点管理テーブル(図16参照)を検索することにより、対応するレイアウトマップのファイル名、及び装置IDを読み出す(ステップ58)。また、記憶・読出部59は、読み出した装置IDを検索キーとして、端末管理テーブル(図17参照)を検索することにより、対応する装置設置位置情報、及び所定領域情報を読み出す(ステップS58)。
Next, the storage / read-out
次に、生成部54は、ステップS58によって読み出された各情報を利用して、レイアウトマップを生成する(ステップ59)。そして、送受信部51は、通信端末7に対して、レイアウトマップのデータを送信する(ステップS60)。これにより、通信端末7の送受信部71は、レイアウトマップのデータを受信する。そして、通信端末7では、表示制御部73が、ディスプレイ508に、図27(a)に示されているような拠点状況画面を表示させる(ステップS61)。この拠点状況画面の上部には、その拠点で撮影された位置を示すピンのアイコンを含んだレイアウトマップが表示されている。
Next, the generation unit 54 generates a layout map using each piece of information read out in step S58 (step 59). Then, the transmission /
続いて、図24を用いて、撮影画像データの表示処理を説明する。図24は、撮影画像データの表示処理を示すシーケンス図である。 Next, display processing of captured image data will be described with reference to FIG. FIG. 24 is a sequence diagram showing display processing of captured image data.
まず、図24に示されているように、監督者Yが、図27(b)に示すように、カーソル4を用いて所望のピンのアイコンを選択すると、受付部72が、選択された撮影装置を受け付ける(ステップS71)。これにより、送受信部71は、画像管理システム5に対して、選択された撮影装置が撮影した撮影画像データの要求を送信する(ステップS72)。この要求には、選択されたアイコンに係る撮影装置の装置IDが含まれている。これにより、画像管理システム5の送受信部51は、撮影画像データの要求を受信する。なお、カーソル4の移動は、マウス512の操作によって行なわれる。
First, as shown in FIG. 24, when the supervisor Y selects an icon of a desired pin using the
次に、画像管理システム5の記憶・読出部59は、ステップS72によって受信された装置IDを検索キーとして画像管理テーブル(図19参照)を検索することにより、対応する最初の画像データのファイル名を読み出すと共に、このファイル名の撮影画像データを記憶部5000から読み出す(ステップS73)。
Next, the storage /
次に、画像管理システム5の送受信部51は、通信端末7に対して、拠点名、撮影された日時の最初の撮影画像データ、及び撮影日時を送信する(ステップS79)。この場合、撮影画像データと共に、この撮影画像データの画像IDが送信される。これにより、通信端末7の送受信部71は、拠点名、撮影された日時の最初の撮影画像データ、及び撮影日時を受信する。
Next, the transmission /
次に、通信端末7の表示制御部73は、図28に示されているように、拠点領域画面において、レイアウトマップの下側に所定領域画像を表示する(ステップS75)。なお、拠点領域画面の右下部には、「ポインタOFF」ボタンが表示されており、監督者が遠隔的に工事現場でレーザ光を照射させたい場合に押下される。
Next, as shown in FIG. 28, the
次に、監督者Yが、カーソル4を上下左右に移動させることで、受付部72は、所定領域画像の変更を受け付ける(ステップS76)。これにより、表示制御部73は、図29に示されているように、同じ全天球パノラマ画像における別の所定領域画像(以下、「特定領域画像」という)を表示させる(ステップS77)。
Next, the supervisor Y moves the
そして、監督者Yが、カーソル4を移動させて、「ポインタOFF」ボタンを押下すると、受付部72は、レーザ光の照射準備の受け付けを行なう(ステップS78)。これにより、表示制御部73は、図30に示されているように、「ポインタOFF」ボタンを「ポインタON」ボタンへと変更する。
When the supervisor Y moves the
次に、監督者が、カーソル4を移動させて、図31に示されているように、特定領域画像における所望の位置(ここでは、窓枠の一部)に移動してマウス512で左ダブルクリックをすると、受付部72が、レーザ光が照射する指定位置の受け付けを行なう(ステップS79)。これにより、表示制御部73は、特定領域画像上に、図31に示されている照射像6を視覚的に表示する(ステップS80)。更に、送受信部71は、画像管理システム5に対して、全天球パノラマ画像と同じ座標系における指定位置の座標(rH,rV,α)を示す指定位置座標情報を送信する(ステップS81)。これにより、画像管理システム5の送受信部51は、指定位置座標情報を受信する。
Next, the supervisor moves the
次に、画像管理システム5の送受信部5は、通信端末3に対して、指定位置座標情報を転送する(ステップS82)。これにより、通信端末3の送受信部31は、指定位置座標情報を受信する。
Next, the transmission /
次に、通信端末3では、算出部34が、撮影装置1における全天球パノラマ画像の座標系から、通信端末3における拠点の空間の座標系に変換することで、ステップS82によって受信された指定位置座標情報に基づいて、拠点の空間におけるレーザ光の照射位置を算出する(ステップS83)。なお、図10(a)に示されている撮影装置1の撮像素子103aは、常にカラーコーンである通信端末3の特定の方向になるように取り付けられているため、座標変換が可能である。
Next, in the
次に、変更部35は、ステップS83によって算出された照射位置に向けて、照射位置380の位置及びポインタ381の傾きの少なくとも一方を変更させる(ステップS84)。なお、照射位置380の位置及びポインタ381の傾きが、既にステップS83によって算出された照射位置に向けられている場合には、変更部35は、照射位置380の位置及びポインタ381の傾きを変更しない。そして、照射部36は、レーザ光の照射を開始する(ステップS85)。これにより、工事現場等の拠点では、図32に示されているように、照射位置制御部350が照射位置8にレーザ光を照射する(ステップS85)。以上より、監督者Yが遠隔の作業者に対して視覚的に作業位置等を指示することができるため、監督者Yは作業者Xと電話をしながら、より的確に作業内容を伝えることができる。
Next, the changing
ここで、図33乃至図35を用いて、照射像の照射位置の移動の制御について詳細に説明する。図33は、照射像の照射位置の移動の制御を示すフローチャートである。図34は、カーソルと照射像の照射位置との関係の画面例を示す図である。図35は、カーソルと照射像の照射位置との関係を示す概念図である。 Here, the control of the movement of the irradiation position of the irradiation image will be described in detail with reference to FIGS. FIG. 33 is a flowchart showing control of movement of the irradiation position of the irradiation image. FIG. 34 is a diagram illustrating a screen example of the relationship between the cursor and the irradiation position of the irradiation image. FIG. 35 is a conceptual diagram showing the relationship between the cursor and the irradiation position of the irradiation image.
まず、通信端末3の接続部38は、撮影装置1から、図32に示されているような照射像6を含む撮影画像データを取得する(ステップS91)。次に、算出部34は、全天球画像における照射像6の位置(x’,y’,α’)を特定する(ステップS92)。そして、算出部34は、カーソル4により指定された指定位置(x,y,α)と、特定した照射像の位置(x’,y’,α’)との間の距離を算出する(ステップS93)。例えば、図34(a)に、カーソル4による指定位置と照射像6の位置との距離が離れている場合がある。
First, the
ここで、図35を用いて、カーソルと照射像の照射位置との関係を説明する。図35の
立体球CSは、図5及び図6における立体球CSと同じであり、本来は仮想空間上に存在するが、通信端末7で表示されるカーソル4及び照射像6の関係を表すため、便宜的に図35では表している。図35に示されているように、通信端末3の撮像素子103a(103b)の位置と照射装置380の位置が異なっているため、照射装置380と照射像6を結ぶ直線L1は、撮像素子103aとカーソル4を結ぶ直線L2に並行にならない。更に、通信端末3からの距離が異なる壁A、壁Bがある場合、カーソル4の位置と照射像6の照射位置8の現実世界の距離も異なってしまう。例えば、図35では、撮像素子103aに近い壁Aと、撮像素子103aに遠い壁Bがある場合、カーソル4による指定位置と照射像6の位置との距離は、それぞれ距離a、距離bとなり、両者は異なる。よって、下記ステップS94以降の処理によるフィードバック制御が必要となる。
Here, the relationship between the cursor and the irradiation position of the irradiation image will be described with reference to FIG. The solid sphere CS in FIG. 35 is the same as the solid sphere CS in FIGS. 5 and 6, and originally exists in the virtual space, but represents the relationship between the
そのため、判断部33は、算出部34によって算出された距離が閾値以内かを判断する(ステップS94)。距離が閾値以内の場合には(YES)、照射像6照射位置の移動の制御は終了する。一方、距離が閾値を越える場合には(NO)、算出部34は、カーソル4により指定された指定位置(x,y,α)と、特定した照射像の位置(x’,y’,α’)との間の距離から、調整値を算出する(ステップS96)。そして、変更部35は、照射像の位置(x’,y’,α’)が指定位置(x,y,α)に近づくように、照射像6の照射位置8を変更する。これにより、図34(b)に示されているように、カーソル4による指定位置と照射像6の位置との距離が狭まり、重なるようになる。
Therefore, the
<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、撮影装置1を取り付けることができ、取り付けられた撮影装置1から全天球パノラマ画像のデータを取得し、通信ネットワーク9を介して所定の通信端末7に送ることができる通信端末3の一部を構成するカラーコーン等の保安器具を採用する。このように、保安器具であることで、安全面から工事現場との親和性が高く、現場の作業者は、保安器具を意識して(避けて)工事等の作業を進めることができるため、誤って通信端末3を転倒させてしまう可能性を減少させることができる。特に、保安器具が、カラーコーンの場合、日々の状況変化で簡単に設置場所を変更できるという効果を奏する。
<< Main effects of this embodiment >>
As described above, according to the present embodiment, the
更に、工事現場等の拠点では、図32に示されているように、照射位置制御部350が照射位置8にレーザ光を照射することで、監督者Yが遠隔の作業者に対して視覚的に作業位置等を指示することができるため、監督者は作業者と電話をしながら、より的確に作業内容を伝えることができる。
Further, at a site such as a construction site, as shown in FIG. 32, the irradiation
〔実施形態の補足〕
上記実施形態における画像管理システム5は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
[Supplement of Embodiment]
The
また、上記実施形態の各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHD504は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
In addition, a recording medium such as a CD-ROM in which the programs of the above-described embodiments are stored, and the
1 撮影装置
3 通信端末(保安器具が一例)
5 画像管理システム
7 通信端末
9 通信ネットワーク
31 送受信部(送信手段の一例、受信手段の一例)
33 判断部
34 算出部(算出手段の一例)
35 変更部(変更手段の一例)
36 照射部(照射手段の一例)
38 接続部(取得手段の一例)
310 通信制御部
350 照射位置制御部
400 取付部(取付手段の一例)
508 ディスプレイ(表示手段の一例)
5000 記憶部
5001 拠点管理DB(拠点管理手段の一例)
5002 端末管理DB(端末管理手段の一例)
5003 撮影管理DB(撮影管理手段の一例)
5004 画像管理DB(画像管理手段の一例)
1
5 Image management system 7 Communication terminal 9
33
35 Changing part (an example of changing means)
36 Irradiation part (an example of irradiation means)
38 connection part (an example of an acquisition means)
310
508 Display (an example of display means)
5000
5002 Terminal management DB (an example of terminal management means)
5003 Shooting management DB (an example of shooting management means)
5004 Image management DB (an example of image management means)
Claims (7)
前記取り付けられた撮影装置から前記データを取得する取得手段と、
所定の通信端末に前記全天球パノラマ画像のデータを転送する画像管理システムに対し、通信ネットワークを介して前記取得されたデータを送信する送信手段と、
を有することを特徴とする保安器具。 Mounting means to which a photographing device for capturing a subject and obtaining panoramic image data can be mounted;
Obtaining means for obtaining the data from the attached imaging device;
Transmitting means for transmitting the acquired data via a communication network to an image management system for transferring the data of the omnidirectional panoramic image to a predetermined communication terminal;
A security device characterized by comprising:
前記被写体にレーザ光を照射する照射手段と、
所定の通信端末から前記画像管理システムを介して送られ、前記全天球パノラマ画像の座標系における指定位置を示す位置座標情報を受信する受信手段と、
前記受信された前記位置座標情報に基づいて、前記照射手段の位置及び傾きの少なくとも一方を変更させる変更手段と、
を有することを特徴とする保安器具。 The security device according to claim 1,
Irradiating means for irradiating the subject with laser light;
Receiving means for receiving position coordinate information sent from a predetermined communication terminal via the image management system and indicating a specified position in the coordinate system of the omnidirectional panoramic image;
Changing means for changing at least one of the position and inclination of the irradiation means based on the received position coordinate information;
A security device characterized by comprising:
前記撮影装置における全天球パノラマ画像の座標系から、前記保安器具が設置された拠点の空間の座標系に変換することで、前記全天球パノラマ画像における指定位置から、前記拠点の空間におけるレーザ光の照射位置を算出する算出手段を有し、
前記変更手段は、前記算出された照射位置に対して前記レーザ光が照射されるように、前記照射手段の位置及び傾きの少なくいとも一方を変更することを特徴とする保安器具。 The security device according to claim 2,
By converting the coordinate system of the omnidirectional panoramic image in the imaging device to the coordinate system of the space of the base where the security device is installed, the laser in the space of the base from the specified position in the omnidirectional panoramic image Having calculation means for calculating the irradiation position of light,
The security device according to claim 1, wherein the changing unit changes at least one of the position and the inclination of the irradiation unit so that the laser beam is irradiated to the calculated irradiation position.
前記通信端末と、
を有することを特徴とする画像通信システム。 The security device according to any one of claims 1 to 4,
The communication terminal;
An image communication system comprising:
前記受信された前記位置座標情報に基づいて、被写体にレーザ光を照射する照射手段の位置及び傾きの少なくとも一方を変更させる変更ステップと、
前記変更された後に前記レーザ光を照射する照射ステップと、
を実行することを特徴とする照射方法。 Received from the predetermined communication terminal via the image management system for transferring the omnidirectional panoramic image data to the predetermined communication terminal, and receives the position coordinate information indicating the designated position in the coordinate system of the omnidirectional panoramic image Receiving step to
A change step of changing at least one of the position and the tilt of the irradiation means for irradiating the subject with laser light based on the received position coordinate information;
An irradiation step of irradiating the laser beam after the change;
The irradiation method characterized by performing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/237,821 US20170054907A1 (en) | 2015-08-21 | 2016-08-16 | Safety equipment, image communication system, method for controlling light emission, and non-transitory recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015163933 | 2015-08-21 | ||
JP2015163933 | 2015-08-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017041881A true JP2017041881A (en) | 2017-02-23 |
Family
ID=58203250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016158529A Pending JP2017041881A (en) | 2015-08-21 | 2016-08-12 | Protective appliance, image communication system, radiation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017041881A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021088841A (en) * | 2019-12-03 | 2021-06-10 | 株式会社ザクティ | Road cone camera device |
JP7485887B2 (en) | 2020-04-28 | 2024-05-17 | 株式会社ザクティ | Camera device for road cones |
-
2016
- 2016-08-12 JP JP2016158529A patent/JP2017041881A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021088841A (en) * | 2019-12-03 | 2021-06-10 | 株式会社ザクティ | Road cone camera device |
JP7485887B2 (en) | 2020-04-28 | 2024-05-17 | 株式会社ザクティ | Camera device for road cones |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7322940B2 (en) | Image communication system, image communication terminal, image communication method, program, and recording medium | |
JP6756269B2 (en) | Communication terminals, image communication systems, communication methods, and programs | |
JP6805861B2 (en) | Image processing equipment, image processing system, image processing method and program | |
US20170054907A1 (en) | Safety equipment, image communication system, method for controlling light emission, and non-transitory recording medium | |
US20200296284A1 (en) | Image communication system, image capturing device, communication terminal, and mode switching method | |
JP6665558B2 (en) | Image management system, image management method, image communication system, and program | |
US20210099669A1 (en) | Image capturing apparatus, communication system, data distribution method, and non-transitory recording medium | |
JP7192592B2 (en) | Imaging device, image communication system, image processing method, program | |
JP2019180027A (en) | Communication terminal, image communication system, display method, and program | |
JP2019054322A (en) | Communication terminal, image communication system, communication method, and program | |
US11818492B2 (en) | Communication management apparatus, image communication system, communication management method, and recording medium | |
US20220070412A1 (en) | Communication terminal, image communication system, method of displaying image, and recording medium | |
US20220094850A1 (en) | Communication terminal, image communication system, and method for displaying image | |
JP2022057771A (en) | Communication management device, image communication system, communication management method, and program | |
JP2018082298A (en) | Image display system, communication system, image display method and program | |
US10147160B2 (en) | Image management apparatus and system, and method for controlling display of captured image | |
JP6720778B2 (en) | Image management system, image management method, and program | |
JP2017041881A (en) | Protective appliance, image communication system, radiation method, and program | |
JP2018026642A (en) | Image management system, image communication system, image management method, and program | |
JP6586819B2 (en) | Image management system, image communication system, image management method, and program | |
JP2018061243A (en) | Communication terminal, display method, and program | |
JP2017184025A (en) | Communication terminal, image communication system, image transmission method, image display method, and program | |
JP2019145959A (en) | Communication terminal, communication system, communication method, and program | |
JP2017182548A (en) | Image management system, image management method, image communication system, and program | |
JP6665440B2 (en) | Image management system, image management method, image communication system, and program |