JP2022021009A - Site video management system and site video management method - Google Patents

Site video management system and site video management method Download PDF

Info

Publication number
JP2022021009A
JP2022021009A JP2020124342A JP2020124342A JP2022021009A JP 2022021009 A JP2022021009 A JP 2022021009A JP 2020124342 A JP2020124342 A JP 2020124342A JP 2020124342 A JP2020124342 A JP 2020124342A JP 2022021009 A JP2022021009 A JP 2022021009A
Authority
JP
Japan
Prior art keywords
video
image
terminal
site
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020124342A
Other languages
Japanese (ja)
Inventor
健司 尾崎
Kenji Ozaki
朋美 菱沼
Tomomi Hishinuma
直弥 坂本
Naoya Sakamoto
徹郎 相川
Tetsuo Aikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2020124342A priority Critical patent/JP2022021009A/en
Publication of JP2022021009A publication Critical patent/JP2022021009A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a site video management technology capable of displaying video of an optional point on a movement path of a terminal in reproducing the video photographed by using a moving terminal.SOLUTION: A site video management system 1 includes a video acquisition part 24 for acquiring video including at least a moving image photographed by a camera 6 mounted on a movable terminal 2, a position information acquisition part 28 for acquiring position information of the terminal 2 with video photographing, a video recording part 26 for associating the video with the position information to record them, a map allocation part 39 for specifying a coordinate position of a map showing the layout of a photographing site on the basis of the position information and allocating the video to the specified coordinate position, and a video display control part 40 for performing control for receiving the selection of the coordinate position of the map and displaying the video allocated to the selected coordinate position.SELECTED DRAWING: Figure 2

Description

特許法第30条第2項適用申請有り 集会名:日本保全学会 第16回学術講演会、開催日:令和元年(2019年)7月24日、開催場所:リンクステーションホール青森(青森市堤町1丁目4番1号)、刊行物:日本保全学会 第16回学術講演会 要旨集、発行所:一般財団法人日本保全学会、発行日:令和元年(2019年)7月24日Application for application of Article 30, Paragraph 2 of the Patent Law Meeting name: Japan Society for Conservation 16th Academic Lecture, Date: July 24, 2019, Venue: Link Station Hall Aomori (Aomori City) 1-4-1, Tsutsumicho), Publication: Abstracts of the 16th Annual Meeting of the Conservation Society of Japan, Publisher: Japan Conservation Society, Publication date: July 24, 2019

本発明の実施形態は、現場映像管理技術に関する。 Embodiments of the present invention relate to on-site video management technology.

従来、発電所などのプラントでは、工事進捗管理または異常検知のため、定期的な巡回点検が実施される。この巡回点検では、記録用紙への確認事項を記録し、点検箇所を写真(静止画)で記録する。しかし、プラントのような似た形状の構造物が多い場所を写真で記録した場合に、巡回点検後に撮影箇所を映像から特定することが困難なことがある。また、巡回点検後に対象箇所の周辺環境がどのようになっていたかを確認したいとの要望が生じる場合もある。その場合には、点検者が再度現場に出向いて確認し、かつ記録する必要がある。 Conventionally, in plants such as power plants, regular patrol inspections are carried out for construction progress management or abnormality detection. In this patrol inspection, the items to be confirmed on the recording paper are recorded, and the inspection points are recorded as photographs (still images). However, when a photograph is recorded of a place where there are many structures with similar shapes such as a plant, it may be difficult to identify the photographed location from the image after the patrol inspection. In addition, there may be a request to confirm what the surrounding environment of the target place was after the patrol inspection. In that case, the inspector needs to go to the site again to check and record.

また、全方位の映像を記録した360度映像を利用して街並みを記録する技術が知られている。例えば、Google社が提供するストリートビューは、全方位カメラ(360度カメラ)を自動車上に搭載し、GPSの位置情報と連携させて、マップ上で選択した地点の360度映像を閲覧できるようにしている。 Further, a technique for recording a cityscape by using a 360-degree image obtained by recording an image in all directions is known. For example, Street View provided by Google has an omnidirectional camera (360 degree camera) mounted on a car and links with GPS location information so that 360 degree images of selected points on the map can be viewed. ing.

https://www.google.com/streetviewhttps://www.google.com/streetview https://www.google.com/mapshttps://www.google.com/maps

従来の技術では、GPSの位置情報と連携して360度映像を記録し、マップ上で選択した地点の全方位の映像を確認できる。また、同じ地点での過去の映像を表示することができ遡っての状況が確認できるようになっている。しかしながら、Google社のストリートビューでは、撮影時にGPSが利用できる環境であることが必要である。また、映像を記録してある地点が5mから10m程度の間隔となっており、その間の地点で撮影された映像を閲覧することはできない。また、記録されている映像は静止画であるため、記録された地点における短時間の状況の変化を把握することができない。そのため、この技術を前述のプラントの巡回点検の記録作業に用いることができない。 In the conventional technology, a 360-degree image can be recorded in cooperation with the GPS position information, and an omnidirectional image of a selected point on the map can be confirmed. In addition, past images at the same point can be displayed so that the situation can be confirmed retroactively. However, Google Street View needs to be in an environment where GPS can be used at the time of shooting. In addition, the points where the images are recorded are at intervals of about 5 m to 10 m, and the images taken at the points between them cannot be viewed. Further, since the recorded video is a still image, it is not possible to grasp the change in the situation in a short time at the recorded point. Therefore, this technique cannot be used for the recording work of the above-mentioned patrol inspection of the plant.

本発明の実施形態は、このような事情を考慮してなされたもので、移動する端末を用いて撮影された映像の再生時に端末の移動経路上の任意の地点の映像を表示することができる現場映像管理技術を提供することを目的とする。 The embodiment of the present invention has been made in consideration of such circumstances, and can display an image at an arbitrary point on the moving path of the terminal when playing back an image taken by using a moving terminal. The purpose is to provide on-site video management technology.

本発明の実施形態に係る現場映像管理システムは、移動可能な端末に搭載されたカメラで撮影された少なくとも動画を含む映像を取得する映像取得部と、前記映像の撮影とともに前記端末の位置情報を取得する位置情報取得部と、前記映像と前記位置情報を対応付けて記録する映像記録部と、前記位置情報に基づいて、撮影現場のレイアウトを示す地図の座標位置を特定し、特定された前記座標位置に前記映像を割り付ける地図割付部と、前記地図の前記座標位置の選択を受け付けて、選択された前記座標位置に割り付けられた前記映像を表示する制御を行う映像表示制御部と、を備える。 The on-site video management system according to the embodiment of the present invention has a video acquisition unit that acquires a video including at least a moving image taken by a camera mounted on a movable terminal, and position information of the terminal together with the shooting of the video. Based on the position information acquisition unit to be acquired, the video recording unit that records the image in association with the position information, and the position information, the coordinate position of the map showing the layout of the shooting site is specified and specified. It is provided with a map allocation unit that allocates the video to a coordinate position, and a video display control unit that accepts selection of the coordinate position of the map and controls to display the video assigned to the selected coordinate position. ..

本発明の実施形態により、移動する端末を用いて撮影された映像の再生時に端末の移動経路上の任意の地点の映像を表示することができる現場映像管理技術が提供される。 According to an embodiment of the present invention, there is provided a field image management technique capable of displaying an image at an arbitrary point on a moving path of a terminal when reproducing an image taken by using a moving terminal.

現場映像管理システムを示すシステム構成図。A system configuration diagram showing a site video management system. 現場映像管理システムを示すブロック図。A block diagram showing an on-site video management system. 現場映像管理方法を示す概念図。A conceptual diagram showing the on-site video management method. 魚眼レンズ付きカメラで撮影された点検現場を示す画像図。An image diagram showing the inspection site taken by a camera with a fisheye lens. 撮影端末の移動軌跡を示す座標図。A coordinate diagram showing the movement trajectory of the shooting terminal. 点検現場のレイアウト地図を示す説明図。An explanatory diagram showing a layout map of the inspection site. 映像閲覧用のビューワーを示す画面図。A screen view showing a viewer for viewing video. 点検情報を示す説明図。Explanatory drawing showing inspection information. 撮影端末が実行する端末側処理を示すフローチャート。A flowchart showing the terminal-side processing executed by the shooting terminal. フレームレート調整処理を示すフローチャート。A flowchart showing the frame rate adjustment process. 管理コンピュータが実行する管理側処理を示すフローチャート。A flowchart showing the management side processing executed by the management computer. フレームと位置と姿勢の関係を示す説明図。An explanatory diagram showing the relationship between the frame, the position, and the posture. 変形例1のフレームと位置と姿勢の関係を示す説明図。Explanatory drawing which shows the relationship between the frame of the modification 1 and the position, and the posture. 変形例2のフレームと位置と姿勢の関係を示す説明図。Explanatory drawing which shows the relationship between the frame of the modification 2 and the position, and the posture.

以下、図面を参照しながら、現場映像管理システムおよび現場映像管理方法の実施形態について詳細に説明する。 Hereinafter, embodiments of the on-site video management system and the on-site video management method will be described in detail with reference to the drawings.

図1の符号1は、本実施形態の現場映像管理システムである。この現場映像管理システム1は、点検現場に居る作業者Wが装着する撮影端末2と、点検現場の管理を行う管理者Mが扱う管理コンピュータ3とを備える。なお、現場映像管理システム1は、他の構成を含んでいても良い。例えば、作業者Wは、点検作業に用いるタブレット端末4などを所持していても良い。 Reference numeral 1 in FIG. 1 is the on-site video management system of the present embodiment. The on-site video management system 1 includes a photographing terminal 2 worn by a worker W at the inspection site and a management computer 3 handled by an administrator M who manages the inspection site. The on-site video management system 1 may include other configurations. For example, the worker W may have a tablet terminal 4 or the like used for inspection work.

本実施形態の点検現場(撮影現場)としては、発電プラント、化学プラント、工場などがある。これらのプラントには、点検の対象となる多数の機器または構造物が配置されている。作業者Wは、点検現場に出向いて、機器または構造物を確認して所定の記録を行うとともに機器または構造物の映像を撮影する。 The inspection site (shooting site) of this embodiment includes a power plant, a chemical plant, a factory, and the like. These plants are equipped with a large number of equipment or structures to be inspected. Worker W goes to the inspection site, confirms the equipment or structure, makes a predetermined record, and shoots an image of the equipment or structure.

なお、機器には、例えば、バルブ、モータ、配電盤、電気部品、コンピュータなどが含まれる。さらに、構造物には、例えば、タンク、配管、支持部材、建物を構成する躯体、躯体に設けられた貫通孔、部屋、通路、敷地などが含まれる。以下の説明ではこれらを総称して点検対象物と称する。 The device includes, for example, a valve, a motor, a switchboard, an electric component, a computer, and the like. Further, the structure includes, for example, a tank, a pipe, a support member, a skeleton constituting a building, a through hole provided in the skeleton, a room, a passage, a site, and the like. In the following description, these are collectively referred to as inspection objects.

作業者Wは、ヘルメット5をかぶって点検作業を行う。本実施形態では、ヘルメット5が撮影端末2の一部を構成する。このヘルメット5の頭頂部には、魚眼レンズ付きの2つのイメージセンサを有するカメラ6が搭載されている。このカメラ6により作業者Wの周囲の広い範囲を写すことができる。 Worker W wears a helmet 5 and performs inspection work. In this embodiment, the helmet 5 constitutes a part of the photographing terminal 2. A camera 6 having two image sensors with a fisheye lens is mounted on the crown of the helmet 5. The camera 6 can capture a wide range around the worker W.

なお、2つのイメージセンサは、背中合わせになるように配置され、前後の風景を同時に撮影することができる。つまり、カメラ6を用いて作業者Wの上下左右全方位の360度パノラマ画像である全天球画像(全方位の映像)の同時撮影が可能となっている。 The two image sensors are arranged so as to be back to back, and can simultaneously capture the scenery before and after. That is, it is possible to simultaneously shoot an omnidirectional image (omnidirectional image) which is a 360-degree panoramic image of the operator W in all directions, up, down, left, and right, using the camera 6.

本実施形態では、2つのイメージセンサを有するカメラ6を例示しているが、1つのイメージセンサを有するカメラを用いても良い。例えば、凸面鏡などを用いて周囲の風景を1つのイメージセンサに導き、360度パノラマ画像を撮影しても良い。つまり、1度の撮影で360度の全方位の映像を取得可能な全方位カメラをヘルメット5に搭載しても良い。全方位カメラであれば、撮影現場でカメラの向きを変化させなくても、1台のカメラで全方位の映像を撮影することができる。また、1つのイメージセンサを有するカメラを2台以上使用し、これらのカメラで撮影した映像を合成することにより、360度パノラマ画像である全天球画像を取得しても良い。なお、360度パノラマ画像は、全天球画像でなくても良く、水平方向の360度の範囲(左右全方位)を写したものでも良い。 In the present embodiment, the camera 6 having two image sensors is illustrated, but a camera having one image sensor may be used. For example, a convex mirror or the like may be used to guide the surrounding landscape to one image sensor, and a 360-degree panoramic image may be taken. That is, the helmet 5 may be equipped with an omnidirectional camera capable of acquiring a 360-degree omnidirectional image in one shot. With an omnidirectional camera, it is possible to shoot an omnidirectional image with one camera without changing the direction of the camera at the shooting site. Further, a spherical image which is a 360-degree panoramic image may be acquired by using two or more cameras having one image sensor and synthesizing the images taken by these cameras. The 360-degree panoramic image does not have to be a spherical image, but may be a horizontal 360-degree range (horizontal and horizontal directions).

作業者Wは、移動可能な撮影端末2を用いて作業現場で撮影を行い、その映像が管理コンピュータ3に送信される。撮影端末2で撮影される映像(画像)は、主に動画を例示する。なお、撮影端末2で静止画を撮影しても良い。 The worker W takes a picture at the work site using the movable picture terminal 2, and the image is transmitted to the management computer 3. The video (image) shot by the shooting terminal 2 mainly exemplifies a moving image. A still image may be captured by the photographing terminal 2.

本実施形態では、「移動可能な端末」としてヘルメット5とカメラ6を備える撮影端末2を例示しているが、その他の態様であっても良い。例えば、作業者Wが手持ちする所定のカメラ自体が「移動可能な端末」であっても良い。さらに、所定のロボットがカメラ6を搭載している場合には、そのロボットが「移動可能な端末」となる。 In the present embodiment, the photographing terminal 2 provided with the helmet 5 and the camera 6 is exemplified as the “movable terminal”, but other embodiments may be used. For example, the predetermined camera itself held by the worker W may be a “movable terminal”. Further, when a predetermined robot is equipped with a camera 6, the robot becomes a "movable terminal".

図3に示すように、本実施形態の現場映像管理システム1では、カメラ6で撮影された映像7と、撮影時の撮影端末2の移動軌跡を示す位置情報(座標図8)と、点検現場のレイアウト地図9とを取得する。ここで、映像7と位置情報とは同期して取得される。そして、映像7を位置情報に応じてレイアウト地図9に重ね合わせて記録する。管理者Mは、映像閲覧用のビューワー13を用いて、点検現場のレイアウト地図9の任意の位置の全方位の映像7を表示して閲覧できる。 As shown in FIG. 3, in the on-site video management system 1 of the present embodiment, the image 7 taken by the camera 6, the position information (coordinate diagram 8) showing the movement trajectory of the shooting terminal 2 at the time of shooting, and the inspection site. The layout map 9 and is acquired. Here, the video 7 and the position information are acquired in synchronization. Then, the video 7 is superimposed and recorded on the layout map 9 according to the position information. The administrator M can display and view the omnidirectional video 7 at an arbitrary position of the layout map 9 at the inspection site by using the video viewing viewer 13.

図4に示すように、魚眼レンズ付きのカメラ6で撮影された映像7には、作業者Wのヘルメット5を基点として、その周囲の風景が写り込む。そして、背中合わせに配置された2つのイメージセンサで取得された映像7を合成することで、作業者Wの周囲の全方位の映像を生成することができる。 As shown in FIG. 4, the image 7 taken by the camera 6 with a fisheye lens captures the scenery around the helmet 5 of the worker W as a base point. Then, by synthesizing the images 7 acquired by the two image sensors arranged back to back, it is possible to generate an omnidirectional image around the worker W.

図5に示すように、撮影端末2の位置情報は、所定の座標図8に対応して記録される。例えば、点検現場の平面図に対応するX座標とY座標の位置情報が座標図8に記録される。なお、特に図示はしないが、撮影端末2の高さ位置を示すZ座標の位置情報も座標図8に記録される。所定時間ごとに取得された位置情報により、撮影端末2の移動軌跡を把握することができる。この座標図8には、撮影端末2で映像が取得された座標が丸印で表示されている。なお、映像のみならず、点検現場をレーザスキャンすることで得られた情報(例えば、3次元特徴点群データ)を座標に対応付けて記録しても良い。 As shown in FIG. 5, the position information of the photographing terminal 2 is recorded corresponding to the predetermined coordinate diagram 8. For example, the position information of the X coordinate and the Y coordinate corresponding to the plan view of the inspection site is recorded in the coordinate diagram 8. Although not particularly shown, the position information of the Z coordinate indicating the height position of the photographing terminal 2 is also recorded in the coordinate diagram 8. The movement locus of the photographing terminal 2 can be grasped from the position information acquired at predetermined time intervals. In this coordinate diagram 8, the coordinates obtained by the photographing terminal 2 are displayed as circles. In addition to the video, information obtained by laser scanning the inspection site (for example, three-dimensional feature point cloud data) may be recorded in association with the coordinates.

図6に示すように、点検現場のレイアウト地図9には、機器10および配管11などを示す情報とともに、作業者Wが点検を行う点検箇所12を示す情報も登録される。これらの情報は、作業者Wの点検前に予め登録される。このレイアウト地図9の座標の基準点は、撮影端末2の位置情報の基準点と一致している。本実施形態では、レイアウト地図9として平面図(2Dデータ)を例示する。なお、レイアウト地図9は、点検現場の状態を3次元的に記録した3Dデータでも良い。 As shown in FIG. 6, in the layout map 9 of the inspection site, information indicating the equipment 10, the piping 11, and the like, as well as information indicating the inspection point 12 to be inspected by the worker W are registered. This information is registered in advance before the inspection of the worker W. The reference point of the coordinates of the layout map 9 coincides with the reference point of the position information of the photographing terminal 2. In this embodiment, a plan view (2D data) is exemplified as the layout map 9. The layout map 9 may be 3D data in which the state of the inspection site is three-dimensionally recorded.

撮影端末2では、撮影された映像と撮影時の位置情報とが合わせて記録される。ここで、映像の撮影時刻と位置の記録時刻とを一致させて記録する。そして、管理コンピュータ3は、互いに同一時刻に記録された映像と位置情報とをレイアウト地図9に割り付ける処理を行う。なお、レイアウト地図9に割り付ける(割り当てる)処理を撮影端末2で行っても良い。 In the shooting terminal 2, the shot video and the position information at the time of shooting are recorded together. Here, the shooting time of the image and the recording time of the position are matched and recorded. Then, the management computer 3 performs a process of allocating the video and the position information recorded at the same time to the layout map 9. The photographing terminal 2 may perform the process of allocating (allocating) to the layout map 9.

本実施形態の「割り付ける」とは、映像(動画)をフレーム(静止画)ごとに分割し、それぞれのフレームをレイアウト地図9の座標位置に対応付けて記録することである。 The "allocation" of the present embodiment is to divide a video (moving image) into frames (still images) and record each frame in association with the coordinate position of the layout map 9.

映像の位置情報とレイアウト地図9は、基準点によってそれぞれの位置を合わせることができる。このようにすれば、レイアウト地図9において、撮影端末2が移動した軌跡を表示することができる。 The position information of the video and the layout map 9 can be aligned with each other according to the reference point. By doing so, the locus of movement of the photographing terminal 2 can be displayed on the layout map 9.

図7に示すように、作業者Wが点検を完了した後に、管理者Mは、管理コンピュータ3を用いて点検現場の映像を閲覧することができる。例えば、映像閲覧用のビューワー13には、レイアウト地図9が表示される第1表示欄14が設けられている。そして、この第1表示欄14のレイアウト地図9の任意の箇所をマウスカーソル16により選択することで、その箇所の全方位の映像を第2表示欄15に表示させることができる。第1表示欄14と第2表示欄15とは、同時に並べて表示させることができる。 As shown in FIG. 7, after the worker W completes the inspection, the manager M can view the video of the inspection site using the management computer 3. For example, the viewer 13 for viewing a video is provided with a first display field 14 in which a layout map 9 is displayed. Then, by selecting an arbitrary portion of the layout map 9 of the first display column 14 with the mouse cursor 16, an omnidirectional image of that portion can be displayed in the second display column 15. The first display field 14 and the second display field 15 can be displayed side by side at the same time.

なお、魚眼レンズ付きのカメラ6で撮影された映像であっても、映像閲覧用のビューワー13に表示されるときには、通常態様の映像に補正されて表示される。また、管理者Mは、マウスカーソル16を用いて、映像の視点の変更ができる。そのため、管理者Mは、作業者Wの前後左右の状況を確認することができる。また、映像閲覧用のビューワー13を用いて、映像の替わりに、点検現場をレーザスキャンすることで得られた情報を表示させても良い。 Even if the image is taken by the camera 6 with a fisheye lens, when it is displayed on the viewer 13 for viewing the image, it is corrected to the image of the normal mode and displayed. Further, the administrator M can change the viewpoint of the image by using the mouse cursor 16. Therefore, the administrator M can confirm the situation of the worker W in the front, back, left, and right. Further, the viewer 13 for viewing a video may be used to display the information obtained by laser scanning the inspection site instead of the video.

映像閲覧用のビューワー13の第2表示欄15に表示される映像は、主に静止画を例示する。なお、第2表示欄15で動画を表示しても良い。 The video displayed in the second display field 15 of the viewer 13 for viewing a video mainly exemplifies a still image. The moving image may be displayed in the second display field 15.

本実施形態では、カメラ6で撮影された映像が動画で記録され、かつ撮影端末2の移動軌跡が動画に連動して記録されている。そのため、管理者Mは、映像閲覧用のビューワー13で点検現場の任意の座標位置を選択することが可能となっている。例えば、1m以内の間隔で並べられた任意の地点を選択することが可能であり、抜けのない現場映像を確認することが可能となる。なお、映像閲覧用のビューワー13で選択可能な座標位置は、作業者Wが移動した経路上に存在するものとなっている。 In the present embodiment, the video image taken by the camera 6 is recorded as a moving image, and the movement locus of the photographing terminal 2 is recorded in conjunction with the moving image. Therefore, the administrator M can select an arbitrary coordinate position at the inspection site with the viewer 13 for viewing the video. For example, it is possible to select arbitrary points arranged at intervals of 1 m or less, and it is possible to confirm a complete on-site image. The coordinate positions that can be selected by the viewer 13 for viewing the video are located on the path that the worker W has moved.

また、映像閲覧用のビューワー13の第2表示欄15で動画を再生することにより、点検現場を移動している状況を確認することもできる。そのため、点検現場の状況の確認を効果的に行うことができる。さらに、本実施形態では、点検現場の状況が動画で記録されているため、撮影端末2の移動速度が遅い場合、または撮影端末2が所定の地点に留まった場合には、同じ視点において周囲の状況の変化を把握することも可能となる。 It is also possible to confirm the situation of moving to the inspection site by playing the moving image in the second display field 15 of the viewer 13 for viewing the image. Therefore, it is possible to effectively confirm the situation at the inspection site. Further, in the present embodiment, since the situation at the inspection site is recorded as a moving image, if the moving speed of the photographing terminal 2 is slow, or if the photographing terminal 2 stays at a predetermined point, the surroundings are viewed from the same viewpoint. It is also possible to grasp changes in the situation.

また、撮影端末2で動画を位置情報と連携して記録することにより、同じ場所における過去の映像との比較も可能となる。そのため、管理者Mは、点検現場の変化の様子を確実に把握することができる。 Further, by recording the moving image in cooperation with the position information on the shooting terminal 2, it is possible to compare it with the past image at the same place. Therefore, the manager M can surely grasp the state of change at the inspection site.

本実施形態の撮影端末2では、動画で撮影した場合のデータの容量を削減することができる。例えば、従来技術では、全方位の映像を動画として記録する場合、データ容量が増大されることが問題となっている。一般的に動画の変化情報を利用した画像圧縮技術が採用され、動画データの容量削減が図られている。しかし、近年の小型のカメラ6の高解像度化により動画データの容量が増大することが再び問題となっている。そこで、本実施形態では、点検作業の特徴を活用して動画データの容量の削減を行う。 In the shooting terminal 2 of the present embodiment, it is possible to reduce the amount of data when shooting a moving image. For example, in the prior art, when recording an omnidirectional video as a moving image, there is a problem that the data capacity is increased. Generally, image compression technology that uses change information of moving images is adopted to reduce the amount of moving image data. However, the increase in the capacity of moving image data due to the recent increase in the resolution of the small camera 6 has become a problem again. Therefore, in the present embodiment, the capacity of the moving image data is reduced by utilizing the characteristics of the inspection work.

例えば、点検作業は、点検対象となる機器を予め設定する場合が多い。そして、作業者Wは、点検計画に基づいてそれぞれの点検箇所を巡回していく。作業者Wは、点検箇所へ徒歩で向かう途中においても、配管の水漏れの有無など、周囲に変化がないかを確認しながら移動する。従来技術のように、点検箇所の映像のみを残す方法では、作業者Wが移動中の映像を残すことができない。そのため、管理者Mは、作業者Wが移動中の周囲の状況を把握できない。 For example, in inspection work, the equipment to be inspected is often set in advance. Then, the worker W patrols each inspection point based on the inspection plan. The worker W moves while checking whether there is any change in the surroundings such as the presence or absence of water leakage in the pipe even on the way to the inspection point on foot. With the method of leaving only the image of the inspection point as in the prior art, the worker W cannot leave the moving image. Therefore, the administrator M cannot grasp the surrounding situation while the worker W is moving.

そこで、本実施形態では、作業者Wが移動中の場合も動画を記録する。ここで、点検箇所においては、点検項目に応じた作業を行うため、作業者Wは、その場に立ち止まって作業を行うことになる。例えば、作業者Wが所定の地点に到達して、所定時間立ち止まった時点で全方位の映像の取得が完了する。作業者Wが点検箇所に長時間に亘り立ち止まる場合には、追加の映像を取得する必要がなく、撮影を一旦停止する。このように、作業者Wが、点検箇所へ向かう移動中と点検箇所に居るときで、動画の記録態様を変更することで、動画データの容量を削減することができる。 Therefore, in the present embodiment, the moving image is recorded even when the worker W is moving. Here, in order to perform the work according to the inspection item at the inspection point, the worker W will stop at the place and perform the work. For example, when the worker W reaches a predetermined point and stops for a predetermined time, the acquisition of the omnidirectional image is completed. When the worker W stops at the inspection point for a long time, it is not necessary to acquire an additional image, and the shooting is temporarily stopped. In this way, the capacity of the moving image data can be reduced by changing the recording mode of the moving image when the worker W is moving toward the inspection point and when he / she is at the inspection point.

さらに、作業者Wが所定の移動速度以上で移動している場合には、周辺に異常がなく、順調に移動している場合が多い。そこで、作業者Wが所定の移動速度以上で移動している場合には、動画を撮影するときのフレームレートを下げるようにする。このように、作業者Wの状態に応じて、フレームレートを変更することで、動画データの容量を削減することができる。 Further, when the worker W is moving at a predetermined moving speed or higher, there are many cases where there is no abnormality in the periphery and the worker W is moving smoothly. Therefore, when the worker W is moving at a predetermined moving speed or higher, the frame rate when shooting a moving image is lowered. In this way, the capacity of the moving image data can be reduced by changing the frame rate according to the state of the worker W.

図8に示すように、本実施形態では、点検箇所を個々に識別可能な点検箇所番号に対応付けて、点検箇所の座標位置を予め設定しておく。さらに、それぞれの点検箇所で行う点検項目を予め設定しておく。そして、撮影端末2は、所定の点検箇所に到達した否かを判定し、フレームレートの変更または撮影を一時停止する。これにより、点検現場の状況の把握に必要な映像を残しつつ、動画データの容量を削減することができる。 As shown in FIG. 8, in the present embodiment, the coordinate positions of the inspection points are set in advance by associating the inspection points with the inspection points numbers that can be individually identified. Furthermore, the inspection items to be performed at each inspection location are set in advance. Then, the photographing terminal 2 determines whether or not the predetermined inspection point has been reached, and changes the frame rate or suspends photographing. As a result, it is possible to reduce the amount of video data while leaving the video necessary for grasping the situation at the inspection site.

図1に示すように、管理者Mが扱う管理コンピュータ3は、例えば、デスクトップPC、ノートPC、またはタブレット型PCなどの所定のコンピュータで構成される。本実施形態では、デスクトップPCを例示する。管理コンピュータ3は、コンピュータ本体17と、管理者Mが視認を行うディスプレイ18と、撮影端末2と無線通信を行う無線通信装置19を備える。ここでは、無線通信を行う例を記載しているが、有線での通信とすることも可能である。なお、ディスプレイ18はコンピュータ本体17と別体であっても良いし、一体であっても良い。 As shown in FIG. 1, the management computer 3 handled by the administrator M is composed of a predetermined computer such as a desktop PC, a notebook PC, or a tablet PC. In this embodiment, a desktop PC is exemplified. The management computer 3 includes a computer main body 17, a display 18 for visual recognition by the administrator M, and a wireless communication device 19 for wireless communication with the photographing terminal 2. Here, an example of performing wireless communication is described, but wired communication is also possible. The display 18 may be separate from the computer main body 17 or may be integrated with the computer body 17.

撮影端末2は、自己位置および自己姿勢を特定することができる。例えば、GPS(Global Positioning System)などの位置測定システムを有していても良い。また、撮影端末2の自己位置および自己姿勢の変位の算出に用いる位置推定技術には、例えば、SLAM(Simultaneous Localization and Mapping)、SfM(Structure from Motion)などの公知の技術を用いることができる。このような位置推定技術により撮影端末2の移動時の3次元移動量を求めることができる。 The photographing terminal 2 can specify the self-position and the self-posture. For example, it may have a position measurement system such as GPS (Global Positioning System). Further, as the position estimation technique used for calculating the self-position and the displacement of the self-posture of the photographing terminal 2, for example, known techniques such as SLAM (Simultaneous Localization and Mapping) and SfM (Structure from Motion) can be used. With such a position estimation technique, it is possible to obtain a three-dimensional movement amount when the photographing terminal 2 is moved.

撮影端末2は、特にVSLAM(Visual Simultaneous Localization and Mapping)を用いている。そして、撮影端末2で撮影された映像に基づいて、その位置および姿勢の変位を算出する。つまり、撮影端末2は、例えば、屋内などのGPSが使用できない場所でも自己位置を推定することができる。 The photographing terminal 2 uses VSLAM (Visual Simultaneous Localization and Mapping) in particular. Then, the displacement of the position and the posture is calculated based on the image taken by the photographing terminal 2. That is, the photographing terminal 2 can estimate its own position even in a place where GPS cannot be used, such as indoors.

VSLAM技術では、撮影端末2のカメラ6などの所定のデバイスで取得した情報を用いて、周囲の物体の特徴点を抽出する。そして、カメラ6で撮影した映像を解析し、物体の特徴点(例えば、角などの物体の部分)をリアルタイムに追跡する。そして、撮影端末2の位置または姿勢の3次元情報を推定する。このVSLAM技術を用いることにより、カメラ6のみで映像の記録と位置の記録が可能となる。そのため、作業者Wの装備を簡略化することができる。 In the VSLAM technology, the feature points of surrounding objects are extracted by using the information acquired by a predetermined device such as the camera 6 of the photographing terminal 2. Then, the image taken by the camera 6 is analyzed, and the feature points of the object (for example, the part of the object such as a corner) are tracked in real time. Then, the three-dimensional information of the position or the posture of the photographing terminal 2 is estimated. By using this VSLAM technology, it is possible to record an image and record a position only with the camera 6. Therefore, the equipment of the worker W can be simplified.

このVSLAM技術は、全方位の映像に写っている物体の特徴点を抽出し、これらの特徴点に基づいて、撮影端末2の位置情報および姿勢情報を算出する。例えば、位置が既知の所定の箇所を起点として、その起点からの撮影端末2の移動軌跡を算出することで、撮影端末2の現在の位置および姿勢を算出する。このVSLAM技術によれば、点検現場(撮影現場)の3次元特徴点群データまたは3次元CADデータを予め取得していなくても良い。そして、点検現場において、全方位の映像を構成する複数のフレームに写っている物のそれぞれの特徴点を算出することで、その特徴点の移動量から自己位置および自己姿勢を推定することができる。 This VSLAM technology extracts feature points of an object appearing in an omnidirectional image, and calculates position information and posture information of the photographing terminal 2 based on these feature points. For example, the current position and posture of the photographing terminal 2 are calculated by calculating the movement locus of the photographing terminal 2 from a predetermined position whose position is known as a starting point. According to this VSLAM technology, it is not necessary to acquire the 3D feature point cloud data or the 3D CAD data of the inspection site (shooting site) in advance. Then, at the inspection site, by calculating the feature points of the objects appearing in the plurality of frames constituting the omnidirectional image, the self-position and the self-posture can be estimated from the movement amount of the feature points. ..

本実施形態の撮影端末2は、所定のマーカを基準点(起点)として自己位置および自己姿勢を推定する。例えば、点検現場となる建物の出入口には、本実施形態の特定被写体としてのマーカが配置される。作業者Wは、作業を開始するときに、まず、撮影端末2でマーカを撮影する。ここで、撮影端末2は、マーカが写った映像に基づいて、自己位置および自己姿勢の基準点を取得する。このマーカを撮影し、移動中も撮影を継続することで、基準点から撮影端末2が移動した移動経路を推定できる。 The photographing terminal 2 of the present embodiment estimates its own position and its own posture with a predetermined marker as a reference point (starting point). For example, a marker as a specific subject of the present embodiment is arranged at the entrance / exit of a building that is an inspection site. When the worker W starts the work, the worker W first shoots the marker with the shooting terminal 2. Here, the photographing terminal 2 acquires the reference point of the self-position and the self-posture based on the image in which the marker is captured. By taking a picture of this marker and continuing the picture taking while moving, it is possible to estimate the moving path of the moving terminal 2 from the reference point.

マーカは、基準となる所定の位置に固定された状態で設けられている。なお、マーカは、画像認識が可能な図形である。例えば、マトリックス型2次元コード、所謂QRコード(登録商標)をマーカとして用いる。また、建物または機器などの場所を特定できる情報をマーカとして用いても良い。例えば、出入口の銘板、部屋の銘板、機器の機器番号または名称を記載した銘板などをマーカとして用いても良い。銘板とは、小型の平板に銘柄を表示したものである。 The marker is provided in a state of being fixed at a predetermined position as a reference. The marker is a figure capable of image recognition. For example, a matrix type two-dimensional code, a so-called QR code (registered trademark), is used as a marker. In addition, information that can identify the location of a building or equipment may be used as a marker. For example, a name plate of an entrance / exit, a name plate of a room, a name plate on which the device number or name of a device is described, or the like may be used as a marker. The name plate is a small flat plate on which the brand is displayed.

撮影端末2の位置は、マーカを基準とする3次元座標に基づいて特定される。このとき、マーカの寸法または予め距離の分かっている部分の映像を用いて、撮影端末2の移動距離を算出する。撮影端末2の姿勢(撮影方向)は、撮影時の位置での水平面内の方位(ヨー角)と撮影端末2のピッチ角、ロール角に基づいて求められる。 The position of the photographing terminal 2 is specified based on the three-dimensional coordinates with respect to the marker. At this time, the moving distance of the photographing terminal 2 is calculated by using the image of the portion where the size of the marker or the distance is known in advance. The posture (shooting direction) of the shooting terminal 2 is obtained based on the orientation (yaw angle) in the horizontal plane at the position at the time of shooting, the pitch angle, and the roll angle of the shooting terminal 2.

本実施形態の撮影端末2は、GPSを利用できない環境で映像と位置情報を連携して記録し、かつ映像を動画で記録することができる。また、撮影端末2で撮影された映像は、管理コンピュータ3に送信される。なお、管理コンピュータ3に対する映像の送信タイミングは、作業中であっても良いし、作業終了後であっても良い。 The photographing terminal 2 of the present embodiment can record the video and the position information in cooperation with each other in an environment where GPS cannot be used, and can record the video as a moving image. Further, the video captured by the photographing terminal 2 is transmitted to the management computer 3. The video transmission timing to the management computer 3 may be during the work or after the work is completed.

また、点検現場の3次元特徴点群データまたは3次元CADデータを予め取得している場合には、全方位の映像を構成する1つのフレームに基づいて、撮影端末2の位置情報および姿勢情報を算出することができる。なお、点検現場の3次元特徴点群データは、前回の点検作業で取得した映像に基づいて生成されたもので良い。3次元CADデータは、点検現場の設計図に基づいて生成されたもので良い。 Further, when the 3D feature point cloud data or the 3D CAD data of the inspection site is acquired in advance, the position information and the attitude information of the photographing terminal 2 are obtained based on one frame constituting the omnidirectional image. Can be calculated. The 3D feature point cloud data at the inspection site may be generated based on the video acquired in the previous inspection work. The 3D CAD data may be generated based on the design drawing of the inspection site.

ここで、撮影端末2は、全方位の映像を構成する1つのフレームに写る物体の特徴点と、予め取得した3次元特徴点群データまたは3次元CADデータの特徴点とを比較する。そして、互いにマッチングする部分を特定する。例えば、撮影した映像のフレームに写る物体の特徴点と同じ部分、または、似ている部分を探す。マッチング可能な部分が特定されることで、その映像のフレームを撮影したときの撮影端末2の位置および姿勢を推定することができる。 Here, the photographing terminal 2 compares the feature points of the object captured in one frame constituting the omnidirectional image with the feature points of the three-dimensional feature point cloud data or the three-dimensional CAD data acquired in advance. Then, the parts that match each other are specified. For example, search for the same or similar part as the feature point of the object in the frame of the captured image. By specifying the matchable portion, it is possible to estimate the position and orientation of the photographing terminal 2 when the frame of the image is photographed.

なお、点検現場の3次元特徴点群データまたは3次元CADデータを予め取得している場合には、マーカを基準点(起点)とする必要がないばかりか、撮影端末2の移動中に撮影を継続する必要もない。 If the 3D feature point cloud data or 3D CAD data of the inspection site is acquired in advance, not only does it not need to use the marker as a reference point (starting point), but also shooting is performed while the shooting terminal 2 is moving. There is no need to continue.

また、点検現場の3次元特徴点群データまたは3次元CADデータを予め取得している場合には、1つのフレームのみならず、複数のフレームに基づいて、撮影端末2の位置および姿勢を推定しても良い。 Further, when the 3D feature point cloud data or the 3D CAD data of the inspection site is acquired in advance, the position and orientation of the photographing terminal 2 are estimated based on not only one frame but also a plurality of frames. May be.

次に、現場映像管理システム1のシステム構成を図2に示すブロック図を参照して説明する。 Next, the system configuration of the on-site video management system 1 will be described with reference to the block diagram shown in FIG.

本実施形態の現場映像管理システム1は、CPU、ROM、RAM、HDDなどのハードウェア資源を有し、CPUが各種プログラムを実行することで、ソフトウェアによる情報処理がハードウェア資源を用いて実現されるコンピュータで構成される。さらに、本実施形態の現場映像管理方法は、各種プログラムをコンピュータに実行させることで実現される。 The on-site video management system 1 of the present embodiment has hardware resources such as a CPU, ROM, RAM, and HDD, and when the CPU executes various programs, information processing by software is realized by using the hardware resources. It consists of a computer. Further, the on-site video management method of the present embodiment is realized by causing a computer to execute various programs.

撮影端末2は、カメラ6とモーションセンサ20と記憶部21と通信部22と端末制御部23とを備える。 The photographing terminal 2 includes a camera 6, a motion sensor 20, a storage unit 21, a communication unit 22, and a terminal control unit 23.

カメラ6は、撮影端末2に搭載され、撮影端末2の周辺の物体を可視光により撮影する。なお、カメラ6で撮影された映像は、端末制御部23に入力される。このカメラ6は、所定のフレームレートで動画の撮影を行う。 The camera 6 is mounted on the photographing terminal 2 and photographs an object around the photographing terminal 2 with visible light. The image taken by the camera 6 is input to the terminal control unit 23. The camera 6 shoots a moving image at a predetermined frame rate.

また、端末制御部23の制御に基づいて、カメラ6の撮影時のフレームレートが調整可能となっている。カメラ6は、例えば、1FPS、5FPS、10FPS、30FPS、60FPSのいずれかのフレームレートで撮影が行える。なお、通常の撮影時のフレームレートは、30FPSとなっている。端末制御部23の制御に基づいて、カメラ6の撮影時のフレームレートを上げたり下げたりすることができる。 Further, the frame rate at the time of shooting by the camera 6 can be adjusted based on the control of the terminal control unit 23. The camera 6 can shoot at any frame rate of, for example, 1 FPS, 5 FPS, 10 FPS, 30 FPS, and 60 FPS. The frame rate during normal shooting is 30 FPS. Based on the control of the terminal control unit 23, the frame rate at the time of shooting of the camera 6 can be increased or decreased.

なお、本実施形態の「動画」は、一定のフレームレートで撮影された映像のみならず、フレームレートが撮影の途中で変化して記録された映像を含む。また、「動画」は、少なくとも一部に1FPS以上で撮影された映像を含む。例えば、作業者Wの歩行時の移動速度が1m/s程度であるとした場合に、1FPS以上で撮影すれば、1m以下の間隔で点検現場の状況を記録することができる。また、1FPS以上で撮影された映像であれば、映像に写る対象の動作を記録しておくことができる。また、「動画」には、その一部に1FPS未満で撮影された映像、つまり、静止画を連続的に撮影した映像が含まれても良い。 The "moving image" of the present embodiment includes not only a video shot at a constant frame rate but also a video recorded with the frame rate changed during shooting. Further, the "moving image" includes at least a part of an image taken at 1 FPS or more. For example, assuming that the moving speed of the worker W during walking is about 1 m / s, if the image is taken at 1 FPS or more, the situation at the inspection site can be recorded at intervals of 1 m or less. Further, if the image is taken at 1 FPS or more, the operation of the object to be reflected in the image can be recorded. Further, the "moving image" may include an image taken at less than 1 FPS, that is, an image obtained by continuously shooting a still image.

モーションセンサ20は、慣性センサ(3軸加速度センサと3軸角速度センサ)と3軸地磁気センサを組み合わせた9軸センサとなっている。このモーションセンサ20は、撮影端末2に搭載され、この撮影端末2が移動したときに生じる加速度を検出する。また、このモーションセンサ20により重力加速度の検出も行える。さらに、モーションセンサ20は、この撮影端末2の筐体の姿勢が変化したときに生じる角速度を検出する。この角速度の値と加速度の値とを合わせて、この撮影端末2の筐体の姿勢を特定することで、カメラ6の撮影方向を把握することができる。なお、地磁気によりカメラ6の姿勢を把握することもできる。モーションセンサ20で検出された加速度の値と角速度の値は、端末制御部23に入力される。 The motion sensor 20 is a 9-axis sensor that combines an inertial sensor (3-axis acceleration sensor and 3-axis angular velocity sensor) and a 3-axis geomagnetic sensor. The motion sensor 20 is mounted on the photographing terminal 2 and detects the acceleration generated when the photographing terminal 2 moves. Further, the motion sensor 20 can also detect the gravitational acceleration. Further, the motion sensor 20 detects the angular velocity generated when the posture of the housing of the photographing terminal 2 changes. By specifying the posture of the housing of the shooting terminal 2 by combining the value of the angular velocity and the value of the acceleration, the shooting direction of the camera 6 can be grasped. It is also possible to grasp the posture of the camera 6 by the geomagnetism. The acceleration value and the angular velocity value detected by the motion sensor 20 are input to the terminal control unit 23.

記憶部21は、カメラ6で撮影した映像を記憶する。なお、記憶部21に記憶される映像は、動画であっても良いし、静止画であっても良い。さらに、記憶部21は、映像に関連する所定のデータを記憶する。例えば、記憶部21は、点検現場の3次元特徴点群データまたは3次元CADデータ、点検箇所の座標位置を特定可能な情報を記憶する。 The storage unit 21 stores an image taken by the camera 6. The video stored in the storage unit 21 may be a moving image or a still image. Further, the storage unit 21 stores predetermined data related to the video. For example, the storage unit 21 stores 3D feature point cloud data or 3D CAD data at the inspection site, and information that can specify the coordinate position of the inspection location.

通信部22は、通信回線を介して管理コンピュータ3と通信を行う。本実施形態の通信部22には、ネットワーク機器、例えば、無線LANのアンテナが含まれる。その他にも、LANケーブルまたはUSBケーブルを用いて通信を行う場合もある。この通信部22を介して撮影端末2は、管理コンピュータ3にアクセスする。 The communication unit 22 communicates with the management computer 3 via the communication line. The communication unit 22 of the present embodiment includes a network device, for example, a wireless LAN antenna. In addition, communication may be performed using a LAN cable or a USB cable. The photographing terminal 2 accesses the management computer 3 via the communication unit 22.

なお、特に図示はしないが、撮影端末2は、3次元測定センサを備えても良い。3次元測定センサは、例えば、物体にレーザを投光してその反射光を受光素子により受光することで、撮影端末2から物体までの距離を測定することができる。カメラ6による撮像方向と3次元測定センサによる測定方向は一致している。3次元測定センサは、投光パルスに対する受光パルスの遅れ時間を距離に換算するToF(Time of Flight)方式を用いて、撮影端末2から周辺の物体までの距離を測定して3次元点群化することができる。 Although not particularly shown, the photographing terminal 2 may be provided with a three-dimensional measurement sensor. The three-dimensional measurement sensor can measure the distance from the photographing terminal 2 to the object, for example, by projecting a laser on the object and receiving the reflected light by the light receiving element. The imaging direction by the camera 6 and the measurement direction by the three-dimensional measurement sensor are the same. The three-dimensional measurement sensor measures the distance from the photographing terminal 2 to surrounding objects by using the ToF (Time of Flight) method that converts the delay time of the received light pulse with respect to the floodlight pulse into a distance, and forms a three-dimensional point group. can do.

端末制御部23は、撮影端末2を統括的に制御する。この端末制御部23は、映像取得部24と映像合成部25と映像記録部26とデータ配信部27と位置情報取得部28と姿勢情報取得部29と環境地図作成部30とフレームレート調整部31と移動速度取得部32と点検箇所判定部33とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。 The terminal control unit 23 comprehensively controls the photographing terminal 2. The terminal control unit 23 includes a video acquisition unit 24, a video synthesis unit 25, a video recording unit 26, a data distribution unit 27, a position information acquisition unit 28, a posture information acquisition unit 29, an environment map creation unit 30, and a frame rate adjustment unit 31. The moving speed acquisition unit 32 and the inspection location determination unit 33 are provided. These are realized by executing the program stored in the memory or the HDD by the CPU.

映像取得部24は、撮影端末2に搭載されたカメラ6で撮影された少なくとも動画を含む映像を取得する。 The video acquisition unit 24 acquires a video including at least a moving image shot by the camera 6 mounted on the shooting terminal 2.

映像合成部25は、複数のイメージセンサで撮影されたそれぞれの映像を繋ぎ合わせて360度の全方位の映像を合成する。本実施形態では、1台のカメラ6が2つのイメージセンサを搭載しており、これらのイメージセンサで撮影されたそれぞれの映像に基づいて、全方位の映像を合成する。なお、2台のカメラを背中合わせになるように配置し、これらのカメラで撮影されたそれぞれの映像に基づいて、全方位の映像を合成しても良い。このようにすれば、一般的なカメラを用いて全方位の映像を取得することができる。なお、映像合成部25は、管理コンピュータ3が備えていても良い。 The image compositing unit 25 joins the respective images taken by the plurality of image sensors and synthesizes a 360-degree omnidirectional image. In the present embodiment, one camera 6 is equipped with two image sensors, and an omnidirectional image is synthesized based on each image taken by these image sensors. It should be noted that the two cameras may be arranged back to back, and the images in all directions may be combined based on the images taken by these cameras. By doing so, it is possible to acquire an omnidirectional image using a general camera. The video compositing unit 25 may be provided by the management computer 3.

映像記録部26は、カメラ6で撮影された映像を記憶部21に記録する制御を行う。なお、映像記録部26は、映像に対応付けて位置情報および姿勢情報を記憶部21に記録する制御を行う。 The video recording unit 26 controls to record the video captured by the camera 6 in the storage unit 21. The video recording unit 26 controls to record the position information and the posture information in the storage unit 21 in association with the video.

データ配信部27は、撮影端末2で取得した映像と位置情報と姿勢情報とを含むデータを管理コンピュータ3に送信する制御を行う。 The data distribution unit 27 controls to transmit the data including the video, the position information, and the posture information acquired by the shooting terminal 2 to the management computer 3.

位置情報取得部28は、モーションセンサ20で取得された情報、またはSLAM技術で取得した情報に基づいて、カメラ6による映像の撮影時の撮影端末2の位置(座標)を取得する。この撮影端末2の位置(撮影位置)を示す位置情報は、カメラ6による映像の撮影とともに取得される。この位置情報は、算出または更新された時点の時刻と対応付けて、記憶部21に記憶される。 The position information acquisition unit 28 acquires the position (coordinates) of the photographing terminal 2 at the time of photographing the image by the camera 6 based on the information acquired by the motion sensor 20 or the information acquired by the SLAM technique. The position information indicating the position (shooting position) of the shooting terminal 2 is acquired together with the shooting of the image by the camera 6. This position information is stored in the storage unit 21 in association with the time at the time of calculation or update.

なお、位置情報取得部28は、VSLAM技術を用いることで、カメラ6で撮影された映像の少なくとも1つのフレームに基づいて、位置情報を取得することができる。このようにすれば、カメラ6で撮影された映像のみを利用して撮影端末2の位置情報を取得することができる。 By using the VSLAM technology, the position information acquisition unit 28 can acquire position information based on at least one frame of the image captured by the camera 6. By doing so, it is possible to acquire the position information of the photographing terminal 2 by using only the image captured by the camera 6.

姿勢情報取得部29は、モーションセンサ20で取得された情報、またはSLAM技術で取得した情報に基づいて、カメラ6による映像の撮影時の撮影端末2の姿勢を取得する。この撮影端末2の姿勢(撮影方向)を示す姿勢情報は、カメラ6による映像の撮影とともに取得される。この姿勢情報は、算出または更新された時点の時刻と対応付けて、記憶部21に記憶される。 The posture information acquisition unit 29 acquires the posture of the photographing terminal 2 at the time of photographing the image by the camera 6 based on the information acquired by the motion sensor 20 or the information acquired by the SLAM technique. The posture information indicating the posture (shooting direction) of the shooting terminal 2 is acquired together with the shooting of the image by the camera 6. This posture information is stored in the storage unit 21 in association with the time at the time of calculation or update.

なお、姿勢情報取得部29は、VSLAM技術を用いることで、カメラ6で撮影された映像の少なくとも1つのフレームに基づいて、姿勢情報を取得することができる。このようにすれば、カメラ6で撮影された映像のみを利用して撮影端末2の姿勢情報を取得することができる。 The posture information acquisition unit 29 can acquire posture information based on at least one frame of the image captured by the camera 6 by using the VSLAM technology. By doing so, it is possible to acquire the posture information of the photographing terminal 2 by using only the image captured by the camera 6.

環境地図作成部30は、SLAM技術またはVSLAM技術を用いて、撮影端末2の周辺環境の情報を含む環境地図の作成を行う。このようにすれば、映像の撮影時の撮影端末2の位置(撮影位置)および筐体の向き(撮影方向)の取得精度を向上させることができる。 The environmental map creation unit 30 creates an environmental map including information on the surrounding environment of the photographing terminal 2 by using SLAM technology or VSLAM technology. By doing so, it is possible to improve the acquisition accuracy of the position (shooting position) of the shooting terminal 2 and the orientation (shooting direction) of the housing at the time of shooting a moving image.

本実施形態のSLAM技術では、撮影端末2のカメラ6で取得した情報のみを用いて、撮影端末2の周辺の物体の特徴点を抽出する。なお、カメラ6および3次元測定センサで取得した情報を用いて、撮影端末2の周辺の物体の特徴点を抽出することもできる。なお、特徴点の集合させたものを3次元特徴点群データと称する。端末制御部23は、カメラ6で撮影した映像を解析し、物体の特徴点(例えば、箱状の物体の辺または角の部分)をリアルタイムに追跡する。この3次元特徴点群データに基づいて、撮影端末2の位置および姿勢の3次元情報を推定することができる。このとき、マーカの寸法または予め距離の分かっている部分の映像を用いて、撮影端末2の移動距離を算出する。 In the SLAM technique of the present embodiment, the feature points of the objects around the photographing terminal 2 are extracted by using only the information acquired by the camera 6 of the photographing terminal 2. It is also possible to extract feature points of objects around the photographing terminal 2 by using the information acquired by the camera 6 and the three-dimensional measurement sensor. A collection of feature points is referred to as three-dimensional feature point cloud data. The terminal control unit 23 analyzes the image captured by the camera 6 and tracks the feature points of the object (for example, the sides or corners of the box-shaped object) in real time. Based on this 3D feature point cloud data, 3D information on the position and orientation of the photographing terminal 2 can be estimated. At this time, the moving distance of the photographing terminal 2 is calculated by using the image of the portion where the size of the marker or the distance is known in advance.

また、撮影端末2の周辺の物体の3次元特徴点群データを所定の時間毎に検出し、時系列において前後する3次元特徴点群データ間の変位に基づいて、撮影端末2の位置および姿勢の変位を算出することができる。また、時系列に得られる一連の自己位置および自己姿勢から、現在位置および現在姿勢に先立つ撮影端末2の移動経路が得られる。 Further, the 3D feature point cloud data of the object around the shooting terminal 2 is detected at predetermined time intervals, and the position and orientation of the shooting terminal 2 are based on the displacement between the 3D feature point cloud data before and after in the time series. The displacement of can be calculated. Further, from a series of self-positions and self-postures obtained in time series, a movement path of the photographing terminal 2 prior to the current position and the current posture can be obtained.

つまり、端末制御部23は、基準点から撮影端末2が移動するときに連続的に撮影された撮影画像に基づいて、撮影端末2の位置および姿勢を取得する制御を行う。このようにすれば、基準点から撮影端末2が移動した経路を映像により推定できるので、撮影端末2の位置および姿勢の推定精度を向上させることができる。 That is, the terminal control unit 23 controls to acquire the position and posture of the shooting terminal 2 based on the continuously shot images taken when the shooting terminal 2 moves from the reference point. By doing so, the path that the photographing terminal 2 has moved from the reference point can be estimated from the image, so that the estimation accuracy of the position and the posture of the photographing terminal 2 can be improved.

なお、本実施形態では、カメラ6を用いたSLAM技術を例示しているが、その他の態様であっても良い。例えば、ステレオカメラ、ジャイロセンサ、赤外線センサで取得した情報に基づいて、撮影端末2の自己位置および自己姿勢を推定しても良い。なお、本実施形態のSLAM技術は、屋内での位置計測が可能であり、ビーコンまたは歩行者自律航法(PDR:Pedestrian Dead Reckoning)などの屋内で使用可能な位置情報計測技術の中で、最も精度よく3次元座標を算出することができる。 In this embodiment, the SLAM technique using the camera 6 is exemplified, but other embodiments may be used. For example, the self-position and self-posture of the photographing terminal 2 may be estimated based on the information acquired by the stereo camera, the gyro sensor, and the infrared sensor. The SLAM technology of the present embodiment can measure the position indoors, and is the most accurate among the position information measurement technologies that can be used indoors such as beacon or pedestrian autonomous navigation (PDR: Pedestrian Dead Reckoning). You can often calculate 3D coordinates.

なお、環境地図に基づく位置情報または姿勢情報と、基準点に基づく位置情報または姿勢情報とに誤差がある場合には、基準点に基づく位置情報または姿勢情報を優先的に適用しても良い。このようにすれば、作業者Wが作業現場にてマーカを撮影することで、情報の補正を行うことができる。VSLAM技術は、相対的な移動量を算出する手法であるため、長時間の使用により誤差が蓄積されてしまう場合がある。そこで、基準点となるマーカを撮影端末2で読み込むことで、点検現場における位置情報を正確に把握することができる。 If there is an error between the position information or posture information based on the environmental map and the position information or posture information based on the reference point, the position information or posture information based on the reference point may be preferentially applied. By doing so, the worker W can correct the information by photographing the marker at the work site. Since the VSLAM technique is a method of calculating the relative movement amount, an error may be accumulated by using it for a long time. Therefore, by reading the marker serving as the reference point with the photographing terminal 2, the position information at the inspection site can be accurately grasped.

フレームレート調整部31は、カメラ6で動画を撮影するときに、撮影期間の一部の期間と他の期間とでフレームレートを異ならせる制御を行う。このようにすれば、撮影期間に応じてフレームレートを調整することができる。 When the camera 6 shoots a moving image, the frame rate adjusting unit 31 controls to make the frame rate different between a part of the shooting period and another period. By doing so, the frame rate can be adjusted according to the shooting period.

また、フレームレート調整部31は、カメラ6で動画を撮影するときに、撮影端末2の移動速度に応じてフレームレートを異ならせる制御を行う。このようにすれば、動画データの容量を削減することができる。例えば、撮影端末2の移動中にフレームレートを下げて動画データの容量を削減することができる。 Further, the frame rate adjusting unit 31 controls to change the frame rate according to the moving speed of the shooting terminal 2 when shooting a moving image with the camera 6. By doing so, the capacity of the moving image data can be reduced. For example, the frame rate can be lowered while the shooting terminal 2 is moving to reduce the amount of moving image data.

点検箇所で点検作業などを行うときには、撮影端末2が移動せず、周囲の状況が変化しないため、撮影を一旦停止する。なお、撮影端末2が点検箇所にある場合において、フレームレートを上げても良い。このようにすれば、点検作業の動画を精細に取得することができる。 When performing inspection work or the like at the inspection location, the photographing terminal 2 does not move and the surrounding conditions do not change, so that the imaging is temporarily stopped. When the photographing terminal 2 is at the inspection point, the frame rate may be increased. By doing so, it is possible to acquire a detailed video of the inspection work.

移動速度取得部32は、モーションセンサ20による加速度および角速度の検出に基づいて、撮影端末2の移動速度を取得する。なお、移動速度取得部32は、VSLAM技術を用いることで、撮影端末2の移動速度を取得することもできる。 The moving speed acquisition unit 32 acquires the moving speed of the photographing terminal 2 based on the detection of the acceleration and the angular velocity by the motion sensor 20. The moving speed acquisition unit 32 can also acquire the moving speed of the photographing terminal 2 by using the VSLAM technology.

点検箇所判定部33は、撮影端末2が点検箇所にあるか否かを判定する。なお、この判定に応じて、フレームレート調整部31が、撮影端末2が点検箇所にある場合と点検箇所にない場合とでフレームレートを異ならせる制御を行う。このようにすれば、点検箇所と点検場所以外とでフレームレートを調整することができる。なお、撮影端末2は、点検の開始前に管理コンピュータ3にアクセスし、予め点検箇所の座標位置を特定可能な情報(図8)をから取得する。この取得した点検箇所の座標位置に基づいて、点検箇所判定部33が判定を行う。なお、点検箇所とは、所定の1点に限らず、所定の面積(範囲)を有する箇所をいう。つまり、点検箇所判定部33は、撮影端末2が点検箇所の範囲内にあるか否かを判定する。 The inspection location determination unit 33 determines whether or not the photographing terminal 2 is at the inspection location. In response to this determination, the frame rate adjusting unit 31 controls to make the frame rate different depending on whether the photographing terminal 2 is at the inspection point or not at the inspection point. By doing so, the frame rate can be adjusted between the inspection location and the inspection location other than the inspection location. The photographing terminal 2 accesses the management computer 3 before the start of the inspection, and acquires information (FIG. 8) capable of specifying the coordinate position of the inspection location in advance. The inspection point determination unit 33 makes a determination based on the acquired coordinate position of the inspection point. The inspection point is not limited to a predetermined point, but refers to a point having a predetermined area (range). That is, the inspection point determination unit 33 determines whether or not the photographing terminal 2 is within the range of the inspection point.

図2に示すように、管理コンピュータ3は、通信部34と記憶部35と入力部36とディスプレイ18と管理制御部37とを備える。 As shown in FIG. 2, the management computer 3 includes a communication unit 34, a storage unit 35, an input unit 36, a display 18, and a management control unit 37.

本実施形態の管理コンピュータ3のシステム構成は、必ずしも1つのコンピュータに設ける必要はない。例えば、ネットワークで互いに接続された複数のコンピュータを用いて1つのシステムを実現しても良い。 The system configuration of the management computer 3 of the present embodiment does not necessarily have to be provided in one computer. For example, one system may be realized by using a plurality of computers connected to each other by a network.

通信部34は、通信回線を介して撮影端末2と通信を行う。この通信部34は、無線通信装置19に搭載されている。また、通信部34は、所定のネットワーク機器、例えば、無線LANアクセスポイントまたはアンテナに搭載されても良い。なお、通信部34は、WAN(Wide Area Network)、インターネット回線、または携帯通信網を介して撮影端末2と通信を行っても良い。なお、通信部34は、通信回線を介して他のコンピュータと通信を行っても良い。 The communication unit 34 communicates with the photographing terminal 2 via the communication line. The communication unit 34 is mounted on the wireless communication device 19. Further, the communication unit 34 may be mounted on a predetermined network device, for example, a wireless LAN access point or an antenna. The communication unit 34 may communicate with the photographing terminal 2 via a WAN (Wide Area Network), an Internet line, or a mobile communication network. The communication unit 34 may communicate with another computer via a communication line.

記憶部35は、撮影端末2から送られた映像を記録する。また、映像に対応付けられた位置情報および姿勢情報を記録する。さらに、事前に設定されたレイアウト地図(図6)なども記録する。 The storage unit 35 records the image sent from the photographing terminal 2. In addition, the position information and the posture information associated with the video are recorded. In addition, a preset layout map (Fig. 6) and the like are also recorded.

なお、記憶部35は、データベースを備えても良い。データベースは、メモリまたはHDDに記憶され、検索または蓄積ができるよう整理された情報の集まりである。 The storage unit 35 may include a database. A database is a collection of information stored in memory or HDD and organized for retrieval or storage.

入力部36は、管理コンピュータ3を使用する管理者Mの操作に応じて所定の情報が入力される。この入力部36には、マウスまたはキーボードなどの入力装置が含まれる。つまり、これら入力装置の操作に応じて所定の情報が入力部36に入力される。本実施形態の入力操作には、マウスを用いたクリック操作、またはタッチパネルを用いたタッチ操作が含まれる。つまり、これら入力装置の操作に応じて所定の情報が管理コンピュータ3に入力される。 The input unit 36 inputs predetermined information according to the operation of the administrator M who uses the management computer 3. The input unit 36 includes an input device such as a mouse or a keyboard. That is, predetermined information is input to the input unit 36 according to the operation of these input devices. The input operation of the present embodiment includes a click operation using a mouse or a touch operation using a touch panel. That is, predetermined information is input to the management computer 3 according to the operation of these input devices.

ディスプレイ18は、所定の情報の出力を行う装置である。例えば、映像閲覧用のビューワー13(図7)の表示を行う装置である。管理コンピュータ3は、ディスプレイ18に表示される映像の制御を行う。なお、ネットワークを介して接続される他のコンピュータが備えるディスプレイに表示される映像の制御を管理コンピュータ3が行っても良い。 The display 18 is a device that outputs predetermined information. For example, it is a device that displays the viewer 13 (FIG. 7) for viewing a video. The management computer 3 controls the image displayed on the display 18. The management computer 3 may control the image displayed on the display of another computer connected via the network.

なお、本実施形態では、映像の表示を行う装置としてディスプレイ18を例示するが、その他の態様であっても良い。例えば、ヘッドマウントディスプレイまたはプロジェクタを用いて情報の表示を行っても良い。さらに、紙媒体に情報を印字するプリンタをディスプレイの替りとして用いても良い。つまり、管理コンピュータ3が制御する対象として、ヘッドマウントディスプレイ、プロジェクタまたはプリンタが含まれても良い。 In the present embodiment, the display 18 is exemplified as a device for displaying an image, but other embodiments may be used. For example, information may be displayed using a head-mounted display or a projector. Further, a printer that prints information on a paper medium may be used instead of the display. That is, the object controlled by the management computer 3 may include a head-mounted display, a projector, or a printer.

管理制御部37は、管理コンピュータ3を統括的に制御する。この管理制御部37は、データ取得部38と地図割付部39と映像表示制御部40とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。 The management control unit 37 comprehensively controls the management computer 3. The management control unit 37 includes a data acquisition unit 38, a map allocation unit 39, and a video display control unit 40. These are realized by executing the program stored in the memory or the HDD by the CPU.

データ取得部38は、映像と位置情報と姿勢情報とを含むデータを撮影端末2から受信する制御を行う。撮影端末2から受信したデータは、記憶部35に記憶される。なお、データ取得部38は、予めレイアウト地図9などの点検現場に関する情報を取得する。そして、レイアウト地図9などの情報を記憶部35に記録する処理を行う。 The data acquisition unit 38 controls to receive data including video, position information, and posture information from the photographing terminal 2. The data received from the photographing terminal 2 is stored in the storage unit 35. The data acquisition unit 38 acquires information about the inspection site such as the layout map 9 in advance. Then, a process of recording information such as the layout map 9 in the storage unit 35 is performed.

地図割付部39は、位置情報に基づいて、点検現場(撮影現場)のレイアウト地図9(図6)の座標位置を特定し、特定された座標位置に映像を割り付ける処理を実行する。つまり、特定された座標位置に対応付けて映像を記録する処理を行う。 The map allocation unit 39 specifies the coordinate position of the layout map 9 (FIG. 6) of the inspection site (shooting site) based on the position information, and executes a process of allocating the image to the specified coordinate position. That is, the process of recording the video in association with the specified coordinate position is performed.

なお、地図割付部39は、姿勢情報に基づいて、撮影時の撮影端末2の筐体の向きを特定し、特定された向きに応じて映像を割り付ける処理を実行する。つまり、撮影時の撮影端末2の筐体の向きに対応付けて映像を記録する処理を行う。 The map allocation unit 39 specifies the orientation of the housing of the photographing terminal 2 at the time of photographing based on the posture information, and executes a process of allocating an image according to the specified orientation. That is, a process of recording an image in association with the orientation of the housing of the photographing terminal 2 at the time of photographing is performed.

映像表示制御部40は、映像閲覧用のビューワー13(図7)をディスプレイ18に表示する制御を行う。さらに、映像表示制御部40は、映像閲覧用のビューワー13によりレイアウト地図9の座標位置の選択を受け付けて、選択された座標位置に割り付けられた映像を表示する制御を行う。例えば、図7に示すように、管理者Mは、映像閲覧用のビューワー13の第1表示欄14の所定の点検箇所12を選択する。この選択に基づいて、選択された点検箇所12の映像が第2表示欄15に表示される。 The video display control unit 40 controls the display of the viewer 13 (FIG. 7) for viewing video on the display 18. Further, the video display control unit 40 receives the selection of the coordinate position of the layout map 9 by the viewer 13 for viewing the video, and controls to display the video assigned to the selected coordinate position. For example, as shown in FIG. 7, the administrator M selects a predetermined inspection point 12 in the first display field 14 of the viewer 13 for viewing a video. Based on this selection, the image of the selected inspection point 12 is displayed in the second display column 15.

次に、現場映像管理システム1の撮影端末2が実行する端末側処理について図9のフローチャートを用いて説明する。前述の図面を適宜参照する。この処理は、一定時間毎に繰り返される処理である。この処理が繰り返されることで、現場映像管理方法が実行される。なお、撮影端末2が他のメイン処理を実行中に、この処理を割り込ませて実行しても良い。以下のステップは、端末側処理に含まれる少なくとも一部の処理であり、他のステップが端末側処理に含まれても良い。 Next, the terminal-side processing executed by the photographing terminal 2 of the on-site video management system 1 will be described with reference to the flowchart of FIG. Refer to the above drawings as appropriate. This process is a process that is repeated at regular time intervals. By repeating this process, the on-site video management method is executed. It should be noted that this process may be interrupted and executed while the photographing terminal 2 is executing another main process. The following steps are at least a part of the processes included in the terminal-side processing, and other steps may be included in the terminal-side processing.

まず、ステップS11において、端末制御部23は、自己位置推定処理を実行する。この自己位置推定処理では、モーションセンサ20で取得された情報、またはSLAM技術で取得した情報に基づいて、撮影端末2の位置および姿勢を推定する処理が行われる。この自己位置推定処理が実行されるときには、カメラ6が起動して撮影が開始される。ここで、位置情報取得部28が撮影端末2の位置情報を取得する。姿勢情報取得部29が撮影端末2の姿勢情報を取得する。環境地図作成部30が撮影端末2の周辺環境の情報を含む環境地図の作成を行う。 First, in step S11, the terminal control unit 23 executes the self-position estimation process. In this self-position estimation process, a process of estimating the position and posture of the photographing terminal 2 is performed based on the information acquired by the motion sensor 20 or the information acquired by the SLAM technique. When this self-position estimation process is executed, the camera 6 is activated and shooting is started. Here, the position information acquisition unit 28 acquires the position information of the photographing terminal 2. The posture information acquisition unit 29 acquires the posture information of the photographing terminal 2. The environmental map creation unit 30 creates an environmental map including information on the surrounding environment of the photographing terminal 2.

次のステップS12において、端末制御部23(フレームレート調整部31)は、後述のフレームレート調整処理(図10)を実行する。 In the next step S12, the terminal control unit 23 (frame rate adjustment unit 31) executes the frame rate adjustment process (FIG. 10) described later.

次のステップS13において、映像取得部24は、映像取得処理を実行する。この映像取得処理では、まず、撮影端末2に搭載されたカメラ6で少なくとも動画を含む映像の撮影を行う。そして、映像取得部24は、カメラ6で撮影された映像を取得する処理を行う。 In the next step S13, the video acquisition unit 24 executes the video acquisition process. In this video acquisition process, first, the camera 6 mounted on the shooting terminal 2 shoots a video including at least a moving image. Then, the image acquisition unit 24 performs a process of acquiring an image captured by the camera 6.

次のステップS14において、映像合成部25は、映像合成処理を実行する。この映像合成処理では、カメラ6の複数のイメージセンサで撮影されたそれぞれの映像を繋ぎ合わせて360度の全方位の映像を合成する。なお、2台のカメラを用いる場合には、これらのカメラで撮影された映像を繋ぎ合わせて360度の全方位の映像を合成する。なお、この映像合成処理は、管理コンピュータ3で実行しても良い。 In the next step S14, the video compositing unit 25 executes the video compositing process. In this image compositing process, the images taken by the plurality of image sensors of the camera 6 are joined together to synthesize an omnidirectional image of 360 degrees. When two cameras are used, the images taken by these cameras are joined together to synthesize a 360-degree omnidirectional image. The video compositing process may be executed by the management computer 3.

次のステップS15において、映像記録部26は、映像記録処理を実行する。この映像記録処理では、映像取得部24で取得した映像を記憶部21に記録する。ここで、映像記録部26は、映像と位置情報と姿勢情報とを対応付けて記録する。 In the next step S15, the video recording unit 26 executes the video recording process. In this video recording process, the video acquired by the video acquisition unit 24 is recorded in the storage unit 21. Here, the video recording unit 26 records the video, the position information, and the posture information in association with each other.

次のステップS16において、データ配信部27は、データ配信処理を実行する。このデータ配信処理では、撮影端末2で取得した映像と位置情報と姿勢情報とを含むデータを管理コンピュータ3に送信する。そして、撮影端末2は、端末側処理を終了する。 In the next step S16, the data distribution unit 27 executes the data distribution process. In this data distribution process, data including a video acquired by the photographing terminal 2, position information, and posture information is transmitted to the management computer 3. Then, the photographing terminal 2 ends the processing on the terminal side.

次に、端末制御部23(フレームレート調整部31)が実行するフレームレート調整処理について図10のフローチャートを用いて説明する。 Next, the frame rate adjustment process executed by the terminal control unit 23 (frame rate adjustment unit 31) will be described with reference to the flowchart of FIG.

まず、ステップS21において、点検箇所判定部33は、位置情報取得部28が取得した位置情報に基づいて、撮影端末2の現在位置が点検箇所であるか否かを判定する。ここで、撮影端末2の現在位置が点検箇所である場合(ステップS21でYESの場合)は、後述のステップS25に進む。一方、撮影端末2の現在位置が点検箇所でない場合(ステップS21でNOの場合)は、ステップS22に進む。 First, in step S21, the inspection location determination unit 33 determines whether or not the current position of the photographing terminal 2 is the inspection location based on the position information acquired by the position information acquisition unit 28. Here, if the current position of the photographing terminal 2 is the inspection point (YES in step S21), the process proceeds to step S25 described later. On the other hand, if the current position of the photographing terminal 2 is not the inspection point (NO in step S21), the process proceeds to step S22.

ステップS22において、移動速度取得部32は、モーションセンサ20による加速度および角速度の検出に基づいて、撮影端末2の移動速度を取得する。なお、移動速度取得部32は、VSLAM技術を用いることで、撮影端末2の移動速度を取得することもできる。 In step S22, the moving speed acquisition unit 32 acquires the moving speed of the photographing terminal 2 based on the detection of the acceleration and the angular velocity by the motion sensor 20. The moving speed acquisition unit 32 can also acquire the moving speed of the photographing terminal 2 by using the VSLAM technology.

次のステップS23において、フレームレート調整部31は、移動速度取得部32が取得した移動速度が予め設定された閾値以上であるか否かを判定する。ここで、移動速度が閾値未満である場合(ステップS23でNOの場合)は、後述のステップS25に進む。一方、移動速度が閾値以上である場合(ステップS23でYESの場合)は、ステップS24に進む。 In the next step S23, the frame rate adjusting unit 31 determines whether or not the moving speed acquired by the moving speed acquisition unit 32 is equal to or higher than a preset threshold value. Here, if the moving speed is less than the threshold value (NO in step S23), the process proceeds to step S25 described later. On the other hand, when the moving speed is equal to or higher than the threshold value (YES in step S23), the process proceeds to step S24.

ステップS24において、フレームレート調整部31は、カメラ6の撮影時のフレームレートを下げる。例えば、通常のフレームレートが30FPSの場合に、そのフレームレートを10FPSに下げる。また、移動速度が段階的に上がるたびにフレームレートを段階的に下げても良い。そして、端末制御部23は、フレームレート調整処理を終了する。 In step S24, the frame rate adjusting unit 31 lowers the frame rate at the time of shooting by the camera 6. For example, when the normal frame rate is 30 FPS, the frame rate is reduced to 10 FPS. Further, the frame rate may be gradually lowered each time the moving speed is gradually increased. Then, the terminal control unit 23 ends the frame rate adjustment process.

前述のステップS21でYESまたはステップS23でNOの場合に進むステップS25において、フレームレート調整部31は、撮影端末2が移動をしないで一定時間以上に亘ってその場に停止中であるか否かを判定する。つまり、移動速度がほぼゼロの状態が一定時間以上続いているか否かを判定する。なお、判定に用いる一定時間は予め任意の時間を設定する。ここで、一定時間以上停止中でない場合(ステップS25でNOの場合)は、後述のステップS27に進む。一方、一定時間以上停止中である場合(ステップS25でYESの場合)は、ステップS26に進む。 In step S25, which proceeds to the case of YES in step S21 or NO in step S23, the frame rate adjusting unit 31 determines whether or not the photographing terminal 2 is stopped on the spot for a certain period of time or more without moving. To judge. That is, it is determined whether or not the state where the moving speed is almost zero continues for a certain period of time or more. An arbitrary time is set in advance for the fixed time used for the determination. Here, if the vehicle has not been stopped for a certain period of time or longer (NO in step S25), the process proceeds to step S27 described later. On the other hand, if the vehicle has been stopped for a certain period of time or longer (YES in step S25), the process proceeds to step S26.

ステップS26において、フレームレート調整部31は、カメラ6による撮影を停止する。なお、カメラ6の撮影時のフレームレートを1FPS以下に下げるようにしても良い。そして、端末制御部23は、フレームレート調整処理を終了する。 In step S26, the frame rate adjusting unit 31 stops shooting by the camera 6. The frame rate at the time of shooting by the camera 6 may be lowered to 1 FPS or less. Then, the terminal control unit 23 ends the frame rate adjustment process.

前述のステップS25でNOの場合に進むステップS27において、フレームレート調整部31は、カメラ6の撮影時のフレームレートを通常のフレームレート(例えば、30FPS)にして撮影を行う。そして、端末制御部23は、フレームレート調整処理を終了する。 In step S27, which proceeds in the case of NO in step S25 described above, the frame rate adjusting unit 31 sets the frame rate of the camera 6 at the time of shooting to a normal frame rate (for example, 30 FPS) for shooting. Then, the terminal control unit 23 ends the frame rate adjustment process.

次に、現場映像管理システム1の管理コンピュータ3が実行する管理側処理について11のフローチャートを用いて説明する。前述の図面を適宜参照する。この処理は、一定時間毎に繰り返される処理である。この処理が繰り返されることで、現場映像管理方法が実行される。なお、管理コンピュータ3が他のメイン処理を実行中に、この処理を割り込ませて実行しても良い。以下のステップは、管理側処理に含まれる少なくとも一部の処理であり、他のステップが管理側処理に含まれても良い。 Next, the management-side processing executed by the management computer 3 of the on-site video management system 1 will be described using the flowchart of 11. Refer to the above drawings as appropriate. This process is a process that is repeated at regular time intervals. By repeating this process, the on-site video management method is executed. It should be noted that this process may be interrupted and executed while the management computer 3 is executing another main process. The following steps are at least a part of the processes included in the management side process, and other steps may be included in the management side process.

まず、ステップS31において、データ取得部38は、データ取得処理を実行する。このデータ取得処理では、映像と位置情報と姿勢情報とを含むデータを撮影端末2から受信する。 First, in step S31, the data acquisition unit 38 executes the data acquisition process. In this data acquisition process, data including a video, position information, and posture information is received from the photographing terminal 2.

次のステップS32において、地図割付部39は、地図割付処理を実行する。この地図割付処理では、位置情報に基づいて、点検現場のレイアウト地図9(図6)の座標位置を特定し、特定された座標位置に映像を割り付ける。 In the next step S32, the map allocation unit 39 executes the map allocation process. In this map allocation process, the coordinate position of the layout map 9 (FIG. 6) of the inspection site is specified based on the position information, and the image is assigned to the specified coordinate position.

次のステップS33において、映像表示制御部40は、映像表示制御処理を実行する。この映像表示制御処理では、まず、ディスプレイ18に映像閲覧用のビューワー13(図7)を表示する。また、第1表示欄14の所定の点検箇所12の選択を受け付ける。さらに、選択された点検箇所12で取得された映像を第2表示欄15に表示する。そして、管理コンピュータ3は、管理側処理を終了する。 In the next step S33, the video display control unit 40 executes the video display control process. In this video display control process, first, a viewer 13 (FIG. 7) for viewing a video is displayed on the display 18. In addition, the selection of the predetermined inspection point 12 in the first display column 14 is accepted. Further, the image acquired at the selected inspection point 12 is displayed in the second display column 15. Then, the management computer 3 ends the processing on the management side.

次に、映像合成処理、映像記録処理、地図割付処理における映像(動画)を構成する各フレームと位置情報と姿勢情報の関係を図12から図14を参照して説明する。 Next, the relationship between each frame constituting the video (moving image) in the video compositing process, the video recording process, and the map allocation process, the position information, and the posture information will be described with reference to FIGS. 12 to 14.

図12に示すように、全方位の映像の各フレームが撮影時刻に対応付けて記録される。また、撮影端末2の位置情報(座標位置)がその記録時刻に対応付けて記録される。さらに、撮影端末2の姿勢情報がその記録時刻に対応付けて記録される。 As shown in FIG. 12, each frame of the omnidirectional video is recorded in association with the shooting time. Further, the position information (coordinate position) of the photographing terminal 2 is recorded in association with the recording time. Further, the posture information of the photographing terminal 2 is recorded in association with the recording time.

映像記録処理では、フレームの撮影時刻に対応する記録時刻を特定し、この特定された記録時刻に対応する位置情報および姿勢情報を、フレームに対応する位置情報および姿勢情報であるとして記録を行う。 In the video recording process, the recording time corresponding to the shooting time of the frame is specified, and the position information and the posture information corresponding to the specified recording time are recorded as the position information and the posture information corresponding to the frame.

また、地図割付処理では、フレームに対応する位置情報に基づいて、レイアウト地図(図6)の座標位置を特定する。さらに、フレームに対応する姿勢情報に基づいて、フレームの再生時の向きを特定する。そして、レイアウト地図における特定された座標位置にフレームを割り付ける。 Further, in the map allocation process, the coordinate position of the layout map (FIG. 6) is specified based on the position information corresponding to the frame. Further, the orientation of the frame at the time of reproduction is specified based on the posture information corresponding to the frame. Then, a frame is assigned to the specified coordinate position on the layout map.

図13の変形例1に示すように、映像記録処理では、映像の撮影時に各フレームに対応付けて位置情報および姿勢情報を記録しても良い。このようにすれば、撮影時刻および記録時刻に基づいて、フレームと位置情報と姿勢情報とを一致させる処理を行う必要がなくなる。 As shown in the first modification of FIG. 13, in the video recording process, the position information and the posture information may be recorded in association with each frame at the time of shooting the video. By doing so, it is not necessary to perform a process of matching the frame, the position information, and the posture information based on the shooting time and the recording time.

図14の変形例2では、作業者Wの額に1台の魚眼レンズ付きのカメラ6を取り付けて撮影を行う態様を例示する。このカメラ6は、作業者Wの前方側を撮影するものとする。 In the second modification of FIG. 14, an embodiment in which a camera 6 with a fisheye lens is attached to the forehead of the worker W to take a picture is illustrated. It is assumed that the camera 6 captures the front side of the worker W.

例えば、作業者Wが点検箇所に向かう往路では、作業者Wが北方向に向かって歩くものとする。そして、作業者Wが点検箇所から戻る復路では、作業者Wが南方向に向かって歩くものとする。すると、作業者Wの額に取り付けられたカメラ6は、所定の位置における北方向と南方向の両方の映像を撮影することになる。そして、同一位置における往路と復路の映像を合成することで、その位置における全方位の映像を取得することができる。 For example, on the outbound route where the worker W heads for the inspection point, it is assumed that the worker W walks in the north direction. Then, on the return route in which the worker W returns from the inspection point, the worker W shall walk toward the south. Then, the camera 6 attached to the forehead of the worker W captures both the north direction and the south direction images at a predetermined position. Then, by synthesizing the images of the outward route and the return route at the same position, it is possible to acquire the images in all directions at that position.

変形例2の映像記録処理では、映像の撮影時に各フレームに対応付けて位置情報および姿勢情報を記録する。そして、映像合成処理では、往路の撮影時の位置情報と復路の撮影時の位置情報とで一致するものを特定する。そして、位置情報が一致しているフレーム同士を合成して全方位の映像を生成する。 In the video recording process of the second modification, the position information and the posture information are recorded in association with each frame when the video is shot. Then, in the video compositing process, it is specified that the position information at the time of shooting on the outward route and the position information at the time of shooting on the return route match. Then, frames with matching position information are combined to generate an omnidirectional image.

一般的な動画の再生の態様は、撮影された時系列順にフレームを再生するものである。しかし、本実施形態では、動画の時間軸を無視し、撮影時の位置順(座標軸順)にフレームを再生する。このようにすれば、動画の撮影に基づいて、撮影現場の状況を確認するためのシステムを構築することができる。 A general mode of reproducing a moving image is to reproduce frames in chronological order in which they were photographed. However, in the present embodiment, the time axis of the moving image is ignored, and the frames are reproduced in the position order (coordinate axis order) at the time of shooting. By doing so, it is possible to construct a system for confirming the situation at the shooting site based on the shooting of the moving image.

なお、本実施形態において、基準値(閾値または一定時間)を用いた任意の値(移動速度または移動停止時間)の判定は、「任意の値が基準値以上か否か」の判定でも良いし、「任意の値が基準値を超えているか否か」の判定でも良い。或いは、「任意の値が基準値以下か否か」の判定でも良いし、「任意の値が基準値未満か否か」の判定でも良い。また、基準値が固定されるものでなく、変化するものであっても良い。従って、基準値の代わりに所定範囲の値を用い、任意の値が所定範囲に収まるか否かの判定を行っても良い。また、予め装置に生じる誤差を解析し、基準値を中心として誤差範囲を含めた所定範囲を判定に用いても良い。 In the present embodiment, the determination of an arbitrary value (movement speed or movement stop time) using the reference value (threshold value or fixed time) may be the determination of "whether or not the arbitrary value is equal to or greater than the reference value". , "Whether or not an arbitrary value exceeds the reference value" may be determined. Alternatively, it may be a determination of "whether or not an arbitrary value is equal to or less than a reference value" or a determination of "whether or not an arbitrary value is less than a reference value". Further, the reference value is not fixed but may change. Therefore, a value in a predetermined range may be used instead of the reference value, and it may be determined whether or not an arbitrary value falls within the predetermined range. Further, the error generated in the apparatus may be analyzed in advance, and a predetermined range including the error range centered on the reference value may be used for the determination.

なお、本実施形態のフローチャートにおいて、各ステップが直列に実行される形態を例示しているが、必ずしも各ステップの前後関係が固定されるものでなく、一部のステップの前後関係が入れ替わっても良い。また、一部のステップが他のステップと並列に実行されても良い。 Although the flowchart of the present embodiment illustrates a mode in which each step is executed in series, the context of each step is not necessarily fixed, and even if the context of some steps is exchanged. good. Also, some steps may be executed in parallel with other steps.

本実施形態のシステムは、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、またはCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)またはRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスまたはキーボードなどの入力装置と、通信インターフェースとを備える。このシステムは、通常のコンピュータを利用したハードウェア構成で実現できる。 The system of this embodiment includes a control device in which a dedicated chip, a controller such as an FPGA (Field Programmable Gate Array), a GPU (Graphics Processing Unit), or a CPU (Central Processing Unit) is highly integrated, and a ROM (Read Only). Storage devices such as Memory) or RAM (Random Access Memory), external storage devices such as HDD (Hard Disk Drive) or SSD (Solid State Drive), display devices such as displays, and input devices such as mice or keyboards. , With a communication interface. This system can be realized with a hardware configuration using a normal computer.

なお、本実施形態のシステムで実行されるプログラムは、ROMなどに予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD、フレキシブルディスク(FD)などのコンピュータで読み取り可能な非一過性の記憶媒体に記憶されて提供するようにしても良い。 The program executed by the system of the present embodiment is provided by incorporating it into a ROM or the like in advance. Alternatively, the program may be a non-transient storage medium that is a computer-readable file such as a CD-ROM, CD-R, memory card, DVD, or flexible disk (FD) in an installable or executable format. It may be stored in the computer and provided.

また、このシステムで実行されるプログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしても良い。また、このシステムは、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワークまたは専用線で相互に接続し、組み合わせて構成することもできる。 Further, the program executed by this system may be stored on a computer connected to a network such as the Internet, and may be downloaded and provided via the network. The system can also be configured by connecting and combining separate modules that independently exert the functions of the components to each other via a network or a dedicated line.

なお、本実施形態では、ヘルメット5に搭載されたカメラ6によって映像と位置情報を取得しているが、その他の態様であっても良い。例えば、タブレット端末4に搭載されているカメラ6によって映像と位置情報を取得しても良い。 In the present embodiment, the image and the position information are acquired by the camera 6 mounted on the helmet 5, but other embodiments may be used. For example, the image and the position information may be acquired by the camera 6 mounted on the tablet terminal 4.

なお、本実施形態では、撮影端末2の位置をSLAM技術で取得しているが、その他の態様であっても良い。例えば、点検現場が屋外である場合には、GPSを用いて撮影端末2の位置を取得しても良い。 In this embodiment, the position of the photographing terminal 2 is acquired by the SLAM technique, but other embodiments may be used. For example, when the inspection site is outdoors, the position of the photographing terminal 2 may be acquired using GPS.

以上説明した実施形態によれば、地図の座標位置の選択を受け付けて、選択された座標位置に割り付けられた映像を表示する制御を行う映像表示制御部を備えることにより、移動する端末を用いて撮影された映像の再生時に端末の移動経路上の任意の地点の映像を表示することができる。 According to the embodiment described above, by providing a video display control unit that accepts the selection of the coordinate position of the map and controls the display of the video assigned to the selected coordinate position, a moving terminal is used. It is possible to display an image at an arbitrary point on the movement path of the terminal when playing back the captured image.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, changes, and combinations can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.

1…現場映像管理システム、2…撮影端末、3…管理コンピュータ、4…タブレット端末、5…ヘルメット、6…カメラ、7…映像、8…座標図、9…レイアウト地図、10…機器、11…配管、12…点検箇所、13…ビューワー、14…第1表示欄、15…第2表示欄、16…マウスカーソル、17…コンピュータ本体、18…ディスプレイ、19…無線通信装置、20…モーションセンサ、21…記憶部、22…通信部、23…端末制御部、24…映像取得部、25…映像合成部、26…映像記録部、27…データ配信部、28…位置情報取得部、29…姿勢情報取得部、30…環境地図作成部、31…フレームレート調整部、32…移動速度取得部、33…点検箇所判定部、34…通信部、35…記憶部、36…入力部、37…管理制御部、38…データ取得部、39…地図割付部、40…映像表示制御部、M…管理者、W…作業者。 1 ... On-site video management system, 2 ... Shooting terminal, 3 ... Management computer, 4 ... Tablet terminal, 5 ... Helmet, 6 ... Camera, 7 ... Video, 8 ... Coordinate map, 9 ... Layout map, 10 ... Equipment, 11 ... Piping, 12 ... Inspection points, 13 ... Viewer, 14 ... First display column, 15 ... Second display column, 16 ... Mouse cursor, 17 ... Computer body, 18 ... Display, 19 ... Wireless communication device, 20 ... Motion sensor, 21 ... Storage unit, 22 ... Communication unit, 23 ... Terminal control unit, 24 ... Video acquisition unit, 25 ... Video synthesis unit, 26 ... Video recording unit, 27 ... Data distribution unit, 28 ... Position information acquisition unit, 29 ... Attitude Information acquisition unit, 30 ... Environmental map creation unit, 31 ... Frame rate adjustment unit, 32 ... Movement speed acquisition unit, 33 ... Inspection location determination unit, 34 ... Communication unit, 35 ... Storage unit, 36 ... Input unit, 37 ... Management Control unit, 38 ... Data acquisition unit, 39 ... Map allocation unit, 40 ... Video display control unit, M ... Administrator, W ... Worker.

Claims (10)

移動可能な端末に搭載されたカメラで撮影された少なくとも動画を含む映像を取得する映像取得部と、
前記映像の撮影とともに前記端末の位置情報を取得する位置情報取得部と、
前記映像と前記位置情報を対応付けて記録する映像記録部と、
前記位置情報に基づいて、撮影現場のレイアウトを示す地図の座標位置を特定し、特定された前記座標位置に前記映像を割り付ける地図割付部と、
前記地図の前記座標位置の選択を受け付けて、選択された前記座標位置に割り付けられた前記映像を表示する制御を行う映像表示制御部と、
を備える、
現場映像管理システム。
A video acquisition unit that acquires video including at least video shot by a camera mounted on a mobile terminal, and a video acquisition unit.
A position information acquisition unit that acquires the position information of the terminal together with shooting the image,
A video recording unit that records the video in association with the location information,
A map allocation unit that specifies the coordinate position of the map showing the layout of the shooting site based on the position information and allocates the image to the specified coordinate position.
An image display control unit that accepts selection of the coordinate position of the map and controls to display the image assigned to the selected coordinate position.
To prepare
On-site video management system.
前記カメラで撮影された前記映像は、1度の撮影で360度の全方位の前記映像を取得可能な全方位カメラで撮影されたものである、
請求項1に記載の現場映像管理システム。
The image taken by the camera is taken by an omnidirectional camera capable of acquiring the image in all directions of 360 degrees in one shooting.
The on-site video management system according to claim 1.
複数の前記カメラで撮影されたそれぞれの前記映像を繋ぎ合わせて360度の全方位の前記映像を合成する映像合成部を備える、
請求項1または請求項2に記載の現場映像管理システム。
It is provided with a video compositing unit that joins the respective images taken by the plurality of cameras and synthesizes the 360-degree omnidirectional video.
The on-site video management system according to claim 1 or 2.
前記位置情報取得部は、前記カメラで撮影された前記映像の少なくとも1つのフレームに基づいて、前記位置情報を取得する、
請求項1から請求項3のいずれか1項に記載の現場映像管理システム。
The position information acquisition unit acquires the position information based on at least one frame of the image captured by the camera.
The on-site video management system according to any one of claims 1 to 3.
前記カメラで前記動画を撮影するときに、撮影期間の一部の期間と他の期間とでフレームレートを異ならせるフレームレート調整部を備える、
請求項1から請求項4のいずれか1項に記載の現場映像管理システム。
It is provided with a frame rate adjusting unit that makes the frame rate different between a part of the shooting period and another period when the moving image is shot by the camera.
The on-site video management system according to any one of claims 1 to 4.
前記端末の移動速度を取得する移動速度取得部を備え、
前記フレームレート調整部は、前記移動速度に応じて前記フレームレートを異ならせる、
請求項5に記載の現場映像管理システム。
A moving speed acquisition unit for acquiring the moving speed of the terminal is provided.
The frame rate adjusting unit makes the frame rate different according to the moving speed.
The on-site video management system according to claim 5.
前記撮影現場がプラントにおける点検箇所が含まれる場所であり、前記端末が前記点検箇所にあるか否かを判定する点検箇所判定部を備え、
前記フレームレート調整部は、前記端末が前記点検箇所にある場合と前記点検箇所にない場合とで前記フレームレートを異ならせる、
請求項5または請求項6に記載の現場映像管理システム。
The shooting site is a place including an inspection point in the plant, and is provided with an inspection point determination unit for determining whether or not the terminal is in the inspection point.
The frame rate adjusting unit makes the frame rate different depending on whether the terminal is at the inspection point or not.
The on-site video management system according to claim 5 or 6.
前記動画は、少なくとも一部に1FPS以上で撮影されたものを含む、
請求項1から請求項7のいずれか1項に記載の現場映像管理システム。
The moving image includes at least a part shot at 1 FPS or more.
The on-site video management system according to any one of claims 1 to 7.
前記端末に搭載されたデバイスにより得られた情報に基づいて、前記端末の周辺環境の情報を含む環境地図の作成を行う環境地図作成部を備える、
請求項1から請求項8のいずれか1項に記載の現場映像管理システム。
It is provided with an environment map creation unit that creates an environment map including information on the surrounding environment of the terminal based on the information obtained by the device mounted on the terminal.
The on-site video management system according to any one of claims 1 to 8.
移動可能な端末に搭載されたカメラで撮影された少なくとも動画を含む映像を取得するステップと、
前記映像の撮影とともに前記端末の位置情報を取得するステップと、
前記映像と前記位置情報を対応付けて記録するステップと、
前記位置情報に基づいて、撮影現場のレイアウトを示す地図の座標位置を特定し、特定された前記座標位置に前記映像を割り付けるステップと、
前記地図の前記座標位置の選択を受け付けて、選択された前記座標位置に割り付けられた前記映像を表示する制御を行うステップと、
を含む、
現場映像管理方法。
Steps to get at least video, including video, taken with a camera mounted on a mobile device,
The step of acquiring the position information of the terminal together with the shooting of the video, and
A step of associating and recording the video with the position information,
A step of specifying the coordinate position of the map showing the layout of the shooting site based on the position information and allocating the image to the specified coordinate position.
A step of accepting the selection of the coordinate position of the map and controlling the display of the image assigned to the selected coordinate position.
including,
On-site video management method.
JP2020124342A 2020-07-21 2020-07-21 Site video management system and site video management method Pending JP2022021009A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020124342A JP2022021009A (en) 2020-07-21 2020-07-21 Site video management system and site video management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020124342A JP2022021009A (en) 2020-07-21 2020-07-21 Site video management system and site video management method

Publications (1)

Publication Number Publication Date
JP2022021009A true JP2022021009A (en) 2022-02-02

Family

ID=80220114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020124342A Pending JP2022021009A (en) 2020-07-21 2020-07-21 Site video management system and site video management method

Country Status (1)

Country Link
JP (1) JP2022021009A (en)

Similar Documents

Publication Publication Date Title
US11054258B2 (en) Surveying system
CN107402000B (en) Method and system for correlating a display device with respect to a measurement instrument
US10481265B2 (en) Apparatus, systems and methods for point cloud generation and constantly tracking position
JP6171079B1 (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
JP7337654B2 (en) Maintenance activity support system and maintenance activity support method
US8699005B2 (en) Indoor surveying apparatus
TW201715476A (en) Navigation system based on augmented reality technique analyzes direction of users' moving by analyzing optical flow through the planar images captured by the image unit
US10893190B2 (en) Tracking image collection for digital capture of environments, and associated systems and methods
JP2018106661A (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
JP2021193538A (en) Information processing device, mobile device, information processing system and method, and program
JP6725736B1 (en) Image specifying system and image specifying method
JP2022021009A (en) Site video management system and site video management method
JP7207915B2 (en) Projection system, projection method and program
JP2021190729A (en) Image specification system and image specification method
JP7452768B2 (en) Imaging system and imaging method
JP7467206B2 (en) Video management support system and video management support method
TWI814624B (en) Landmark identification and marking system for a panoramic image and method thereof
Clift et al. Determining positions and distances using collaborative robots
JP7293057B2 (en) Radiation dose distribution display system and radiation dose distribution display method
JP2021164135A (en) Video management support system and video management support method
JP2023094344A (en) Augmented reality display device, method, and program
JP2023131258A (en) Information processing device and control method
JP2022137946A (en) Photographic processing apparatus and photographic processing method

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200814

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240219