JP2024009427A - Inspection device, inspection method, and inspection program - Google Patents

Inspection device, inspection method, and inspection program Download PDF

Info

Publication number
JP2024009427A
JP2024009427A JP2022110930A JP2022110930A JP2024009427A JP 2024009427 A JP2024009427 A JP 2024009427A JP 2022110930 A JP2022110930 A JP 2022110930A JP 2022110930 A JP2022110930 A JP 2022110930A JP 2024009427 A JP2024009427 A JP 2024009427A
Authority
JP
Japan
Prior art keywords
image
dimensional point
point group
reference map
inspection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022110930A
Other languages
Japanese (ja)
Inventor
直弥 坂本
Naoya Sakamoto
健司 尾崎
Kenji Ozaki
崇広 三浦
Takahiro Miura
朋美 菱沼
Tomomi Hishinuma
徹郎 相川
Tetsuo Aikawa
佑典 田副
Yusuke Tazoe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2022110930A priority Critical patent/JP2024009427A/en
Publication of JP2024009427A publication Critical patent/JP2024009427A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an on-site inspection technique involving camera photography, which can identify a photographing position without introducing a special mechanism on-site.
SOLUTION: An inspection device 10A includes: an acquisition unit 21 that acquires a photographed image 11 of a site 30 while moving a camera 20; an extraction unit 22 that extracts a two-dimensional point group image 12 composed of feature points 15 from the photographed image 11; a creation unit 25 that creates a three-dimensional point group image 13 from a plurality of two-dimensional point group images 12 at different photographing positions P at the site 30; an estimation unit 26 that estimates, on the basis of the three-dimensional point group image 13, each photographing position P of the plurality of two-dimensional point group images 12; a derivation unit 27 that derives a parameter 18 that matches the three-dimensional point group image 12 to a reference map 17 of the site 30; and a recording unit 28 records, on the basis of the parameter 18, the photographing position P in association with position coordinates Q of the reference map 17.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明の実施形態は、カメラ撮影を伴う現場の点検技術に関する。 Embodiments of the present invention relate to on-site inspection techniques that involve camera photography.

発電プラントや工場では、定期的に点検員が巡視し、膨大な機器を保守点検し、安全運転を期している。また点検員は、巡視中に、機器異常等の発生の有無も、合わせて目視確認している。 At power plants and factories, inspectors regularly tour and perform maintenance and inspections on a vast amount of equipment to ensure safe operation. During their patrols, inspectors also visually check for any equipment abnormalities.

従来の保守点検は、現場で点検員が確認した結果を手書きで記録し、事務所で点検記録を作成する等、人手による作業が多かった。この状態の改善に向けて、モバイル端末を用いるサービスを活用し、作業の省力化を図る取り組みがなされている。このようなサービスは、点検員に点検要領書を画面表示し、点検員が目視確認したメータ等の数値を画面入力するというものである。 Traditionally, maintenance inspections were often done manually, with inspectors manually recording the results of their checks on site and creating inspection records at the office. To improve this situation, efforts are being made to utilize services that use mobile terminals to save labor. In such a service, an inspection procedure sheet is displayed on a screen for an inspector, and the inspector inputs the numerical values visually checked by the meter, etc. on the screen.

さらにこのようなサービスでは、巡視中の点検員にカメラ持たせ、ドライブレコーダーのように映像を記録することも行われている。そして後日、必要に応じて映像を確認し、機器異常の発見又は解析に役立てている。 Furthermore, in such services, inspectors on patrol are equipped with cameras to record images like a drive recorder. At a later date, the images are checked as necessary to help discover or analyze equipment abnormalities.

特開2008-146489号公報Japanese Patent Application Publication No. 2008-146489 特開2016-152003号公報JP 2016-152003 Publication 特開2021-018710号公報Japanese Patent Application Publication No. 2021-018710 特開2021-149420号公報JP2021-149420A

ところで、巡視中に撮影された記録映像は長時間にわたるため、異常が疑われる機器の映像にたどり着くのに手間がかかる課題がある。そこで、GPS等の位置測位技術を活用して撮影位置と記録映像とをリンクさせ、異常の疑われる機器の位置情報からその映像を簡便に確認することが検討される。しかし、発電プラント等の屋内では、電波が届かないため、GPS活用による撮影位置の特定は困難である。また、点検を実施する現場に、撮影位置を特定する仕組みを特別に導入することも考えられるが、そのような仕組みのメンテナンスや維持コストの負担が課題である。 By the way, since the recorded videos taken during patrols last for a long time, there is a problem in that it takes time and effort to find the video of equipment suspected of being abnormal. Therefore, consideration is being given to linking the photographing position and the recorded video using positioning technology such as GPS, and easily confirming the video based on the location information of the device suspected of being abnormal. However, since radio waves cannot reach indoor areas such as power generation plants, it is difficult to specify the shooting position using GPS. It is also possible to introduce a special mechanism to specify the shooting position at the site where inspections are carried out, but the maintenance and upkeep costs of such a mechanism are an issue.

本発明の実施形態はこのような事情を考慮してなされたもので、現場に特別な仕組みを導入することなく撮影位置を特定できる、カメラ撮影を伴う現場の点検技術を提供することを目的とする。 The embodiments of the present invention have been made in consideration of the above circumstances, and the purpose is to provide an on-site inspection technique that involves camera photography, which can identify the shooting position without introducing a special mechanism to the site. do.

実施形態に係る点検装置において、カメラを移動させながら現場を撮影した撮影像を取得する取得部と、前記撮影像から特徴点で構成される二次元点群像を抽出する抽出部と、前記現場における撮影位置が異なる複数の前記二次元点群像から三次元点群像を作成する作成部と、前記三次元点群像に基づいて複数の前記二次元点群像の各々の前記撮影位置を推定する推定部と、前記三次元点群像を前記現場の参照マップに整合させるパラメータを導出する導出部と、前記パラメータに基づき前記撮影位置を前記参照マップの位置座標に対応付けて記録する記録部と、を備える。 In the inspection device according to the embodiment, an acquisition unit that acquires a captured image of the site while moving a camera, an extraction unit that extracts a two-dimensional point group image composed of feature points from the captured image, and a a creation unit that creates a three-dimensional point group image from the plurality of two-dimensional point group images having different photographing positions; and an estimation unit that estimates the photographing position of each of the plurality of two-dimensional point group images based on the three-dimensional point group image. , a deriving unit that derives parameters for matching the three-dimensional point group image with the reference map of the site, and a recording unit that records the photographing position in association with position coordinates of the reference map based on the parameters.

本発明の実施形態により、現場に特別な仕組みを導入することなく撮影位置を特定できる、カメラ撮影を伴う現場の点検技術が提供される。 Embodiments of the present invention provide an on-site inspection technique that involves camera photography, which can specify a shooting position without introducing a special mechanism to the site.

本発明の第1実施形態に係る点検装置を示すブロック図。FIG. 1 is a block diagram showing an inspection device according to a first embodiment of the present invention. (A)現場でカメラを移動させながら異なる撮影位置で撮影像を撮影し抽出された二次元点群像を構成する特徴点のイメージ図、(B)異なる撮影位置の複数の撮影像から抽出した特徴点の三次元点群像を現場の参照マップに整合させたイメージ図。(A) Image diagram of feature points that make up a two-dimensional point group image extracted by capturing images at different shooting positions while moving the camera on the scene, (B) Feature points extracted from multiple images taken at different shooting positions An image of the 3D point cloud image aligned with the reference map of the site. 第2実施形態に係る点検装置を示すブロック図。FIG. 2 is a block diagram showing an inspection device according to a second embodiment. 実施形態に係る点検方法の工程及び点検プログラムのアルゴリズムを説明するフローチャート。5 is a flowchart illustrating the steps of the inspection method and the algorithm of the inspection program according to the embodiment.

(第1実施形態)
以下、本発明の実施形態を添付図面に基づいて説明する。図1は本発明の第1実施形態に係る点検装置10A(10)を示すブロック図である。図2(A)は、現場30でカメラ20を移動させながら異なる撮影位置P(P1,P2)で撮影像を撮影し抽出された二次元点群像12を構成する特徴点15のイメージ図である。図2(B)は、異なる撮影位置P(P1~P5)の複数の撮影像11から抽出した特徴点15の三次元点群像13を現場30の参照マップ17に整合させたイメージ図である。
(First embodiment)
Embodiments of the present invention will be described below based on the accompanying drawings. FIG. 1 is a block diagram showing an inspection device 10A (10) according to a first embodiment of the present invention. FIG. 2(A) is an image diagram of feature points 15 constituting a two-dimensional point group image 12 extracted by capturing images at different shooting positions P (P 1 , P 2 ) while moving the camera 20 at the site 30. be. FIG. 2(B) is an image diagram in which a three-dimensional point group image 13 of feature points 15 extracted from a plurality of photographed images 11 at different photographing positions P (P 1 to P 5 ) is aligned with a reference map 17 of the site 30. .

図1に示すように点検装置10A(10)は、カメラ20を移動させながら現場30を撮影した撮影像11を取得する取得部21と、この撮影像11から特徴点15で構成される二次元点群像12を抽出する抽出部22と、現場30における撮影位置Pが異なる複数の二次元点群像12から三次元点群像13を作成する作成部25と、三次元点群像13に基づいて複数の二次元点群像12の各々の撮影位置Pを推定する推定部26と、三次元点群像12を現場30の参照マップ17に整合させるパラメータ18を導出する導出部27と、パラメータ18に基づき撮影位置Pを参照マップ17の位置座標Qに対応付けて記録する記録部28と、を備えている。 As shown in FIG. 1, the inspection device 10A (10) includes an acquisition unit 21 that acquires a photographed image 11 of a site 30 while moving a camera 20, and a two-dimensional image composed of feature points 15 from this photographed image 11. an extraction unit 22 that extracts a point group image 12; a creation unit 25 that creates a three-dimensional point group image 13 from a plurality of two-dimensional point group images 12 having different photographing positions P on the site 30; An estimating unit 26 that estimates the photographing position P of each of the two-dimensional point group images 12; a deriving unit 27 that derives the parameters 18 for matching the three-dimensional point group images 12 with the reference map 17 of the site 30; and the photographing position based on the parameters 18. A recording unit 28 that records P in association with the position coordinates Q of the reference map 17 is provided.

現場30は、点検員が定期的に巡視する発電プラントや工場が想定される。なおそのような巡視は、人員が実施することに限定されず、点検ロボットが実施する場合も含まれる。そして、点検員又は点検ロボットには、移動しながら周囲を撮影したり点検対象機器を撮影したりするカメラ20が携行されている。 The site 30 is assumed to be a power generation plant or factory that is regularly inspected by inspectors. Note that such patrols are not limited to being carried out by personnel, and may also be carried out by inspection robots. The inspector or the inspection robot carries a camera 20 that takes pictures of the surrounding area and the equipment to be inspected while moving.

実施形態に示すカメラ20は、全方位カメラであるが、これに限定されることはなく、単方位カメラを用いることもできる。また、全方位カメラも、図示されるようにレンズを機械回転させながら撮影する場合の他に、複数搭載した超広角レンズで同時に撮影し画像処理によりつなぎ合わせ一つの撮影像11にする場合もある。また、撮影像11も動画像である場合の他に静止画像である場合も含まれる。 Although the camera 20 shown in the embodiment is an omnidirectional camera, it is not limited to this, and a unidirectional camera can also be used. Furthermore, in addition to the case where the omnidirectional camera takes pictures while mechanically rotating the lens as shown in the figure, there are also cases where images are taken simultaneously with multiple ultra-wide-angle lenses and stitched together through image processing to form a single photographed image 11. . Furthermore, the photographed image 11 may also be a still image as well as a moving image.

取得部21は、現場30の撮影像11を、現場30を移動中のカメラ20からリアルタイムで取得する場合の他に、現場30の移動が終了したカメラ20から纏めて取得する場合もある。そして、撮影位置P(動線36上の定点P1,P2…)毎に規定した天球座標系に、取得した撮影像11を重ねる。さらに、必要に応じて天球座標系に重ねた撮影像11の歪みを補正する。 The acquisition unit 21 may acquire the photographed images 11 of the site 30 in real time from the camera 20 that is moving on the site 30, or may acquire the captured images 11 of the site 30 all at once from the cameras 20 that have finished moving on the site 30. Then, the acquired photographed image 11 is superimposed on a celestial coordinate system defined for each photographing position P (fixed points P 1 , P 2 . . . on the flow line 36). Furthermore, the distortion of the photographed image 11 superimposed on the celestial coordinate system is corrected as necessary.

抽出部22は、撮影像11において周囲とのコントラストが際立っている特徴点15を抽出し、定点(P1,P2…)毎に規定した天球座標系の各々で二次元点群像12を表現する。なお、異なる撮影位置Pの各々の天球座標系の間で、二次元点群像12を構成する特徴点15は、同一のものが互いに関連付けされている。 The extraction unit 22 extracts feature points 15 that have a remarkable contrast with the surroundings in the photographed image 11, and expresses the two-dimensional point group image 12 in each of the celestial coordinate systems defined for each fixed point (P 1 , P 2 . . . ). do. Note that among the celestial coordinate systems of different photographing positions P, the same feature points 15 forming the two-dimensional point group image 12 are associated with each other.

作成部25は、撮影位置P(動線36上の定点P1,P2…)の各々に対応する天球座標系の二次元点群像12から、現場30の空間座標系で三次元点群像13を作成する。なお。この三次元点群像13を作成は、カメラ20の移動変位(移動方向及び移動距離)の情報が必要である。このカメラ20の移動変位は、設けられた加速度センサにより測定可能となっている。なお、現場30の三次元点群像13は、一度作成されれば、撮影像11の変化が伴う現場30の変更がない限り、次回の現場30の撮影からは、繰り返し使用が可能となる。 The creation unit 25 creates a three-dimensional point group image 13 in the spatial coordinate system of the site 30 from the two-dimensional point group image 12 in the celestial coordinate system corresponding to each of the photographing positions P (fixed points P 1 , P 2 . . . on the flow line 36). Create. In addition. To create this three-dimensional point group image 13, information on the movement displacement (movement direction and movement distance) of the camera 20 is required. The displacement of this camera 20 can be measured by the provided acceleration sensor. Note that once the three-dimensional point group image 13 of the site 30 is created, it can be used repeatedly from the next time the site 30 is photographed, unless there is a change in the site 30 accompanied by a change in the photographed image 11.

推定部26は、三次元点群像13に位置する特徴点15と二次元点群像12に位置する特徴点15との関係性から、二次元点群像12の撮影位置Pを推定する。これにより、現場30の空間座標系において、撮影位置P(動線36上の定点P1,P2…)の位置が、推定される。 The estimation unit 26 estimates the photographing position P of the two-dimensional point group image 12 from the relationship between the feature points 15 located in the three-dimensional point group image 13 and the feature points 15 located in the two-dimensional point group image 12. Thereby, in the spatial coordinate system of the site 30, the position of the photographing position P (fixed points P 1 , P 2 . . . on the flow line 36) is estimated.

参照マップ17は、現場30の設計図面(CAD図面)であったり、現場30を直接的にレーザ撮像した立体像であったりする。この参照マップ17は、撮影位置Pの動線36となり得る部分が強調処理されている場合がある。なお参照マップ17は、カメラ20による現場30の撮影開始前に、予め準備されている。 The reference map 17 may be a design drawing (CAD drawing) of the site 30 or a three-dimensional image of the site 30 directly captured by laser. In this reference map 17, a portion that can become the flow line 36 of the photographing position P may be emphasized. Note that the reference map 17 is prepared in advance before the camera 20 starts photographing the site 30.

導出部27は、三次元点群像12を現場30の参照マップ17に整合させるパラメータ18を導出する。撮影位置Pの動線36が参照マップ17において強調処理されている場合は、この強調部分と三次元点群像12とを整合させることで、高精度のパラメータ18を導出できる。 The derivation unit 27 derives parameters 18 that match the three-dimensional point group image 12 with the reference map 17 of the site 30. If the flow line 36 at the photographing position P has been emphasized in the reference map 17, highly accurate parameters 18 can be derived by matching this emphasized portion with the three-dimensional point group image 12.

導出されたパラメータ18は、三次元点群像13の座標系を参照マップ17の座標系に、もしくはその逆方向に、座標変換する機能を持つ。なお、上述したように、現場30の三次元点群像13が繰り返し使用される場合、対応する参照マップ17も繰り返し使用が可能であるために、パラメータ18も繰り返し使用が可能となる。 The derived parameters 18 have the function of converting the coordinate system of the three-dimensional point group image 13 to the coordinate system of the reference map 17 or vice versa. As described above, when the three-dimensional point group image 13 of the site 30 is used repeatedly, the corresponding reference map 17 can also be used repeatedly, so the parameters 18 can also be used repeatedly.

記録部28は、パラメータ18に基づいて、三次元点群像13の座標系で規定された撮影位置Pを、参照マップ17の座標系に変換する。そして、このようにして撮影位置Pを参照マップ17の座標系で規定した位置座標Qを記録する。これにより、参照マップ17の位置座標Qに、対応する撮影像11を、紐付けることができる。 The recording unit 28 converts the photographing position P defined in the coordinate system of the three-dimensional point group image 13 into the coordinate system of the reference map 17 based on the parameters 18 . Then, in this way, the position coordinates Q of the photographing position P defined in the coordinate system of the reference map 17 are recorded. Thereby, the corresponding photographed image 11 can be linked to the position coordinate Q of the reference map 17.

(第2実施形態)
次に図3を参照して本発明における第2実施形態について説明する。図3は第2実施形態に係る点検装置10B(10)を示すブロック図である。第2実施形態の点検装置10Bは、上述した第1実施形態の点検装置10Aの構成に、読出部31と、表示部32と、指定部35と、をさらに追加した構成をとる。なお、図3において図1と共通の構成又は機能を有する部分は、同一符号で示し、重複する説明を省略する。
(Second embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG. FIG. 3 is a block diagram showing an inspection device 10B (10) according to the second embodiment. The inspection device 10B of the second embodiment has a configuration in which a reading unit 31, a display unit 32, and a designation unit 35 are further added to the configuration of the inspection device 10A of the first embodiment described above. Note that in FIG. 3, parts having the same configuration or function as those in FIG.

撮影像11の各々には、カメラ20の機能により、それぞれの撮影時刻19が紐付けられている。そして、読出部31は、取得した撮影像11から撮影時刻19を読み出す。第1実施形態で説明したように、撮影像11は、三次元点群像13の撮影位置P及び参照マップ17の位置座標Qに、既に紐付いている。このため、記録部28は、撮影時刻19を撮影位置P及び位置座標Qの少なくとも一方に紐付けて記録することになる。 Each photographed image 11 is associated with a respective photographing time 19 by the function of the camera 20. Then, the reading unit 31 reads the photographing time 19 from the acquired photographed image 11. As described in the first embodiment, the photographed image 11 is already linked to the photographing position P of the three-dimensional point group image 13 and the position coordinates Q of the reference map 17. Therefore, the recording unit 28 records the photographing time 19 in association with at least one of the photographing position P and the position coordinates Q.

表示部32は、参照マップ17と撮影像11とを同時に表示することができる。指定部35は、オペレータ操作により、参照マップ17の位置座標Qを指定することができる。これにより、表示部32は、指定した位置座標Qに対応する撮影位置Pの撮影像11を参照マップ17とともに表示する。 The display unit 32 can display the reference map 17 and the photographed image 11 at the same time. The designation unit 35 can designate the position coordinates Q of the reference map 17 through operator operation. Thereby, the display unit 32 displays the photographed image 11 at the photographing position P corresponding to the designated position coordinate Q together with the reference map 17.

さらに指定部35は撮影時刻19を指定することができ、表示部32はこの撮影時刻19に対応する位置座標Qを強調表示した参照マップ17を撮影像11とともに表示することができる。このとき、正確な実測時刻が紐付いた撮影位置Pと、同時刻の撮影時刻19に紐付いた位置座標Qとは、一致していることが理想的である。同時刻における撮影位置Pと位置座標Qが不一致である場合は、一致するように推定部26や導出部27の機能をチューニングすると良い。これにより、表示部32に表示した撮影像11に対応する位置座標Qの表示精度を、参照マップ17において向上させることができる。 Further, the specifying unit 35 can specify the photographing time 19, and the display unit 32 can display the reference map 17 in which the position coordinates Q corresponding to the photographing time 19 are highlighted together with the photographed image 11. At this time, it is ideal that the photographing position P associated with an accurate actual measurement time and the position coordinate Q associated with the same photographing time 19 match. If the photographing position P and the position coordinates Q at the same time do not match, it is preferable to tune the functions of the estimation unit 26 and the derivation unit 27 so that they match. Thereby, the display accuracy of the position coordinates Q corresponding to the photographed image 11 displayed on the display section 32 can be improved in the reference map 17.

(第3実施形態)
参照マップ17は、三次元像のものと二次元像のものに分類され、いずれかによってパラメータ18の機能に違いが有るので、例示して説明する。参照マップ17が、三次元像である場合、パラメータ18は、参照マップ17と三次元点群像13とを、相対的に回転、平行移動、縮尺変更する座標変換により、整合させる機能を持つ。
(Third embodiment)
The reference map 17 is classified into a three-dimensional image and a two-dimensional image, and since there is a difference in the function of the parameter 18 depending on the type, an example will be explained. When the reference map 17 is a three-dimensional image, the parameter 18 has a function of matching the reference map 17 and the three-dimensional point group image 13 through coordinate transformation that relatively rotates, translates, and changes the scale.

そして参照マップ17が二次元像である場合は、三次元点群像13を二次元化した投影像にする機能を持つ。さらにパラメータ18は、この投影像と参照マップ17とを、相対的に回転、平行移動、縮尺変更する座標変換により、整合させる機能を持つ。また参照マップ17が、二次元像である場合であっても、現場30におけるカメラ20の移動経路(動線36)の高さ情報を追加し、三次元像として取り扱うことができる。 When the reference map 17 is a two-dimensional image, it has a function of converting the three-dimensional point group image 13 into a two-dimensional projected image. Furthermore, the parameter 18 has a function of aligning this projected image and the reference map 17 through coordinate transformation that relatively rotates, translates, and changes the scale. Even if the reference map 17 is a two-dimensional image, it can be treated as a three-dimensional image by adding height information of the moving route (flow line 36) of the camera 20 at the site 30.

三次元点群像13の二次元座標系への投影像は、水平方向を記録された位置の情報から推定し、一定の高さの点群もしくは、垂直方向の点群密度から2次元図面の生成に使用する点群を抽出する。これにより、床面に置かれた構造物など図面に存在しない点群情報を除外することが可能になり、よりロバストなパラメータ18が導出される。 The projected image of the three-dimensional point cloud image 13 onto the two-dimensional coordinate system is estimated in the horizontal direction from the recorded position information, and a two-dimensional drawing is generated from a point cloud at a certain height or a point cloud density in the vertical direction. Extract the point cloud to use. This makes it possible to exclude point cloud information that does not exist in the drawing, such as structures placed on the floor, and more robust parameters 18 are derived.

また三次元点群像13の一定領域毎に投影された点数の密度を求め指定した密度以上の領域の点群のみを二次元の座標系に投影することによっても、よりロバストなパラメータ18が導出される。また、三次元点群像13の投影面に対する垂直方向の平均値を求め平均値から指定した範囲の値の点群のみを抽出して投影することによっても、よりロバストなパラメータ18が導出される。 A more robust parameter 18 can also be derived by calculating the density of the number of points projected for each fixed area of the three-dimensional point group image 13 and projecting only the point group in areas with a specified density or higher onto the two-dimensional coordinate system. Ru. Further, a more robust parameter 18 can also be derived by calculating the average value of the three-dimensional point group image 13 in the direction perpendicular to the projection plane and extracting and projecting only the point group with values within a specified range from the average value.

また、現場30にマーカ(図示略)を配置し、撮影像11に映り込んだマーカから撮影位置Pを推測し、対応する参照マップ17を自動で選択して導出部27に送信するようにしてもよい。 Further, a marker (not shown) is placed at the scene 30, the photographing position P is estimated from the marker reflected in the photographed image 11, and the corresponding reference map 17 is automatically selected and transmitted to the deriving section 27. Good too.

図4のフローチャートに基づいて、実施形態に係る点検方法の工程及び点検プログラムのアルゴリズムを説明する(適宜、図2及び図3参照)。まず、図2に示すようにカメラ20を移動させながら現場30を撮影し(S11)、撮影像11を取得する(S12)。そして、それぞれの撮影像11から、特徴点15で構成される二次元点群像12を抽出する(S13)。 The steps of the inspection method and the algorithm of the inspection program according to the embodiment will be explained based on the flowchart of FIG. 4 (see FIGS. 2 and 3 as appropriate). First, as shown in FIG. 2, the scene 30 is photographed while moving the camera 20 (S11), and a photographed image 11 is obtained (S12). Then, a two-dimensional point group image 12 composed of feature points 15 is extracted from each captured image 11 (S13).

ここで、巡視が初回であるとかいった理由で三次元点群像13がまだ作成されず不在である場合は(S14,Yes)、これら複数の二次元点群像12から現場30の三次元点群像13を作成する(S15)。なお三次元点群像13の作成は、このカメラ20に設けられた加速度センサ等により測定されたカメラ20の移動変位の情報がさらに必要となる。このようにして、三次元点群像13が存在するようになった場合は(S14,No)、この三次元点群像13に基づいて複数の二次元点群像12の各々の撮影位置Pを推定する(S16)。 Here, if the three-dimensional point group image 13 has not been created yet and is not present because it is the first patrol, etc. (S14, Yes), a three-dimensional point group image of the site 30 is created from these plural two-dimensional point group images 12. 13 is created (S15). Note that the creation of the three-dimensional point group image 13 additionally requires information on the movement displacement of the camera 20 measured by an acceleration sensor or the like provided in the camera 20. In this way, when the three-dimensional point group image 13 comes to exist (S14, No), the photographing position P of each of the plurality of two-dimensional point group images 12 is estimated based on this three-dimensional point group image 13. (S16).

さらにパラメータ18がまだ導出されず不在である場合は(S17,Yes)、三次元点群像12を現場30の参照マップ17に整合させるパラメータ18を導出する(S18)。このようにして、パラメータ18が存在するようになった場合は(S17,No)、このパラメータ18に基づき撮影位置Pを参照マップ17の位置座標Qに対応付けて記録する(S19)。さらに、撮影像11から撮影時刻19を読み出して(S20)、撮影位置P及び位置座標Qに紐付ける(S21)。 Furthermore, if the parameter 18 has not yet been derived and is absent (S17, Yes), the parameter 18 that matches the three-dimensional point group image 12 with the reference map 17 of the site 30 is derived (S18). In this way, when the parameter 18 comes to exist (S17, No), the photographing position P is recorded in association with the position coordinates Q of the reference map 17 based on this parameter 18 (S19). Further, the photographing time 19 is read out from the photographed image 11 (S20) and linked to the photographing position P and position coordinates Q (S21).

次に、参照マップ17を表示させ(S22)、オペレータ操作により位置座標Q又は撮影時刻19が指定される(S23)。すると、対応する撮影位置Pの撮影像11が位置座標Qとともに参照マップ17に表示される(S24)。そして、現場30の点検が終了するまで(S22)から(S24)のフローが繰返される(S25、No、Yes、END)。 Next, the reference map 17 is displayed (S22), and the position coordinates Q or the photographing time 19 are designated by an operator operation (S23). Then, the photographed image 11 at the corresponding photographing position P is displayed on the reference map 17 together with the position coordinates Q (S24). Then, the flow from (S22) to (S24) is repeated until the inspection of the site 30 is completed (S25, No, Yes, END).

以上述べた少なくともひとつの実施形態の点検装置によれば、複数の撮影位置におけるカメラ撮影像から抽出された特徴点で構成した現場の三次元点群像と参照マップとを整合させることで、現場に特別な仕組みを導入することなく各々の撮影位置の特定が可能となる。 According to the inspection device of at least one embodiment described above, by matching the reference map with a three-dimensional point group image of the site, which is made up of feature points extracted from camera images taken at a plurality of shooting positions, It becomes possible to specify each shooting position without introducing any special mechanism.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, changes, and combinations can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.

以上説明した点検装置は、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、又はCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスやキーボードなどの入力装置と、通信I/Fとを、備えており、通常のコンピュータを利用したハードウェア構成で実現できる。このため点検装置の構成要素は、コンピュータのプロセッサで実現することも可能であり、点検プログラムにより動作させることが可能である。 The inspection device described above includes a control device with a highly integrated processor such as a dedicated chip, FPGA (Field Programmable Gate Array), GPU (Graphics Processing Unit), or CPU (Central Processing Unit), and a ROM (Read Only memory) and RAM (Random Access Memory), external storage devices such as HDD (Hard Disk Drive) and SSD (Solid State Drive), display devices such as displays, and input devices such as mice and keyboards. , and a communication I/F, and can be realized with a hardware configuration using a normal computer. Therefore, the components of the inspection device can be realized by a computer processor, and can be operated by an inspection program.

また点検プログラムは、ROM等に予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供するようにしてもよい。 Further, the inspection program is provided by being pre-installed in a ROM or the like. Alternatively, this program is provided as an installable or executable file stored on a computer-readable storage medium such as a CD-ROM, CD-R, memory card, DVD, or flexible disk (FD). You may also do so.

また、本実施形態に係る点検プログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしてもよい。また、点検装置は、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワーク又は専用線で相互に接続し、組み合わせて構成することもできる。 Further, the inspection program according to this embodiment may be stored on a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. Furthermore, the inspection device can also be configured by combining separate modules that independently perform the functions of the constituent elements by interconnecting them via a network or a dedicated line.

点検装置10(10A,10B)、カメラ20、現場30、撮影像11、二次元点群像12、三次元点群像13、特徴点15、参照マップ17、パラメータ18、撮影時刻19、取得部21、抽出部22、作成部25、推定部26、導出部27、記録部28、現場30、読出部31、表示部32、指定部35、撮影位置P、位置座標Q。 Inspection device 10 (10A, 10B), camera 20, site 30, photographed image 11, two-dimensional point group image 12, three-dimensional point group image 13, feature points 15, reference map 17, parameters 18, photographing time 19, acquisition unit 21, Extraction unit 22, creation unit 25, estimation unit 26, derivation unit 27, recording unit 28, site 30, reading unit 31, display unit 32, designation unit 35, photographing position P, position coordinates Q.

Claims (10)

カメラを移動させながら現場を撮影した撮影像を取得する取得部と、
前記撮影像から特徴点で構成される二次元点群像を抽出する抽出部と、
前記現場における撮影位置が異なる複数の前記二次元点群像から三次元点群像を作成する作成部と、
前記三次元点群像に基づいて複数の前記二次元点群像の各々の前記撮影位置を推定する推定部と、
前記三次元点群像を前記現場の参照マップに整合させるパラメータを導出する導出部と、
前記パラメータに基づき前記撮影位置を前記参照マップの位置座標に対応付けて記録する記録部と、を備える点検装置。
an acquisition unit that acquires a captured image of the scene while moving the camera;
an extraction unit that extracts a two-dimensional point group image composed of feature points from the photographed image;
a creation unit that creates a three-dimensional point cloud image from the plurality of two-dimensional point cloud images taken at different photographing positions at the site;
an estimation unit that estimates the photographing position of each of the plurality of two-dimensional point group images based on the three-dimensional point group images;
a derivation unit that derives parameters for matching the three-dimensional point cloud image with the reference map of the site;
An inspection device comprising: a recording unit that records the photographing position in association with position coordinates of the reference map based on the parameters.
請求項1に記載の点検装置において、
前記参照マップの前記位置座標を指定する指定部と、
指定した前記位置座標に対応する前記撮影位置の前記撮影像を前記参照マップとともに表示する表示部と、を備える点検装置。
The inspection device according to claim 1,
a designation unit that designates the position coordinates of the reference map;
An inspection device comprising: a display unit that displays the photographed image at the photographing position corresponding to the specified position coordinates together with the reference map.
請求項2に記載の点検装置において、
前記撮影像から撮影時刻を読み出す読出部を備え、
前記記録部は、前記撮影時刻を前記撮影位置及び前記位置座標の少なくとも一方に紐付けて記録する点検装置。
The inspection device according to claim 2,
comprising a readout unit that reads out a photographing time from the photographed image,
The recording unit is an inspection device that records the photographing time in association with at least one of the photographing position and the position coordinates.
請求項3に記載の点検装置において、
前記指定部は、前記撮影時刻を指定することができ、
前記表示部は、前記撮影時刻に対応する前記位置座標を強調表示した前記参照マップを前記撮影像とともに表示する点検装置。
The inspection device according to claim 3,
The designation unit can designate the photographing time,
The display unit is an inspection device that displays the reference map in which the position coordinates corresponding to the photographing time are highlighted together with the photographed image.
請求項1又は請求項2に記載の点検装置において、
前記カメラは全方位カメラである点検装置。
In the inspection device according to claim 1 or claim 2,
The camera is an inspection device that is an omnidirectional camera.
請求項1又は請求項2に記載の点検装置において、
前記パラメータは、三次元像である前記参照マップと前記三次元点群像とを、相対的に回転、平行移動、縮尺変更する座標変換により、前記整合させる点検装置。
In the inspection device according to claim 1 or claim 2,
The inspection device aligns the parameters by coordinate transformation that relatively rotates, translates, and scales the reference map, which is a three-dimensional image, and the three-dimensional point group image.
請求項6に記載の点検装置において、
前記参照マップは、二次元像の情報に前記カメラの移動経路の高さ情報を追加して前記三次元像とした点検装置。
The inspection device according to claim 6,
The reference map is an inspection device that obtains the three-dimensional image by adding height information of the moving route of the camera to the information of the two-dimensional image.
請求項1又は請求項2に記載の点検装置において、
前記パラメータは、二次元像である前記参照マップと前記三次元点群像を二次元化した投影像とを、相対的に回転、平行移動、縮尺変更する座標変換により、前記整合させる点検装置。
In the inspection device according to claim 1 or claim 2,
The inspection device aligns the reference map, which is a two-dimensional image, and the projection image, which is a two-dimensional projection image of the three-dimensional point group image, through coordinate transformation that relatively rotates, translates, and changes the scale of the reference map, which is a two-dimensional image.
カメラを移動させながら現場を撮影した撮影像を取得するステップと、
前記撮影像から特徴点で構成される二次元点群像を抽出するステップと、
前記現場における撮影位置が異なる複数の前記二次元点群像から三次元点群像を作成するステップと、
前記三次元点群像に基づいて複数の前記二次元点群像の各々の前記撮影位置を推定するステップと、
前記三次元点群像を前記現場の参照マップに整合させるパラメータを導出するステップと、
前記パラメータに基づき前記撮影位置を前記参照マップの位置座標に対応付けて記録するステップと、を含む点検方法。
acquiring a captured image of the scene while moving the camera;
extracting a two-dimensional point group image composed of feature points from the photographed image;
creating a three-dimensional point group image from the plurality of two-dimensional point group images taken at different photographing positions at the site;
estimating the photographing position of each of the plurality of two-dimensional point group images based on the three-dimensional point group images;
deriving parameters for matching the three-dimensional point cloud image to the reference map of the scene;
An inspection method comprising the step of recording the photographing position in association with the position coordinates of the reference map based on the parameters.
コンピュータに、
カメラを移動させながら現場を撮影した撮影像を取得するステップ、
前記撮影像から特徴点で構成される二次元点群像を抽出するステップ、
前記現場における撮影位置が異なる複数の前記二次元点群像から三次元点群像を作成するステップ、
前記三次元点群像に基づいて複数の前記二次元点群像の各々の前記撮影位置を推定するステップ、
前記三次元点群像を前記現場の参照マップに整合させるパラメータを導出するステップ、
前記パラメータに基づき前記撮影位置を前記参照マップの位置座標に対応付けて記録するステップ、を実行させる点検プログラム。
to the computer,
acquiring a captured image of the scene while moving the camera;
extracting a two-dimensional point group image composed of feature points from the photographed image;
creating a three-dimensional point group image from the plurality of two-dimensional point group images taken at different photographing positions at the site;
estimating the photographing position of each of the plurality of two-dimensional point group images based on the three-dimensional point group images;
deriving parameters for matching the three-dimensional point cloud image to the reference map of the scene;
An inspection program that executes a step of recording the photographing position in association with position coordinates of the reference map based on the parameters.
JP2022110930A 2022-07-11 2022-07-11 Inspection device, inspection method, and inspection program Pending JP2024009427A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022110930A JP2024009427A (en) 2022-07-11 2022-07-11 Inspection device, inspection method, and inspection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022110930A JP2024009427A (en) 2022-07-11 2022-07-11 Inspection device, inspection method, and inspection program

Publications (1)

Publication Number Publication Date
JP2024009427A true JP2024009427A (en) 2024-01-23

Family

ID=89620407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022110930A Pending JP2024009427A (en) 2022-07-11 2022-07-11 Inspection device, inspection method, and inspection program

Country Status (1)

Country Link
JP (1) JP2024009427A (en)

Similar Documents

Publication Publication Date Title
Bang et al. UAV-based automatic generation of high-resolution panorama at a construction site with a focus on preprocessing for image stitching
Golparvar-Fard et al. Evaluation of image-based modeling and laser scanning accuracy for emerging automated performance monitoring techniques
US20090010489A1 (en) Method for comparison of 3D computer model and as-built situation of an industrial plant
CN112686877B (en) Binocular camera-based three-dimensional house damage model construction and measurement method and system
Marcin et al. Hierarchical, three‐dimensional measurement system for crime scene scanning
KR101759798B1 (en) Method, device and system for generating an indoor two dimensional plan view image
JP7003594B2 (en) 3D point cloud display device, 3D point cloud display system, 3D point cloud display method, 3D point cloud display program, recording medium
JP2019032218A (en) Location information recording method and device
JP7204021B2 (en) Apparatus and method for obtaining a registration error map representing image sharpness level
Kwiatek et al. Immersive photogrammetry in 3D modelling
Sommer et al. Scan methods and tools for reconstruction of built environments as basis for digital twins
JP2023546739A (en) Methods, apparatus, and systems for generating three-dimensional models of scenes
Yilmazturk et al. Geometric evaluation of mobile‐phone camera images for 3D information
Barrile et al. 3D modeling with photogrammetry by UAVs and model quality verification
JP7427615B2 (en) Information processing device, information processing method and program
JP2007025863A (en) Photographing system, photographing method, and image processing program
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP5837404B2 (en) Image processing apparatus and image processing method
JP2022027111A (en) Measurement processing device, method and program
Lemoine et al. Fast surface height determination using multi-angular WorldView-2 ortho ready urban scenes
JP2024009427A (en) Inspection device, inspection method, and inspection program
KR102458559B1 (en) Construction management system and method using mobile electric device
Losè et al. Documentation of Complex Environments Using 360° Cameras. The Santa Marta Belltower in Montanaro.
KR101714174B1 (en) Structure image management method, image processing apparatus, and image inquiry apparatus
JP2015005200A (en) Information processing apparatus, information processing system, information processing method, program, and memory medium