JP2023034740A - Face evaluation supporting apparatus and face evaluation supporting method - Google Patents

Face evaluation supporting apparatus and face evaluation supporting method Download PDF

Info

Publication number
JP2023034740A
JP2023034740A JP2021141107A JP2021141107A JP2023034740A JP 2023034740 A JP2023034740 A JP 2023034740A JP 2021141107 A JP2021141107 A JP 2021141107A JP 2021141107 A JP2021141107 A JP 2021141107A JP 2023034740 A JP2023034740 A JP 2023034740A
Authority
JP
Japan
Prior art keywords
face
unit
evaluation
image data
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021141107A
Other languages
Japanese (ja)
Inventor
正 吉川
Tadashi Yoshikawa
拓治 山本
Takuji Yamamoto
健司 橋立
Kenji Hashidate
茂 三木
Shigeru Miki
貴律 野村
Kiritsu Nomura
統蔵 田中
Touzo Tanaka
亮介 鶴田
Ryosuke Tsuruta
順一 辰巳
Junichi Tatsumi
保幸 宮嶋
Yasuyuki Miyajima
卓 白鷺
Taku Shirasagi
幹 金岡
Miki Kaneoka
康介 垣見
Kosuke Kakimi
英郷 小島
Hidesato Kojima
真也 上岡
Shinya Kamioka
浩 高橋
Hiroshi Takahashi
崇 杉山
Takashi Sugiyama
泰人 辻川
Yasuto Tsujikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nsw Inc
Sohga Co Ltd
Kajima Corp
Shimizu Construction Co Ltd
Kiso Jiban Consultants Co Ltd
Toda Corp
Shimizu Corp
Hazama Ando Corp
Advanced Construction Technology Center ACTEC
Original Assignee
Nsw Inc
Sohga Co Ltd
Kajima Corp
Shimizu Construction Co Ltd
Kiso Jiban Consultants Co Ltd
Toda Corp
Shimizu Corp
Hazama Ando Corp
Advanced Construction Technology Center ACTEC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nsw Inc, Sohga Co Ltd, Kajima Corp, Shimizu Construction Co Ltd, Kiso Jiban Consultants Co Ltd, Toda Corp, Shimizu Corp, Hazama Ando Corp, Advanced Construction Technology Center ACTEC filed Critical Nsw Inc
Priority to JP2021141107A priority Critical patent/JP2023034740A/en
Publication of JP2023034740A publication Critical patent/JP2023034740A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a face evaluation supporting apparatus capable of improving evaluation quality in face evaluation.SOLUTION: A face evaluation supporting apparatus 4 is provided with an image data acquisition unit 11 for acquiring image data in which a target region including a tunnel face is photographed, a point cloud data acquisition unit 12 for acquiring point cloud data in which a three-dimensional shape is measured, a face evaluation unit 13 for evaluating the face based on the image data and the point cloud data, and a support information output unit 14 for outputting support information based on an evaluation result of the face evaluation unit 13. The face evaluation unit 13 is provided with a face extraction unit 130 for extracting a face region corresponding to the face from the target region, a roughness quantification unit 131 for quantifying the roughness of the face surface in the face region as a roughness feature amount based on the point cloud data, an area division unit 132 for dividing the face region into divided areas based on the distribution of representative values of the roughness feature amount, and a divided area evaluation processing unit 133 for evaluating an observation item related to the face as an evaluation result for each divided area.SELECTED DRAWING: Figure 4

Description

本発明は、切羽評価支援装置、及び、切羽評価支援方法に関する。 The present invention relates to a face evaluation support device and a face evaluation support method.

トンネル工事の安全性や作業性を確保するため、トンネルの切羽面の状態は適切に評価することが要求される。従来、専門技術者が切羽を目視観察し、その観察結果のスケッチ記録等が行われていたが、専門技術者の不足に対応するとともに、観察結果の品質確保を図るべく、近年、切羽を撮影した画像データ(写真)や、切羽の三次元形状を計測した点群データを用いた切羽評価装置の開発が行われている。 In order to ensure the safety and workability of tunnel construction, it is required to properly evaluate the condition of the tunnel face. In the past, professional engineers visually observed the face and recorded sketches of the observation results. A face evaluation system is being developed that uses image data (photographs) and point cloud data obtained by measuring the three-dimensional shape of the face.

例えば、特許文献1には、切羽の岩盤が撮像された撮像画像に基づいて、風化変質の評価区分を導出する岩盤の風化変質評価装置が開示されている。また、特許文献2には、トンネルの切羽面の3次元立体情報が計測された点群データに基づいて、岩盤に発達する亀裂を評価する亀裂評価装置が開示されている。 For example, Patent Literature 1 discloses a rock mass weathering alteration evaluation apparatus that derives a weathering alteration evaluation category based on a captured image of a face rock. Further, Patent Literature 2 discloses a crack evaluation device that evaluates cracks developing in rock based on point cloud data obtained by measuring three-dimensional information of the face of a tunnel.

特開2019-184541号公報JP 2019-184541 A 特開2018-181271号公報JP 2018-181271 A

特許文献1及び特許文献2に開示された装置では、画像データ及び点群データをそれぞれ用いて切羽を評価しているため、画像データ及び点群データを個別に評価しただけでは切羽の評価に際して評価品質の向上には限界がある。例えば、画像データには、切羽以外にも支保や路盤部等が撮影されているため、画像データ上で、切羽の領域と、切羽以外の領域とを分離する処理が必要となり、その処理が不十分な場合には、切羽の評価品質を低下させる可能性がある。また、切羽には、特徴が異なる複数の岩盤が含まれている場合があり、これらの岩盤を区分せずに各種の観察項目について評価した場合、切羽の状態が適切に評価されない可能性もある。 In the devices disclosed in Patent Documents 1 and 2, the face is evaluated using the image data and the point cloud data, respectively. There are limits to improving quality. For example, since the image data includes images of supports, roadbeds, etc. in addition to the face, it is necessary to perform processing to separate the face region from the non-face region on the image data, and this processing is unnecessary. In sufficient cases, it can degrade the evaluation quality of the face. In addition, the face may include multiple rocks with different characteristics, and if the various observation items are evaluated without classifying these rocks, the condition of the face may not be evaluated appropriately. .

本発明は、上述した課題に鑑みてなされたものであって、切羽の評価に際して評価品質を向上させることを可能とする切羽評価支援装置、及び、切羽評価支援方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a face evaluation support device and a face evaluation support method capable of improving evaluation quality when evaluating a face. .

上記目的を達成するために、本発明の一態様に係る切羽評価支援装置は、
トンネルの切羽を含む対象領域が撮影された画像データを取得する画像データ取得部と、
前記対象領域の三次元形状が計測された点群データを取得する点群データ取得部と、
前記画像データ及び前記点群データに基づいて、前記切羽を評価する切羽評価部と、
前記切羽評価部による評価結果に基づいて、支援情報を出力する支援情報出力部とを備え、
前記切羽評価部は、
前記画像データ及び前記点群データの少なくとも一方に基づいて、前記対象領域から前記切羽に対応する切羽領域を抽出する切羽抽出部と、
前記点群データに基づいて、前記切羽領域に対して複数の走査方向に設定された複数の走査線に沿って前記切羽領域における切羽面のラフネスをラフネス特徴量として数値化するラフネス数値化部と、
複数の前記走査線が交差する各交点に対して前記ラフネス特徴量の代表値を求め、前記交点毎の前記代表値の分布に基づいて、前記切羽領域を区分領域に区分する領域区分部と、
前記領域区分部により前記切羽領域が区分された区分領域毎に、前記切羽に関する観察項目を前記評価結果として評価する区分領域評価処理部とを備える。
In order to achieve the above object, a face evaluation support device according to an aspect of the present invention includes:
an image data acquisition unit that acquires image data in which a target region including a face of a tunnel is photographed;
a point cloud data acquisition unit that acquires point cloud data in which the three-dimensional shape of the target region is measured;
a face evaluation unit that evaluates the face based on the image data and the point cloud data;
a support information output unit that outputs support information based on the evaluation result of the face evaluation unit;
The face evaluation unit is
a face extraction unit that extracts a face region corresponding to the face from the target region based on at least one of the image data and the point cloud data;
a roughness quantifying unit that quantifies the roughness of the face surface in the face region as a roughness feature amount along a plurality of scanning lines set in a plurality of scanning directions with respect to the face region, based on the point cloud data; ,
an area division unit that obtains a representative value of the roughness feature amount for each intersection point where the plurality of scanning lines intersect, and divides the face area into division areas based on the distribution of the representative value for each intersection point;
and a segmented region evaluation processing unit that evaluates observation items related to the face as the evaluation result for each segmented region obtained by segmenting the face region by the region segmentation unit.

本発明の一態様に係る切羽評価支援装置によれば、切羽抽出部が、画像データ及び点群データの少なくとも一方に基づいて、切羽に対応する切羽領域を抽出し、ラフネス数値化部が、点群データに基づいて、切羽領域における切羽面のラフネスをラフネス特徴量として数値化し、領域区分部が、ラフネス特徴量の分布に基づいて、切羽領域を区分領域に区分し、区分領域評価処理部が、切羽に関する観察項目を区分領域毎に評価する。そのため、切羽に対応する領域が区分領域に区分され、切羽に関する観察項目が区分領域毎に評価される。したがって、切羽の評価に際して評価品質を向上させることができる。 According to the face evaluation support device according to one aspect of the present invention, the face extraction unit extracts the face region corresponding to the face based on at least one of the image data and the point cloud data, and the roughness quantification unit converts the point Based on the group data, the roughness of the face surface in the face region is quantified as a roughness feature quantity, the region dividing unit divides the face region into segmented regions based on the distribution of the roughness feature quantity, and the segmented region evaluation processing unit , the observation items related to the face are evaluated for each segmented area. Therefore, the region corresponding to the face is divided into segmented regions, and the observation items related to the face are evaluated for each segmented region. Therefore, it is possible to improve the evaluation quality when evaluating the face.

上記以外の課題、構成及び効果は、後述する発明を実施するための形態にて明らかにされる。 Problems, configurations, and effects other than the above will be clarified in the mode for carrying out the invention, which will be described later.

切羽評価支援システム1の一例を示す全体図である。1 is an overall view showing an example of a face evaluation support system 1; FIG. 切羽評価支援システム1で処理されるデータの一例を示し、(a)画像データ、(b)点群データを示す図である。It is a figure which shows an example of the data processed by the face evaluation support system 1, and shows (a) image data and (b) point cloud data. 切羽評価支援装置4の一例を示すブロック図である。2 is a block diagram showing an example of a face evaluation support device 4; FIG. 切羽評価支援装置4の一例を示す機能説明図である。4 is a functional explanatory diagram showing an example of a face evaluation support device 4; FIG. 色補正部110による色補正処理の一例を示すフロチャートである。4 is a flowchart showing an example of color correction processing by a color correction unit 110; 点群データから切羽領域101を抽出する第1の切羽抽出処理の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a first face extraction process for extracting a face region 101 from point cloud data; 画像データから切羽領域101を抽出する第2の切羽抽出処理の一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of a second face extraction process for extracting a face region 101 from image data; ラフネス数値化部131によるラフネス数値化処理の一例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of roughness quantification processing by a roughness quantification unit 131; 領域区分部132による領域区分処理の一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of area segmentation processing by an area segmentation unit 132; 割れ目卓越方向判定部133Aによる割れ目卓越方向の判定処理の一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of processing for determining a predominant direction of a crack by a predominant direction of a crack determination unit 133A; 岩石グループ判定部133Bによる岩石グループの判定処理の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of rock group determination processing by a rock group determination unit 133B; 割れ目間隔判定部133Cによる割れ目間隔の判定処理の一例を示す説明図である。FIG. 13 is an explanatory diagram showing an example of crack interval determination processing by a crack interval determination unit 133C; 割れ目形態判定部133Dによる割れ目形態の判定処理の一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of a crack form determination process by a crack form determination unit 133D; 評価区分推論部133Eによる観察項目に関する評価区分の推論処理の一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of inference processing of an evaluation classification regarding an observation item by an evaluation classification inference unit 133E; 第1の連続性割れ目検出部134Aによる連続性割れ目の判定処理の一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of continuity break determination processing by the first continuity break detection unit 134A; 第2の連続性割れ目検出部134Bによる連続性割れ目の判定処理の一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of continuity break determination processing by a second continuity break detection unit 134B; 第3の連続性割れ目検出部134Cによる連続性割れ目の判定処理の一例を示す説明図である。FIG. 13 is an explanatory diagram showing an example of continuity break determination processing by a third continuity break detection unit 134C; 人工物検出部134Dによる人工物の検出処理の一例を示す説明図である。FIG. 13 is an explanatory diagram showing an example of an artifact detection process by an artifact detection unit 134D; 肌落ち危険個所の予測処理の一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of prediction processing of a risky skin-spotting area; 切羽観察シート情報15の印刷出力例である切羽観察シート150を示す図である。FIG. 10 is a diagram showing a face observation sheet 150 that is a printed output example of face observation sheet information 15; 切羽スケッチ情報16の画面表示例である切羽スケッチ画面160を示す図である。FIG. 10 is a diagram showing a face sketch screen 160 as a screen display example of face sketch information 16. FIG.

以下、図面を参照して本発明を実施するための実施形態について説明する。以下では、本発明の目的を達成するための説明に必要な範囲を模式的に示し、本発明の該当部分の説明に必要な範囲を主に説明することとし、説明を省略する箇所については公知技術によるものとする。 Embodiments for carrying out the present invention will be described below with reference to the drawings. In the following, the range necessary for the description to achieve the object of the present invention is schematically shown, and the range necessary for the description of the relevant part of the present invention is mainly described. It shall be by technology.

図1は、切羽評価支援システム1の一例を示す全体図である。図2は、切羽評価支援システム1で処理されるデータの一例を示し、(a)画像データ、(b)点群データを示す図である。 FIG. 1 is an overall view showing an example of a face evaluation support system 1. As shown in FIG. FIG. 2 shows an example of data processed by the face evaluation support system 1, showing (a) image data and (b) point cloud data.

切羽評価支援システム1は、トンネルの現場にて切羽Fの状態を観察し、評価するために用いられるシステムである。切羽評価支援システム1は、その主要な構成要素として、画像撮影装置2と、三次元形状計測装置3と、切羽評価支援装置4と、作業者端末装置5と、管理者端末装置6とを備える。各装置2~6は、有線又は無線のネットワーク7に接続されて、各種のデータを相互に送受信可能に構成される。なお、各装置2~6の数は、複数でもよいし、ネットワーク7の構成は、図1の例に限られない。 The face evaluation support system 1 is a system used to observe and evaluate the state of the face F at the tunnel site. The face evaluation support system 1 includes an image capturing device 2, a three-dimensional shape measuring device 3, a face evaluation support device 4, an operator terminal device 5, and an administrator terminal device 6 as its main components. . Each device 2 to 6 is connected to a wired or wireless network 7 and configured to be able to mutually transmit and receive various data. Note that the number of the devices 2 to 6 may be plural, and the configuration of the network 7 is not limited to the example of FIG.

画像撮影装置2は、トンネルの切羽Fを含む対象領域100を撮影する装置であり、例えば、カラーのイメージセンサを有するデジタルカメラ等で構成される。画像撮影装置2は、例えば、現場作業者により操作されて、所定の撮影条件(撮影位置、色見本20の設置位置、照明等)にて対象領域100を撮影することで、各画素に対してRGBの3成分に対する画素値をそれぞれ記録したカラー画像データを生成する。カラー画像データは、ネットワーク7又は記録媒体等を介して切羽評価支援装置4に送られる。 The image capturing device 2 is a device that captures an image of a target area 100 including a tunnel face F, and is composed of, for example, a digital camera having a color image sensor. For example, the image capturing device 2 is operated by an on-site worker to capture an image of the target region 100 under predetermined image capturing conditions (image capturing position, installation position of the color sample 20, lighting, etc.). Color image data is generated in which pixel values for the three components of RGB are respectively recorded. The color image data is sent to the face evaluation support device 4 via the network 7 or a recording medium.

画像撮影装置2は、三脚等により路盤部に設置されて使用されるものであるが、例えば、工事用の機械類若しくは車両又はドローン、無人航空機(UAV)、気球等の飛行体等に取り付けられてもよいし、遠隔で操作されるものでもよい。また、画像撮影装置2は、カラー画像データに代えて、グレースケールの画像データを生成するものでもよい。本実施形態では、画像撮影装置2は、カラー画像データを生成し、後述の色補正部110により色補正を行う場合について説明し、以下では、カラー画像データを「画像データ」と略して記載する。 The image capturing device 2 is used by being installed on a roadbed with a tripod or the like. It may be remotely operated. Further, the image capturing device 2 may generate grayscale image data instead of color image data. In this embodiment, the image capturing device 2 generates color image data, and a color correction unit 110 described later performs color correction. Hereinafter, the color image data is abbreviated as “image data”. .

画像データには、切羽Fだけでなく、支保や路盤部も撮影される。また、画像データを撮影する際、図2(a)に示すように、切羽Fの手前付近に色見本20が設置された状態で撮影するため、画像データには、色見本20も撮影される。 In the image data, not only the face F but also the support and the roadbed are photographed. Further, when the image data is captured, as shown in FIG. 2A, the color sample 20 is also captured in the image data because the color sample 20 is placed in front of the face F. .

色見本20は、白黒2色で構成された所定の白黒模様を有し、例えば、左右方向に黒色、白色(上下に黒縁を有する)・黒色の並びで配置された3つの矩形領域(面積はそれぞれ同程度)で構成される。色見本20は、天地が反転した状態でも同じ模様になるように、点対称や線対称の模様が採用される。また、色見本20は、白黒だけの模様であるため、例えば、プリンタ(カラー印刷非対応でも可)により白紙のコピー用紙や印画紙(A3、B4、A4サイズ等)に黒部分の模様を印刷し、黒板、白板、段ボール等の台紙に貼り付けることで、簡易に作製することができる。 The color sample 20 has a predetermined black-and-white pattern composed of two colors, black and white. For example, three rectangular areas (with an area of to the same extent). The color sample 20 adopts a point-symmetrical or line-symmetrical pattern so that the pattern remains the same even when the top and bottom are reversed. In addition, since the color sample 20 is a black-and-white pattern only, for example, the pattern of the black portion is printed on blank copy paper or photographic paper (A3, B4, A4 size, etc.) by a printer (even if it does not support color printing). It can be easily produced by pasting it on a board such as a blackboard, a white board, or cardboard.

三次元形状計測装置3は、トンネルの切羽Fを含む対象領域100の三次元形状を計測する装置であり、例えば、レーザや超音波を用いた測距センサ、ステレオカメラ等で構成される。三次元形状計測装置3は、所定の計測条件(計測位置等)にて対象領域100を計測することで、トンネル軸(z軸)の方向に対して対象領域100の各位置までの距離(深度)をそれぞれ記録した点群データを生成する。点群データは、ネットワーク7又は記録媒体等を介して切羽評価支援装置4に送られる。 The three-dimensional shape measuring device 3 is a device that measures the three-dimensional shape of the target region 100 including the tunnel face F, and is composed of, for example, a distance sensor using laser or ultrasonic waves, a stereo camera, or the like. By measuring the target region 100 under predetermined measurement conditions (measurement positions, etc.), the three-dimensional shape measuring device 3 measures the distance (depth ) are recorded to generate point cloud data. The point cloud data is sent to the face evaluation support device 4 via the network 7, a recording medium, or the like.

三次元形状計測装置3は、三次元形状を計測する方式として、アクティブ方式及びパッシブ方式のいずれでもよい。画像撮影装置2及び三次元形状計測装置3は、一体的に構成されていてもよく、例えば、画像データ及び点群データの両方を生成可能なRGB-D(Red Green Blue Depth)カメラで構成されていてもよい。 The three-dimensional shape measuring device 3 may use either an active method or a passive method as a method for measuring a three-dimensional shape. The image capturing device 2 and the three-dimensional shape measuring device 3 may be configured integrally, for example, configured by an RGB-D (Red Green Blue Depth) camera capable of generating both image data and point cloud data. may be

点群データには、図2(b)に示すように、トンネルの軸方向をz方向として、切羽Fまでの距離により、対象領域100の三次元形状が記録される。その際、色見本20を設置する必要はない。なお、画像データによる撮影範囲と、点群データによる計測範囲とは、対象領域100のように、同程度の範囲であることが好ましいが、両範囲が、少なくとも切羽Fの全体を含む対象領域100に相当するのであれば異なる範囲でもよい。また、画像データの撮影時刻と、点群データの計測時刻とは、基本的には同じ時間帯であることが好ましいが、切羽Fの状態が変化しない範囲内であれば時間差があってもよい。 In the point cloud data, the three-dimensional shape of the target region 100 is recorded by the distance to the face F with the axial direction of the tunnel as the z direction, as shown in FIG. 2(b). At that time, it is not necessary to install the color sample 20 . It should be noted that the imaging range by the image data and the measurement range by the point cloud data are preferably similar ranges like the target region 100, but both ranges include at least the entire face F. The target region 100 A different range may be used as long as it corresponds to . In addition, although it is preferable that the image data capturing time and the point cloud data measuring time are basically in the same time zone, there may be a time difference within a range in which the state of the face F does not change. .

切羽評価支援装置4は、汎用又は専用のコンピュータで構成され、例えば、据置型コンピュータや携帯型コンピュータが使用される。切羽評価支援装置4は、画像撮影装置2及び三次元形状計測装置3から画像データ及び点群データをそれぞれ取得し、その画像データ及び点群データに対して各種の処理を行うことにより、切羽Fに関する各種の観察項目を評価する。切羽評価支援装置4は、その評価結果に基づいて支援情報を生成し、その支援情報を、例えば、作業者端末装置5、管理者端末装置6等に提供する。 The face evaluation support device 4 is composed of a general-purpose or dedicated computer, and for example, a stationary computer or a portable computer is used. The face evaluation support device 4 acquires image data and point cloud data from the image capturing device 2 and the three-dimensional shape measurement device 3, respectively, and performs various processes on the image data and point cloud data to obtain the face F Evaluate various observations related to The face evaluation support device 4 generates support information based on the evaluation result, and provides the support information to, for example, the worker terminal device 5, the manager terminal device 6, and the like.

また、切羽評価支援装置4は、画像データ及び点群データと、支援情報とを対応付けて記憶する切羽管理データベース400を備える。切羽管理データベース400には、切羽Fに関する上記のデータが複数登録されて、例えば、識別子(ID)、現場名称、現場位置、観察日時等の属性情報が付加されることで、識別可能に管理される。 The face evaluation support device 4 also includes a face management database 400 that associates and stores image data, point cloud data, and support information. In the face management database 400, a plurality of data regarding the face F are registered, and attribute information such as an identifier (ID), site name, site position, observation date and time, etc. are added, and managed in an identifiable manner. be.

作業者端末装置5は、例えば、現場の作業者により使用される。作業者端末装置5は、汎用又は専用のコンピュータで構成され、例えば、タブレット端末やスマートフォン等の携帯型コンピュータが使用される。作業者端末装置5は、各種の入力操作を受け付けるとともに、アプリやウェブブラウザ等のソフトウェアによる表示画面や音声を介して、各種の情報を出力する。また、作業者端末装置5は、ネットワーク7を介して切羽評価支援装置4等との間で各種のデータを送受信する。 The operator terminal device 5 is used, for example, by an on-site operator. The worker terminal device 5 is composed of a general-purpose or dedicated computer, and for example, a portable computer such as a tablet terminal or a smart phone is used. The operator terminal device 5 receives various input operations, and outputs various information via display screens and voices by software such as applications and web browsers. In addition, the worker terminal device 5 transmits and receives various data to and from the face evaluation support device 4 and the like via the network 7 .

管理者端末装置6は、例えば、現場の管理者(作業者と同一人物でもよい)により使用される。管理者端末装置6は、汎用又は専用のコンピュータで構成され、例えば、据置型コンピュータや携帯型コンピュータが使用される。管理者端末装置6は、各種の入力操作を受け付けるとともに、アプリやウェブブラウザ等のソフトウェアによる表示画面や音声を介して、各種の情報を出力する。また、管理者端末装置6は、ネットワーク7を介して切羽評価支援装置4等との間で各種のデータを送受信する。 The administrator terminal device 6 is used, for example, by an on-site administrator (who may be the same person as the worker). The administrator terminal device 6 is composed of a general-purpose or dedicated computer, and for example, a stationary computer or a portable computer is used. The administrator terminal device 6 receives various input operations, and outputs various information via display screens and voices by software such as applications and web browsers. In addition, the administrator terminal device 6 transmits and receives various data to and from the face evaluation support device 4 and the like via the network 7 .

図3は、切羽評価支援装置4の一例を示すブロック図である。切羽評価支援装置4は、HDD、SSD、メモリ等により構成される記憶部40と、CPU、GPU、MPU等のプロセッサにより構成される制御部41と、キーボード、マウス等により構成される入力部42と、ディスプレイ等により構成される表示部43と、所定の通信規格(有線及び無線のいずれでもよい)に基づくネットワーク7とのインターフェースである通信部44と、プリンタ、スキャナ、USBメモリ等の外部機器とのインターフェースである外部機器インターフェース(I/F)部45と、CD、DVD等の記憶媒体とのインターフェースであるメディア入出力部46とを備える。なお、入力部42及び表示部43は、タッチパネル等の共用の装置で構成されていてもよい。 FIG. 3 is a block diagram showing an example of the face evaluation support device 4. As shown in FIG. The face evaluation support device 4 includes a storage unit 40 configured by HDD, SSD, memory, etc., a control unit 41 configured by processors such as CPU, GPU, MPU, etc., and an input unit 42 configured by keyboard, mouse, etc. , a display unit 43 configured by a display or the like, a communication unit 44 that is an interface with the network 7 based on a predetermined communication standard (either wired or wireless), and external devices such as printers, scanners, and USB memories. and an external device interface (I/F) unit 45, which is an interface with the device, and a media input/output unit 46, which is an interface with storage media such as CDs and DVDs. Note that the input unit 42 and the display unit 43 may be configured by a shared device such as a touch panel.

記憶部40には、基本プログラムであるオペレーティングシステム(OS)、切羽評価支援装置4の動作を制御する切羽評価支援プログラム10、切羽評価支援プログラム10で使用される各種のデータ(切羽管理データベース400等)、表計算処理を実行する表計算ソフトウェア、文書作成処理を実行する文書作成ソフトウェア、及び、ウェブブラウザソフトウェア等が記憶されている。 The storage unit 40 stores an operating system (OS) that is a basic program, a face evaluation support program 10 that controls the operation of the face evaluation support device 4, various data used in the face evaluation support program 10 (face management database 400, etc.). ), spreadsheet software for executing spreadsheet processing, document creation software for executing document creation processing, web browser software, and the like are stored.

なお、切羽評価支援プログラム10、及び、切羽評価支援プログラム10で使用される各種のデータは、基本的には記憶部40に記憶されているが、これらのプログラムやデータは、通信部44や外部機器I/F部45を介して外部の記憶装置から取得されてもよいし、メディア入出力部46を介して記憶媒体から取得されてもよい。また、切羽評価支援プログラム10で使用される各種のデータは、表計算ソフトウェア、文書作成ソフトウェア及びウェブブラウザソフトウェアにて表示・編集可能な形式で作成されるのが好ましい。 Although the face evaluation support program 10 and various data used in the face evaluation support program 10 are basically stored in the storage unit 40, these programs and data are stored in the communication unit 44 or externally. It may be acquired from an external storage device via the device I/F unit 45 or may be acquired from a storage medium via the media input/output unit 46 . Various data used in the face evaluation support program 10 are preferably created in a format that can be displayed and edited by spreadsheet software, document creation software, and web browser software.

制御部41は、切羽評価支援プログラム10を実行することにより、画像データ取得部11、点群データ取得部12、切羽評価部13、及び、支援情報出力部14として機能する。 The control unit 41 functions as an image data acquisition unit 11 , a point cloud data acquisition unit 12 , a face evaluation unit 13 , and a support information output unit 14 by executing the face evaluation support program 10 .

図4は、切羽評価支援装置4の一例を示す機能説明図である。なお、切羽評価支援装置4は、切羽評価支援方法を実施する主体として動作し、切羽評価支援装置4の各部で行われる処理内容は、切羽評価支援方法の各工程に相当する。 FIG. 4 is a functional explanatory diagram showing an example of the face evaluation support device 4. As shown in FIG. The face evaluation support device 4 operates as a subject that implements the face evaluation support method, and the processing contents performed by each part of the face evaluation support device 4 correspond to each step of the face evaluation support method.

画像データ取得部11は、トンネルの切羽Fを含む対象領域100が撮影された画像データを取得する。画像データ取得部11は、画像撮影装置2から、例えば、通信部44、外部機器I/F部45、メディア入出力部46等を介して画像データを取得する。また、画像データ取得部11は、カラー画像データに対して色補正を行う色補正部110を備える。なお、画像データは、過去に撮像されて切羽管理データベース400に記憶されたものでもよく、その場合には、画像データ取得部11は、切羽管理データベース400を参照すればよい。 The image data acquisition unit 11 acquires image data in which the target region 100 including the face F of the tunnel is captured. The image data acquisition unit 11 acquires image data from the image capturing device 2 via, for example, the communication unit 44, the external device I/F unit 45, the media input/output unit 46, and the like. The image data acquisition unit 11 also includes a color correction unit 110 that performs color correction on the color image data. The image data may be captured in the past and stored in the face management database 400 . In this case, the image data acquisition unit 11 may refer to the face management database 400 .

点群データ取得部12は、トンネルの切羽Fを含む対象領域100の三次元形状が計測された点群データを取得する。点群データ取得部12は、三次元形状計測装置3から、例えば、通信部44、外部機器I/F部45、メディア入出力部46等を介して点群データを取得する。なお、点群データは、過去に計測されて切羽管理データベース400に記憶されたものでもよく、その場合には、点群データ取得部12は、切羽管理データベース400を参照すれればよい。 The point cloud data acquisition unit 12 acquires point cloud data in which the three-dimensional shape of the target region 100 including the tunnel face F is measured. The point cloud data acquisition unit 12 acquires point cloud data from the three-dimensional shape measuring device 3 via, for example, the communication unit 44, the external device I/F unit 45, the media input/output unit 46, and the like. Note that the point cloud data may have been measured in the past and stored in the face management database 400 , in which case the point cloud data acquisition unit 12 may refer to the face management database 400 .

切羽評価部13は、画像データ取得部11により取得された画像データと、点群データ取得部12により取得された点群データとに基づいて、切羽Fを評価する。切羽評価部13で用いられる画像データは、色補正部110による色補正が行われた後の画像データである。 The face evaluation unit 13 evaluates the face F based on the image data acquired by the image data acquisition unit 11 and the point cloud data acquired by the point cloud data acquisition unit 12 . The image data used by the face evaluation unit 13 is image data after color correction has been performed by the color correction unit 110 .

切羽評価部13は、その構成として、切羽抽出部130、ラフネス数値化部131、領域区分部132、区分領域評価処理部133、及び、切羽領域評価処理部134を備える。各部の詳細は後述する。 The face evaluation unit 13 includes a face extraction unit 130 , a roughness quantification unit 131 , an area partitioning unit 132 , a partitioned area evaluation processing unit 133 , and a face area evaluation processing unit 134 . Details of each part will be described later.

区分領域評価処理部133は、その構成として、割れ目卓越方向判定部133A、岩石グループ判定部133B、割れ目間隔判定部133C、割れ目形態判定部133D、及び、評価区分推論部133Eを備える。なお、各部133A~133Eのうちいずれかが省略されてもよい。 The segmented area evaluation processing unit 133 includes a fracture dominant direction determination unit 133A, a rock group determination unit 133B, a fracture interval determination unit 133C, a fracture morphology determination unit 133D, and an evaluation division inference unit 133E. Note that any one of the units 133A to 133E may be omitted.

切羽領域評価処理部134は、その構成として、第1の連続性割れ目検出部134A、第2の連続性割れ目検出部134B、第3の連続性割れ目検出部134C、人工物検出部134D、第1の肌落ち危険箇所予測部134E、第2の肌落ち危険箇所予測部134F、及び、肌落ち危険箇所評価部134Gを備える。なお、各部134A~134Gのうちいずれかが省略されてもよい。 The face area evaluation processing unit 134 includes a first continuity break detection unit 134A, a second continuity break detection unit 134B, a third continuity break detection unit 134C, an artifact detection unit 134D, and a first continuity break detection unit 134D. 134E, a second skin-spotting risk point prediction unit 134F, and a skin-spotting risk point evaluation unit 134G. Note that any one of the units 134A to 134G may be omitted.

支援情報出力部14は、切羽評価部13による切羽Fの評価結果に基づいて、支援情報を出力する。支援情報は、アプリやウェブブラウザ等の任意のソフトウェアにて取り扱い可能な形式にて出力される。また、支援情報の出力先としては、例えば、切羽管理データベース400、作業者端末装置5、管理者端末装置6、外部機器(プリンタ、USBメモリ)等である。なお、支援情報出力部14は、画像データ取得部11及び点群データ取得部12により画像データ及び点群データが取得されたことに応じて支援情報を出力してもよいし、例えば、作業者端末装置5、管理者端末装置6等からの要求に応じて支援情報を出力するようにしてもよい。また、切羽管理データベース400に記憶された支援情報が、例えば、作業者端末装置5、管理者端末装置6等からの要求に応じて出力されるようにしてもよい。 The support information output unit 14 outputs support information based on the evaluation result of the face F by the face evaluation unit 13 . The support information is output in a format that can be handled by arbitrary software such as applications and web browsers. Further, output destinations of the support information include, for example, the face management database 400, the worker terminal device 5, the manager terminal device 6, external devices (printer, USB memory), and the like. The support information output unit 14 may output support information in response to the image data and the point cloud data being acquired by the image data acquisition unit 11 and the point cloud data acquisition unit 12. The support information may be output in response to a request from the terminal device 5, administrator terminal device 6, or the like. Also, the support information stored in the face management database 400 may be output in response to a request from the operator terminal device 5, the manager terminal device 6, or the like.

支援情報の内容としては、例えば、評価結果を所定の様式に則って記録した切羽観察シート情報15や、画像データを表示する表示画面上に評価結果を重畳して表示する切羽スケッチ情報16が挙げられる。 The content of the support information includes, for example, face observation sheet information 15 in which evaluation results are recorded in accordance with a predetermined format, and face sketch information 16 in which evaluation results are superimposed and displayed on a display screen that displays image data. be done.

以下、切羽評価支援装置4の各部(切羽評価支援方法の各工程)の詳細と、切羽評価支援装置4による切羽Fの評価結果について、図5乃至図21を参照してそれぞれ説明する。 Details of each part of the face evaluation support device 4 (each process of the face evaluation support method) and evaluation results of the face F by the face evaluation support device 4 will be described below with reference to FIGS. 5 to 21 .

(1)色補正部110による色補正処理
色補正部110は、画像データ取得部11が、画像データとして、切羽Fとともに、所定の白黒模様を有する色見本20とを含む対象領域100がカラーにより撮影されたカラー画像データを取得したとき、そのカラー画像データに対して色補正を行う。
(1) Color correction processing by the color correction unit 110 The color correction unit 110 detects the target area 100 including the face F and the color sample 20 having a predetermined black and white pattern as image data by color. When the photographed color image data is acquired, color correction is performed on the color image data.

図5は、色補正部110による色補正処理の一例を示すフロチャートである。 FIG. 5 is a flowchart showing an example of color correction processing by the color correction unit 110. As shown in FIG.

まず、ステップS101では、カラー画像データに含まれる色見本20の白と黒の画素を用いて、カラー画像全体の色調を補正する。 First, in step S101, the color tone of the entire color image is corrected using the white and black pixels of the color sample 20 included in the color image data.

次に、ステップS102では、カラー画像データをグレースケール画像に変換し、当該グレースケール画像を構成する全画素を明るさ順に並べたときの中間に位置する画素の明るさを、明るさ中間値として求める。 Next, in step S102, the color image data is converted into a grayscale image, and the brightness of the pixel located in the middle when all pixels constituting the grayscale image are arranged in order of brightness is taken as a brightness intermediate value. demand.

次に、ステップS103では、全画素を、明るさ中間値よりも高い明るさを有する画素からなる高明度画素群と、明るさ中間値以下の明るさを有する画像からなる低明度画素群とに分類する。 Next, in step S103, all pixels are divided into a high-brightness pixel group consisting of pixels having brightness higher than the brightness intermediate value and a low-brightness pixel group consisting of an image having brightness equal to or lower than the brightness intermediate value. Classify.

次に、ステップS104では、グレースケール画像に対して、例えば、最小110~最大253の閾値で二値化処理を行い、色見本20の外周の白枠を検出する。そして、グレースケール画像に対して、ノイズを除去するため、途切れた線分を結合する膨張処理を行い、輪郭検出処理を行う。その結果得られた輪郭のうち、サイズ、形状、面積比等に基づいて、色見本20の位置を検出する。 Next, in step S104, the grayscale image is subjected to binarization processing using, for example, a minimum threshold value of 110 to a maximum value of 253, and a white frame around the outer circumference of the color sample 20 is detected. Then, in order to remove noise from the grayscale image, expansion processing is performed to combine interrupted line segments, and contour detection processing is performed. The position of the color sample 20 is detected based on the size, shape, area ratio, etc. of the contour obtained as a result.

次に、ステップS105では、色見本20の白部分に相当する画素群に対して、RGBの3成分の平均値をそれぞれ求め、各平均値のうちの最大値を選択する。そして、当該最大値と各平均値との各差分値を、高明度画素群に対する補正値に決定する。例えば、白部分に相当する画素群のRGBの平均値が、「230,216,231」と求められた場合、最大値として「231」が選択され、高明度画素群に対する補正値は、「1,15,0」と決定される。 Next, in step S105, the average values of the three components of RGB are obtained for the pixel group corresponding to the white portion of the color sample 20, and the maximum value among the average values is selected. Then, each difference value between the maximum value and each average value is determined as a correction value for the high brightness pixel group. For example, when the average values of RGB of the pixel group corresponding to the white portion are obtained as "230, 216, 231", "231" is selected as the maximum value, and the correction value for the high brightness pixel group is "1 , 15,0”.

次に、ステップS106では、高明度画素群の各画素に、ステップS105で決定した高明度画素群に対する補正値を3成分別に加算することにより、高明度画素群を色補正する。例えば、高明度画素群に属する特定の1つの画素が、「123,234,135」である場合、上記の補正値による補正後の画素は、「124,249,135」となる。 Next, in step S106, the high-lightness pixel group is color-corrected by adding the correction values for the high-lightness pixel group determined in step S105 for each of the three components to each pixel of the high-lightness pixel group. For example, if one specific pixel belonging to the high-brightness pixel group is "123, 234, 135", the pixel after correction with the above correction values is "124, 249, 135".

次に、ステップS107では、色見本20の黒部分に相当する画素群に対して、3成分の平均値をそれぞれ求め、各平均値のうちの最小値を選択する。そして、当該最小値と各平均値との各差分値を、低明度画素群に対する補正値に決定する。例えば、黒部分に相当する画素群のRGBの平均値が、「24,4,6」と求められた場合、最小値として「4」が選択され、低明度画素群に対する補正値は、「20,0,2」と決定される。 Next, in step S107, the average values of the three components are obtained for the pixel group corresponding to the black portion of the color sample 20, and the minimum value among the average values is selected. Then, each difference value between the minimum value and each average value is determined as a correction value for the low-brightness pixel group. For example, if the RGB average values of the pixel group corresponding to the black portion are obtained as "24, 4, 6", "4" is selected as the minimum value, and the correction value for the low brightness pixel group is "20 , 0, 2”.

次に、ステップS108では、低明度画素群の各画素から、ステップS107で決定した低明度画素群に対する補正値を3成分別に減算することにより、低明度画素群を色補正する。例えば、低明度画素群に属する特定の1つの画素が、「43,30,35」である場合、上記の補正値による補正後の画素は、「23,30,33」となる。 Next, in step S108, the low-lightness pixel group is color-corrected by subtracting the correction value for the low-lightness pixel group determined in step S107 for each of the three components from each pixel of the low-lightness pixel group. For example, if one specific pixel belonging to the low-lightness pixel group is "43, 30, 35", the pixel after correction with the above correction values is "23, 30, 33".

以上のように、色補正部110が、図5に示す一連の色補正処理を行うことにより、画像データにおける色合いの偏りが補正されるので、照明の種類や照度、画像撮影装置2の仕様や設定等の様々な条件が異なる場合であっても、補正後の画像データに基づいて切羽Fを適切に評価することができる。 As described above, the color correction unit 110 performs a series of color correction processes shown in FIG. Even if various conditions such as settings are different, the face F can be appropriately evaluated based on the corrected image data.

(2)切羽抽出部130による切羽抽出処理
切羽抽出部130は、画像データ及び点群データの少なくとも一方に基づいて、対象領域100から切羽Fに対応する切羽領域101を抽出する。対象領域100から切羽領域101を抽出する方法としては、点群データを解析して抽出する第1の切羽抽出処理と、機械学習モデルを用いて画像データから抽出する第2の切羽抽出処理と、第1の切羽抽出処理と第1の切羽抽出処理の両方を併用する第3の切羽抽出処理とが挙げられる。
(2) Face Extraction Processing by Face Extractor 130 The face extractor 130 extracts the face region 101 corresponding to the face F from the target region 100 based on at least one of image data and point cloud data. As a method for extracting the face region 101 from the target region 100, there are a first face extraction process of analyzing and extracting point cloud data, a second face extraction process of extracting from image data using a machine learning model, A third face extraction process using both the first face extraction process and the first face extraction process may be mentioned.

図6は、点群データから切羽領域101を抽出する第1の切羽抽出処理の一例を示す説明図である。第1の切羽抽出処理では、点群データが、図6(a)に示すように、トンネル軸をz軸とする座標系(切羽面側に近づくほど座標値は減少)で計測された場合、切羽抽出部130は、各点のz軸の座標値に基づいて、切羽領域101を抽出する。例えば、トンネル工事の1回の発破で切羽面が進行する進行距離Lは、z軸に対して約1.5mであり、切羽面のz軸に対する凸凹は、進行距離L以下である。また、支保は、切羽面に対して進行距離Lよりも離れた位置に構築される。 FIG. 6 is an explanatory diagram showing an example of the first face extraction process for extracting the face region 101 from the point cloud data. In the first face extraction process, as shown in FIG. 6A, when the point cloud data is measured in a coordinate system with the tunnel axis as the z-axis (coordinate values decrease toward the face side), The face extraction unit 130 extracts the face region 101 based on the z-axis coordinate value of each point. For example, the traveling distance L that the face surface advances in one blasting for tunnel construction is about 1.5 m with respect to the z-axis, and the unevenness of the face surface with respect to the z-axis is less than the traveling distance L. In addition, the support is constructed at a position that is more than the travel distance L with respect to the face surface.

したがって、切羽抽出部130は、図6(b)に示すように、点群データ取得部12により取得された点群データのz軸の最小値(計測位置からの最遠点)から進行距離Lまでの範囲を切羽領域101として抽出する。また、切羽抽出部130は、図6(c)に示すように、点群データのz軸の最小値に進行距離Lを加算した座標値以上の範囲を、支保及び路盤部の領域として、画像データ取得部11により取得された画像データに対してマスク処理を行うことにより、切羽領域101を抽出する。 Therefore, as shown in FIG. 6B, the face extraction unit 130 extracts the travel distance L The range up to is extracted as the face region 101 . In addition, as shown in FIG. 6(c), the face extracting unit 130 captures a range equal to or greater than the coordinate value obtained by adding the travel distance L to the minimum value of the z-axis of the point cloud data as an area of the support and roadbed portion. A face region 101 is extracted by performing mask processing on the image data acquired by the data acquisition unit 11 .

なお、点群データを用いた他の切羽抽出処理として、切羽抽出部130は、点群データから構成される三角網の各法線ベクトルが、切羽領域101では、z軸に沿う成分が卓越するが、支保および路盤部では、z軸成分と直交する成分が卓越するという特性を利用して、切羽領域101を抽出するようにしてもよい。 As another face extraction process using the point cloud data, the face extraction unit 130 extracts each normal vector of the triangular mesh formed from the point cloud data so that the component along the z-axis is dominant in the face region 101. However, the face region 101 may be extracted by utilizing the characteristic that the component perpendicular to the z-axis component is dominant in the support and roadbed.

図7は、画像データから切羽領域101を抽出する第2の切羽抽出処理の一例を示す説明図である。第2の切羽抽出処理で用いられる機械学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)で構成され、切羽が撮影された学習用画像データと、当該切羽Fに対応する切羽領域101に対して付与された正解ラベルとを含む教師データにより機械学習が行われたものである。すなわち、図7に示すように、機械学習の学習フェーズにおいて、教師データの学習用画像データを機械学習モデルに入力することで出力された切羽領域101の抽出結果と、教師データの正解ラベルとを比較し、その比較結果に基づいて畳み込みニューラルネットワークの重み付けパラメータを調整することで、機械学習が行われる。なお、切羽抽出部130は、図7に示すように、切羽領域101だけでなく、支保に対応する支保領域や路盤部に対応する路盤領域についても抽出するようにしてもよい。 FIG. 7 is an explanatory diagram showing an example of the second face extraction process for extracting the face region 101 from the image data. The machine learning model used in the second face extraction process is composed of, for example, a convolutional neural network (CNN), and is applied to the learning image data in which the face is captured and the face region 101 corresponding to the face F. Machine learning was performed using teacher data including correct labels and That is, as shown in FIG. 7, in the learning phase of machine learning, the extraction result of the face region 101 output by inputting the learning image data of the teacher data into the machine learning model and the correct label of the teacher data are combined. Machine learning is performed by comparing and adjusting the weighting parameters of the convolutional neural network based on the results of the comparison. As shown in FIG. 7, the face extraction unit 130 may extract not only the face region 101 but also the support region corresponding to the support and the roadbed region corresponding to the roadbed portion.

切羽抽出部130は、機械学習の推論フェーズを実行する主体であり、画像データ取得部11により取得された画像データを、学習済みの機械学習モデルに入力することにより、対象領域100から切羽領域101を抽出する。 The face extraction unit 130 is a main body that executes the inference phase of machine learning, and inputs the image data acquired by the image data acquisition unit 11 to a trained machine learning model, thereby extracting the face region 101 from the target region 100. to extract

以上のようにして、切羽抽出部130による切羽抽出処理により、対象領域100から切羽領域101が抽出される。 As described above, the face region 101 is extracted from the target region 100 by the face extraction processing by the face extraction unit 130 .

(3)ラフネス数値化部131によるラフネス数値化処理
ラフネス数値化部131は、点群データに基づいて、切羽抽出部130により抽出された切羽領域101に対して複数の走査方向に設定された複数の走査線に沿って切羽領域101における切羽面のラフネス(凸凹)をラフネス特徴量として数値化する。ラフネス数値化部131は、ラフネス特徴量として、切羽領域101に対応する点群データを複数の走査線に沿って周期関数によりそれぞれ近似したときのラフネス近似モデルの振幅値及び波長を数値化する。
(3) Roughness quantifying process by roughness quantifying unit 131 The roughness quantifying unit 131 performs a plurality of scanning directions set in a plurality of scanning directions on the face region 101 extracted by the face extracting unit 130 based on the point cloud data. The roughness (unevenness) of the face surface in the face region 101 is quantified as a roughness feature amount along the scanning line of . The roughness quantification unit 131 quantifies amplitude values and wavelengths of a roughness approximation model when point cloud data corresponding to the face region 101 is approximated by a periodic function along a plurality of scanning lines as roughness feature quantities.

図8は、ラフネス数値化部131によるラフネス数値化処理の一例を示す説明図である。ラフネス特徴量は、点群データに基づいて、切羽面におけるz軸方向のラフネスを数値化したパラメータである。ラフネスは、複数の走査方向として、図8(a)に示すように、例えば、切羽面上の上下左右方向(x軸、y軸)と、斜め方向とにそれぞれ設定されて、所定の間隔d1、d2を空けた配置された複数の走査線iに沿って近似される。 FIG. 8 is an explanatory diagram showing an example of roughness quantification processing by the roughness quantification unit 131. As shown in FIG. The roughness feature amount is a parameter that quantifies the roughness of the face in the z-axis direction based on the point cloud data. As shown in FIG. 8A, the roughness is set in a plurality of scanning directions, for example, in the vertical and horizontal directions (x-axis, y-axis) on the face surface and in the oblique direction, respectively, at predetermined intervals d1. , d2 along a plurality of scan lines i.

走査線iに沿って近似されるラフネスは、図8(b)に示すように、走査線iから一定距離a内に位置する点群データにおけるz軸の座標値から設定される。走査線i上の基準線(面)からの高低差h(図8(c)参照)は、点群データに含まれる点群pの座標値と、走査線iから点群pまでの距離r(図8(b)参照)とを利用して、以下の[数1]式で求められる。ここで、pj,zは、点群pのz軸の座標値、zは、基準線(面)の値である。 The roughness approximated along the scanning line i is set from the z-axis coordinate values in the point cloud data positioned within a certain distance a from the scanning line i, as shown in FIG. 8(b). The height difference h i (see FIG. 8C) from the reference line (surface) on the scanning line i is the coordinate value of the point group pj included in the point cloud data and the coordinate value from the scanning line i to the point group pj (see FIG. 8(b)) and the distance r (see FIG. 8(b)). Here, pj ,z are the z-axis coordinate values of the point group pj , and z0 is the value of the reference line (plane).

Figure 2023034740000002
Figure 2023034740000002

切羽面のラフネスは、走査線i毎に、高低差の大きさと、高低の周期性に着目して、ラフネス近似モデルに近似される。ラフネス近似モデルは、周期関数を用いることにより、走査線iの位置tにおける基準面からの高低差H(t)が、以下の[数2]式でモデル化(近似)される。 The roughness of the face surface is approximated by a roughness approximation model by paying attention to the magnitude of the height difference and the periodicity of the height for each scanning line i. In the roughness approximation model, the height difference H(t) i from the reference plane at the position t of the scanning line i is modeled (approximated) by the following equation (2) using a periodic function.

Figure 2023034740000003
Figure 2023034740000003

ここで、波数kは、高低差の繰り返しの距離である波長λの逆数に相当する値である。係数A、Bは、特徴量であり、波数kに対して、例えば、最小二乗法、スパースモデリングを利用することで求められる。上記のラフネス近似モデルは、j個の周期関数の重ね合わせ和により、高低差の平均値による特徴付けを包含したモデリングとなっている。一方、波数kは、切羽Fの観察項目である割れ目間隔(頻度)を利用して設定されるようにしてもよい。 Here, the wavenumber kj is a value corresponding to the reciprocal of the wavelength λj , which is the repeat distance of the height difference. The coefficients A j and B j are feature amounts, and are obtained by using, for example, the least squares method and sparse modeling for the wave number k j . The above-mentioned roughness approximation model is a modeling that includes characterization by an average value of height difference by superposing j periodic functions. On the other hand, the wave number kj may be set using the crack interval (frequency), which is an observation item of the face F.

ラフネス数値化部131は、各走査線iに対するラフネス特徴量として、例えば、ラフネス近似モデルにおける振幅値及び波長を数値化する。ラフネス近似モデルの振幅値Cは、係数A、Bから、以下の[数3]式で求められる。また、ラフネス近似モデルの波長λは、振幅値Cが最大値となる波数k(=1/λ)により定められる。 The roughness quantifying unit 131 quantifies, for example, the amplitude value and wavelength in the roughness approximation model as the roughness feature amount for each scanning line i. The amplitude value C j of the roughness approximation model is obtained from the coefficients A j and B j by the following [Equation 3]. Also, the wavelength λ j of the roughness approximation model is determined by the wavenumber k j (=1/λ j ) at which the amplitude value C j reaches its maximum value.

Figure 2023034740000004
Figure 2023034740000004

以上のようにして、ラフネス数値化部131によるラフネス数値化処理により、切羽領域101における切羽面のラフネスがラフネス特徴量として数値化される。 As described above, the roughness quantification processing by the roughness quantification unit 131 quantifies the roughness of the face surface in the face region 101 as the roughness feature amount.

(4)領域区分部132による領域区分処理
領域区分部132は、複数の走査線が交差する各交点に対して、ラフネス数値化部131により数値化されたラフネス特徴量の代表値を求め、交点毎の代表値の分布に基づいて、切羽抽出部130により抽出された切羽領域101を区分領域102に区分する。
(4) Region segmentation processing by region segmentation unit 132 The region segmentation unit 132 obtains a representative value of the roughness feature amount digitized by the roughness quantification unit 131 for each intersection point where a plurality of scanning lines intersect, and The face region 101 extracted by the face extraction unit 130 is divided into division regions 102 based on the distribution of the representative values for each.

図9は、領域区分部132による領域区分処理の一例を示す説明図である。領域区分部132は、切羽領域101を区分領域102に区分する際、複数の走査線が交差する各交点Pにおけるラフネス特徴量の代表値を求める。例えば、図9(a)に示すように、上下方向及び斜め方向の4つの走査線が交差する交点Pi,j,k,lにおけるラフネス特徴量として、振幅値C及び波長λが数値化されている場合、ラフネス特徴の代表値は、4つの走査線におけるラフネス特徴量、すなわち、振幅値C及び波長λの平均(単純平均や加重平均)やベクトル和等により求められる。 FIG. 9 is an explanatory diagram showing an example of area partitioning processing by the area partitioning unit 132. As shown in FIG. When dividing the face region 101 into the divided regions 102, the region division unit 132 obtains a representative value of the roughness feature amount at each intersection point P where a plurality of scanning lines intersect. For example, as shown in FIG. 9(a), the amplitude value C and the wavelength λ are quantified as roughness feature quantities at intersection points Pi , j, k, and l where four vertical and oblique scanning lines intersect. In this case, the representative value of the roughness feature is obtained from the average (simple average or weighted average), vector sum, or the like of the roughness feature amounts of the four scanning lines, that is, the amplitude value C and the wavelength λ.

次に、領域区分部132は、図9(b)に示すように、交点P毎の代表値(振幅値C及び波長λ)と、振幅値Cの基準値C、及び、波長λの基準値λとを比較することにより、各交点Pが4つの特徴区分Ra、Rb、Rc、Rdのいずれに分類されるかを判定する。なお、振幅値Cに対して複数の基準値を設定したり、波長λに対して複数の基準値を設定したりすることで、特徴区分は、上記以外の特徴区分に分類されるようにしてもよい。 Next, as shown in FIG. 9B, the area partitioning unit 132 sets a representative value (amplitude value C and wavelength λ) for each intersection point P, a reference value C 0 of the amplitude value C, and a reference value C 0 of the wavelength λ. By comparing the value λ 0 , it is determined which of the four feature sections Ra, Rb, Rc, and Rd each intersection point P falls into. By setting a plurality of reference values for the amplitude value C and setting a plurality of reference values for the wavelength λ, the feature section is classified into feature sections other than the above. good too.

そして、領域区分部132は、各交点Pが分類された特徴区分Ra、Rb、Rc、Rdの分布に基づいて、切羽領域101を区分領域102に区分する。図9(c)には、例えば、特徴区分Raに分類された交点Pの集合である区分領域102(左上側部分)と、特徴区分Rdに分類された交点Pの集合である区分領域102(右下側部分)という2つの区分領域102に区分された場合が図示されている。 Then, the area division unit 132 divides the face area 101 into division areas 102 based on the distribution of the characteristic divisions Ra, Rb, Rc, and Rd into which the intersection points P are classified. FIG. 9(c) shows, for example, a segmented region 102 (upper left part) that is a set of intersections P classified into the feature segment Ra and a segmented region 102 (a set of intersections P that are classified into the feature segment Rd). A case is shown in which the area is divided into two divided areas 102 called the lower right portion).

以上のようにして、領域区分部132による領域区分処理により、切羽領域101が、ラフネス特徴量の分布に基づいて、区分領域102に区分される。 As described above, the face region 101 is segmented into the segmented regions 102 based on the distribution of the roughness feature amount by the region segmentation processing by the region segmentation unit 132 .

(5)区分領域評価処理部133による区分領域評価処理
区分領域評価処理部133は、領域区分部132により切羽領域101が区分された区分領域102毎に、切羽Fに関する観察項目を評価結果として評価する。区分領域評価処理部133は、区分領域102に対応する画像データ及び点群データに基づいて、各種の観察項目を区分領域102毎に評価するため、図4に示すように、割れ目卓越方向判定部133A、岩石グループ判定部133B、割れ目間隔判定部133C、割れ目形態判定部133D、及び、評価区分推論部133Eを備える。以下に各部(各工程)133A~133Eの詳細を説明する。
(5) Divisional area evaluation processing by the divisional area evaluation processing unit 133 The divisional area evaluation processing unit 133 evaluates observation items related to the face F as an evaluation result for each divisional area 102 obtained by dividing the face area 101 by the divisional area division unit 132. do. The segmented region evaluation processing unit 133 evaluates various observation items for each segmented region 102 based on the image data and point cloud data corresponding to the segmented region 102. As shown in FIG. 133A, a rock group determination unit 133B, a fracture interval determination unit 133C, a fracture morphology determination unit 133D, and an evaluation classification inference unit 133E. Details of each section (each process) 133A to 133E will be described below.

(5-1)割れ目卓越方向判定部133A
図10は、割れ目卓越方向判定部133Aによる割れ目卓越方向の判定処理の一例を示す説明図である。割れ目卓越方向判定部133Aは、切羽領域101に対応する点群データから構成される三角網の各法線ベクトルを区分領域102毎にステレオネットに極投影し、ステレオネット上に極投影されたプロットの分布に基づいて、切羽面において卓越する割れ目の走向傾斜を示す割れ目卓越方向を区分領域102毎に判定する。
(5-1) Crack predominant direction determination unit 133A
FIG. 10 is an explanatory diagram showing an example of processing for determining the predominant direction of cracks by the predominant direction of crack determination unit 133A. The crack predominant direction determination unit 133A polar-projects each normal vector of the triangular network composed of the point cloud data corresponding to the face region 101 onto the stereo net for each segmented region 102, and plots the polar-projected directions on the stereo net. Based on the distribution of , the predominant direction of cracks, which indicates the strike inclination of cracks predominant in the face, is determined for each segmented region 102 .

切羽面では、既往の割れ目に沿って岩塊が分離、掘削されることが多いため、切羽面の凸凹は、割れ目に沿って表れる可能性が高い。そこで、各区分領域102における割れ目卓越方向を判定するため、割れ目卓越方向判定部133Aは、図10(a)に示すように、区分領域102に対応する点群データから構成された三角網を用いて、図10(b)、(c)に示すように、三角網に含まれる各三角形の法線ベクトルを、ステレオネット(等面積投影ネット)に極投影する。ステレオネットへの極投影では、各法線ベクトルの矢印基端側をステレオネットの中心に合わせて、トンネル軸(z軸)と一致する方向にそれぞれ投影する。 On the face, rock masses are often separated and excavated along the existing cracks, so there is a high possibility that the unevenness of the face will appear along the cracks. Therefore, in order to determine the predominant direction of cracks in each segmented region 102, the predominant direction of cracks determination unit 133A uses a triangular mesh composed of point cloud data corresponding to the segmented region 102, as shown in FIG. 10(a). Then, as shown in FIGS. 10(b) and 10(c), the normal vector of each triangle included in the triangular network is polar projected onto a stereo net (equal area projection net). In the polar projection onto the stereo net, each normal vector is projected in a direction coinciding with the tunnel axis (z-axis), with the base end of the arrow aligned with the center of the stereo net.

そして、割れ目卓越方向判定部133Aは、図10(c)に示すように、ステレオネット上に極投影された各法線ベクトルの矢印先端側に相当するプロットの分布に基づいて、密度コンター図を作成し、その密度コンター図において、所定の基準値より密度が高い範囲を割れ目卓越方向として判定する。その際、割れ目卓越方向判定部133Aは、割れ目卓越方向を区画領域毎に判定するが、1つの区画領域に対して複数の割れ目卓越方向が含まれると判定される場合もあり得る。 Then, as shown in FIG. 10(c), the crack predominant direction determination unit 133A creates a density contour diagram based on the plot distribution corresponding to the tip of the arrow of each normal vector polar-projected on the stereo net. Then, in the density contour map, the range where the density is higher than a predetermined reference value is determined as the predominant direction of cracks. In this case, the crack predominant direction determination unit 133A determines the crack predominant direction for each divided area, but it may be determined that one divided area includes a plurality of dominant crack directions.

なお、点群データが、切羽面上で不規則に分布している場合には、ステレオネットに極投影されたプロットの数と、切羽面上での三角形の面積が対応しないことが想定される。その場合には、割れ目卓越方向判定部133Aは、三角網を構成する三角形の面積で重み付けを行い、ステレオネット上にプロットすることで、切羽面での面積を反映させた状態で割れ目卓越方向を判定するようにしてもよい。 If the point cloud data is irregularly distributed on the face, it is assumed that the number of plots polar-projected on the stereonet does not correspond to the area of the triangle on the face. . In that case, the crack predominant direction determining unit 133A weights the areas of the triangles that make up the triangular network and plots them on the stereo net to determine the predominant direction of the cracks while reflecting the area on the face surface. You may make it judge.

(5-2)岩石グループ判定部133B
図11は、岩石グループ判定部133Bによる岩石グループの判定処理の一例を示す説明図である。岩石グループ判定部133Bは、ラフネス数値化部131により数値化されたラフネス近似モデルの振幅値及び波長に基づいて、切羽面を構成する岩石の種別を示す岩石グループを区分領域102毎に判定する。
(5-2) Rock group determination unit 133B
FIG. 11 is an explanatory diagram showing an example of rock group determination processing by the rock group determination unit 133B. The rock group determination unit 133B determines a rock group indicating the type of rock forming the face surface for each divided region 102 based on the amplitude value and wavelength of the roughness approximation model quantified by the roughness quantification unit 131.

岩石グループとしては、例えば、風化区分が、塊状及び層状のいずれか、強度区分が、硬質、中硬質及び軟質のいずれかを組み合わせることで、複数の岩石の種別に分類される。例えば、硬質岩・塊状(例えば、花崗岩等)の岩石グループGaでは、割れ目の凸凹を示す振幅値が大きく、割れ目の間隔を示す波長は中程度から長くなる傾向がある。軟質岩・層状(例えば、第三紀頁岩、千枚岩等)の岩石グループGeでは、細かく層理や片理が入るため、層理や片理に沿った凸凹が表れることで振幅値は小さくなり、波長も小さくなる。軟質岩・塊状(例えば、固結度の低い凝灰角礫岩等)の岩石グループGcでは、掘削による切羽面が滑らかに仕上がることから、凸凹が殆どなく、振幅値は小さく、波長は長くなる。岩石グループ判定部133Bは、上記のような各岩石グループの傾向や特徴に着目することで、例えば、各交点Pにおける振幅値及び波長に基づいて、各区分領域102の岩石グループを判定する。なお、岩石グループ判定部133Bは、ラフネス特徴量だけでなく、他の観察項目(例えば、風化変質、圧縮強度等)に対する評価区分についても参照することにより、各区分領域102の岩石グループを判定するようにしてもよい。 The rock group is classified into a plurality of rock types by combining, for example, the weathering category of either massive or layered, and the strength category of hard, medium-hard, or soft. For example, in the rock group Ga of hard rock/mass (for example, granite), the amplitude value indicating the unevenness of cracks tends to be large, and the wavelength indicating the interval between cracks tends to be medium to long. Soft rocks and bedding (e.g., Tertiary shale, phyllite, etc.) rock group Ge are finely bedding and schistosity, so the amplitude value is small due to unevenness along the bedding and schistosity. and the wavelength becomes smaller. In the rock group Gc, which is soft rock/massive rock (for example, tuff breccia with low degree of consolidation), since the face surface by excavation is smooth, there is almost no unevenness, the amplitude value is small, and the wavelength is long. . The rock group determination unit 133B determines the rock group of each segmented region 102 based on the amplitude value and wavelength at each intersection point P, for example, by focusing on the tendency and characteristics of each rock group as described above. Note that the rock group determining unit 133B determines the rock group of each segmented region 102 by referring not only to the roughness feature amount but also to the evaluation segments for other observation items (for example, weathering alteration, compressive strength, etc.). You may do so.

(5-3)割れ目間隔判定部133C
図12は、割れ目間隔判定部133Cによる割れ目間隔の判定処理の一例を示す説明図である。割れ目間隔判定部133Cは、区分領域102に対応する画像データに対してエッジを検出するエッジ検出処理を行い、エッジ検出処理により検出されたエッジのエッジ密度に基づいて、エッジ密度と割れ目間隔との関係が定められた対応関係情報を参照することにより、割れ目間隔を区分領域102毎に判定する。
(5-3) Crack interval determination unit 133C
FIG. 12 is an explanatory diagram showing an example of crack interval determination processing by the crack interval determination unit 133C. The crack interval determination unit 133C performs edge detection processing for detecting edges on the image data corresponding to the segmented region 102, and determines the relationship between the edge density and the crack interval based on the edge density of the edges detected by the edge detection processing. The crack interval is determined for each segmented region 102 by referring to the correspondence information in which the relationship is defined.

割れ目間隔判定部133Cは、例えば、Canny法等の任意のエッジ検出処理により画像データからエッジを検出し、エッジ密度を算出する。そして、割れ目間隔判定部133Cは、エッジ密度と割れ目間隔との関係が、例えば、岩石の種別毎に定められた対応関係情報を参照し、岩石グループ判定部133Bにより判定された岩石グループの対応関係情報において、上記のようにして算出されたエッジ密度に対応付けられた割れ目間隔を特定することにより、割れ目間隔を判定する。 The crack interval determination unit 133C detects edges from the image data by arbitrary edge detection processing such as the Canny method, and calculates the edge density. Then, the crack interval determination unit 133C refers to the correspondence information for the relationship between the edge density and the crack interval determined for each rock type, for example, and the rock group correspondence relationship determined by the rock group determination unit 133B. In the information, the crack spacing is determined by specifying the crack spacing associated with the edge density calculated as described above.

なお、対応関係情報は、岩石の種類別に複数定められたものとして説明したが、これに限られず、例えば、他の観察項目別に複数定められていてもよいし、1つの対応関係情報が定められたものでもよい。 It should be noted that although a plurality of pieces of correspondence information have been defined for each type of rock, the present invention is not limited to this. Anything is fine.

(5-4)割れ目形態判定部133D
図13は、割れ目形態判定部133Dによる割れ目形態の判定処理の一例を示す説明図である。割れ目形態判定部133Dは、ラフネス数値化部131がラフネス特徴量をラフネス近似モデルに近似したときの走査線の走査方向に応じた波長の特性に基づいて、割れ目形態を区分領域102毎に判定する。
(5-4) Crack morphology determination unit 133D
FIG. 13 is an explanatory diagram showing an example of the crack shape determination processing by the crack shape determination unit 133D. The crack morphology determining unit 133D determines the crack morphology for each divided region 102 based on the wavelength characteristics according to the scanning direction of the scanning line when the roughness quantification unit 131 approximates the roughness feature quantity to the roughness approximation model. .

ラフネス数値化部131により走査線に沿って数値化されたラフネス特徴量は、割れ目形態の推定に利用可能である。上下左右及び斜め方向に設定された走査線において、高低差の繰り返しの距離である波長λが、走査線の方向によらず概ね一定である場合(所定の基準値の範囲内)には、割れ目形態判定部133Dは、その区画領域の割れ目形態は「ランダム方形」又は「土砂状」であると判定する。一方、走査線の方向により波長λが大きく異なる場合(所定の基準値の範囲外)には、割れ目形態判定部133Dは、その区画領域の割れ目形態は「柱状」又は「層状」であると判定する。 The roughness feature quantity quantified along the scanning line by the roughness quantification unit 131 can be used for estimating the crack morphology. In the scanning lines set in the vertical, horizontal and oblique directions, if the wavelength λ, which is the repeated distance of the height difference, is approximately constant regardless of the scanning line direction (within a predetermined reference value range), a crack The morphology determination unit 133D determines that the crack morphology of the partitioned area is "random square" or "earth and sand". On the other hand, when the wavelength λ differs greatly depending on the direction of the scanning line (outside the range of the predetermined reference value), the crack morphology determination unit 133D determines that the crack morphology of the partitioned region is “columnar” or “layered”. do.

(5-5)評価区分推論部133E
図14は、評価区分推論部133Eによる観察項目に関する評価区分の推論処理の一例を示す説明図である。評価区分推論部133Eは、区分領域102に対応する画像データを、機械学習モデルに入力することにより、評価区分を区分領域102毎に推論する。評価区分推論部133Eにより用いられる機械学習モデルは、切羽が撮影された学習用画像データと、当該切羽Fに対して観察項目に関する評価区分が付与された正解ラベルとを含む教師データにより機械学習が行われたものである。
(5-5) Evaluation division reasoning unit 133E
FIG. 14 is an explanatory diagram showing an example of the evaluation classification inference process for the observation item by the evaluation classification inference unit 133E. The evaluation segment inference unit 133E infers an evaluation segment for each segmented region 102 by inputting the image data corresponding to the segmented region 102 to the machine learning model. The machine learning model used by the evaluation classification reasoning unit 133E is machine learning based on teacher data including learning image data in which a face is photographed and a correct label to which an evaluation classification related to an observation item is assigned to the face F. It has been done.

推論対象の観察項目としては、例えば、圧縮強度、風化変質、割れ目間隔、割れ目形態、割れ目状態、岩石グループ等が挙げられる。評価区分推論部133Eは、これらのうち少なくとも1つの観察項目に対して評価区分を推定するようにすればよい。なお、割れ目間隔、割れ目形態、割れ目状態、及び、岩石グループの各観察項目は、上記の割れ目間隔判定部133C、割れ目形態判定部133D、及び、岩石グループ判定部133Bにより判定可能であるが、評価区分推論部133Eは、これらに代えて各観察項目を推論してもよいし、これらと併用して各観察項目を推論してもよい。 Observation items to be inferred include, for example, compressive strength, weathering alteration, fracture interval, fracture morphology, fracture state, rock group, and the like. The evaluation classification inference unit 133E may estimate the evaluation classification for at least one of these observation items. The fracture interval, fracture morphology, fracture state, and rock group observation items can be determined by the above-described fracture interval determination unit 133C, fracture morphology determination unit 133D, and rock group determination unit 133B. The classification inference unit 133E may infer each observation item instead of these, or may infer each observation item in combination with these.

機械学習モデルは、例えば、畳み込みニューラルネットワークで構成され、図14に示すように、観察項目毎に作成されるのが好ましい。例えば、圧縮強度に関する機械学習モデルは、切羽が撮影された学習用画像データと、当該切羽Fに対して圧縮強度に関する評価区分が付与された正解ラベルとを含む教師データにより機械学習が行われたものである。評価区分推論部133Eは、区画領域に対応する画像データを、学習済みの機械学習モデルに入力することにより、その区画領域に対して圧縮強度に関する評価区分を推論する。その際、画像データは、所定のサイズを有する小領域の画像に分割された状態で機械学習モデルにそれぞれ入力されてもよく、その場合には、評価区分推論部133Eは、区画領域に含まれる小領域単位で圧縮強度に関する評価区分を推論するようにしてもよい。その他の観察項目に関する機械学習モデルは、上記と同様に構成されるため、説明を省略する。 The machine learning model is composed of, for example, a convolutional neural network, and is preferably created for each observation item as shown in FIG. For example, a machine learning model for compressive strength is machine-learned using teacher data including learning image data in which a face is photographed and a correct label to which an evaluation category for compressive strength is assigned to the face F. It is. The evaluation classification inference unit 133E infers an evaluation classification related to compression strength for the partitioned area by inputting the image data corresponding to the partitioned area into the trained machine learning model. At that time, the image data may be input to the machine learning model after being divided into images of small regions having a predetermined size. It is also possible to infer an evaluation category related to compressive strength for each small area. Machine learning models for other observation items are configured in the same manner as described above, so descriptions thereof are omitted.

(6)切羽領域評価処理部134による切羽領域評価処理
切羽領域評価処理部134は、切羽抽出部130により抽出された切羽領域101に対して、切羽Fに関する観察項目を評価結果として評価する。切羽領域評価処理部134は、各種の観察項目を評価するため、図4に示すように、第1の連続性割れ目検出部134A、第2の連続性割れ目検出部134B、第3の連続性割れ目検出部134C、人工物検出部134D、第1の肌落ち危険箇所予測部134E、及び、第2の肌落ち危険箇所予測部134F、及び、肌落ち危険箇所評価部134Gを備える。以下に各部(各工程)134A~133Gの詳細を説明する。
(6) Face Region Evaluation Processing by Face Region Evaluation Processing Unit 134 The face region evaluation processing unit 134 evaluates observation items related to the face F for the face region 101 extracted by the face extraction unit 130 as evaluation results. In order to evaluate various observation items, the face area evaluation processing unit 134, as shown in FIG. A detection unit 134C, an artificial object detection unit 134D, a first skin-spotting risky point prediction unit 134E, a second skin-spotting risky point prediction unit 134F, and a skin-spotting risk point evaluation unit 134G are provided. Details of each part (each process) 134A to 133G will be described below.

(6―1)第1の連続性割れ目検出部134A
図15は、第1の連続性割れ目検出部134Aによる連続性割れ目の判定処理の一例を示す説明図である。第1の連続性割れ目検出部は、点群データに基づいて、切羽面上に連続して形成された連続性割れ目を検出する。具体的には、第1の連続性割れ目検出部は、切羽領域101に対応する点群データから構成される三角網の各辺から、共通の辺を含む2つの三角形の法線ベクトルがなす角度に基づいて連続性割れ目の一部をなすエッジの候補を抽出し、候補同士の連続性を判定することにより、切羽領域101に存在する連続性割れ目を検出する。
(6-1) First continuity break detector 134A
FIG. 15 is an explanatory diagram showing an example of continuity break determination processing by the first continuity break detector 134A. The first continuity crack detection unit detects continuity cracks continuously formed on the face surface based on the point cloud data. Specifically, the first continuity break detection unit detects the angle formed by the normal vector of two triangles including the common side from each side of the triangular network composed of the point cloud data corresponding to the face region 101. The continuity break existing in the face region 101 is detected by extracting edge candidates forming a part of the continuity break based on and judging the continuity between the candidates.

点群データでは、三角網により切羽面の凸凹形状が表現されるが、個々の三角形の各辺は、切羽面の凸凹のエッジを表すものと、便宜上の区切り線を表すものとが混在している。そのため、切羽面の凸凹のエッジを表す三角形の辺を抽出し、その抽出した各辺の連続性を考慮することで、連続性割れ目を識別する。 In the point cloud data, the uneven shape of the face surface is represented by a triangular network, but each side of each triangle represents the uneven edge of the face surface and the dividing line for convenience. there is Therefore, by extracting the sides of the triangle representing the uneven edges of the face and considering the continuity of each of the extracted sides, the continuity cracks are identified.

隣接する2つの三角形A、Bに共通する辺abが、凸凹のエッジを表す否かの判定(エッジ判定処理)は、図15に示すように、三角形A、Bの法線ベクトルnA、nBがなす角度に基づいて行われる。例えば、2つの法線ベクトルnA、nBがなす角度θが、0°又は180°に対して所定の閾値範囲内にある場合には、三角形A、Bは、同一平面上にあるとみなされるため、辺abは、凸凹のエッジではないと判定し、そうでない場合には、辺abは、凸凹のエッジであると判定する。その際、法線ベクトルnA、nBのなす角度θを求めて判定してもよいし、法線ベクトルnA、nBの内積で判定してもよい。 Determination (edge determination processing) of whether or not the side ab common to two adjacent triangles A and B represents an uneven edge is performed, as shown in FIG. It is done based on the angle to make. For example, if the angle θ formed by the two normal vectors nA and nB is within a predetermined threshold range with respect to 0° or 180°, the triangles A and B are considered to be on the same plane. , the side ab is determined not to be a bumpy edge; otherwise, the side ab is determined to be a bumpy edge. At that time, the angle θ formed by the normal vectors nA and nB may be obtained for determination, or the inner product of the normal vectors nA and nB may be used for determination.

第1の連続性割れ目検出部は、隣接する2つの三角形が共有する全ての辺に対して上記のエッジ判定処理を行い、連続性割れ目の一部をなすエッジの候補を抽出する。そして、エッジの候補同士の連続性は、抽出したエッジの各候補について、エッジの候補同士に連続性があるか否かの判定(連続性判定処理)を行い、連続するエッジ同士を折れ線として連結することで、グループ分けを行う。連続性判定処理では、判定対象の2つのエッジを線分ベクトルとし、両者の線分ベクトルのなす角度が所定の閾値以下の場合には、連続すると判定し、そうでない場合には、分断すると判定する。第1の連続性割れ目検出部は、グループ分けされた折れ線のうち、所定の閾値よりも短い折れ線を削除し、さらに、直進性の高いものを選択することで、連続性割れ目を検出する。 The first continuity break detection unit performs the above-described edge determination processing on all sides shared by two adjacent triangles, and extracts edge candidates forming a part of the continuity break. The continuity between the edge candidates is determined by determining whether or not there is continuity between the extracted edge candidates (continuity determination processing), and connecting the continuous edges as a polygonal line. By doing so, grouping is performed. In the continuity determination process, the two edges to be determined are defined as line segment vectors, and if the angle between the two line segment vectors is equal to or less than a predetermined threshold value, it is determined that they are continuous, and if not, it is determined that they are separated. do. The first continuity break detection unit detects a continuity break by deleting a polygonal line shorter than a predetermined threshold among the grouped polygonal lines and selecting a line with high straightness.

(6―2)第2の連続性割れ目検出部134B
図16は、第2の連続性割れ目検出部134Bによる連続性割れ目の判定処理の一例を示す説明図である。第2の連続性割れ目検出部は、画像データに基づいて、切羽面上に連続して形成された連続性割れ目を検出する。具体的には、第2の連続性割れ目検出部は、切羽領域101に対応する画像データを、機械学習モデルに入力することにより、切羽領域101に存在する連続性割れ目を検出する。第2の連続性割れ目検出部により用いられる機械学習モデルは、例えば、畳み込みニューラルネットワークで構成され、切羽が撮影された学習用画像データと、当該切羽Fに形成された連続性割れ目に対して付与された正解ラベルとを含む教師データにより機械学習が行われたものである。
(6-2) Second continuity break detector 134B
FIG. 16 is an explanatory diagram showing an example of continuity break determination processing by the second continuity break detector 134B. The second continuity crack detection unit detects continuity cracks continuously formed on the face surface based on the image data. Specifically, the second continuity break detection unit detects a continuity break present in the face region 101 by inputting image data corresponding to the face region 101 into a machine learning model. The machine learning model used by the second continuity crack detection unit is, for example, configured by a convolutional neural network, and is given to learning image data in which the face is photographed and the continuity crack formed in the face F. Machine learning was performed using teacher data including correct labels and

(6―3)第3の連続性割れ目検出部134C
図17は、第3の連続性割れ目検出部134Cによる連続性割れ目の判定処理の一例を示す説明図である。第3の連続性割れ目検出部は、画像データ及び点群データに基づいて、切羽面上に連続して形成された連続性割れ目を検出する。具体的には、第3の連続性割れ目検出部は、切羽領域101に対応する画像データに対してエッジを検出するエッジ検出処理を行い、エッジ検出処理により検出されたエッジを、点群データに対して割れ目卓越方向判定部133Aにより判定された区分領域102毎の割れ目卓越方向にフィッティングすることにより、切羽領域101に存在する連続性割れ目を検出する。
(6-3) Third continuity break detector 134C
FIG. 17 is an explanatory diagram showing an example of continuity break determination processing by the third continuity break detector 134C. The third continuity crack detection unit detects continuity cracks continuously formed on the face surface based on the image data and the point cloud data. Specifically, the third continuity break detection unit performs edge detection processing for detecting edges on the image data corresponding to the face region 101, and converts the edges detected by the edge detection processing into point cloud data. On the other hand, a continuous crack present in the face region 101 is detected by fitting the predominant direction of the crack for each divided region 102 determined by the predominant direction of crack determination unit 133A.

第3の連続性割れ目検出部は、例えば、Canny法等の任意のエッジ検出処理により画像データからエッジを検出する。そして、第3の連続性割れ目検出部は、その検出されたエッジを、例えば、最小二乗法、スパースモデリングにより、区分領域102毎の割れ目卓越方向にフィッティングするフィッティング処理を行うことにより、連続性割れ目を検出する。 The third continuity break detection unit detects edges from the image data by arbitrary edge detection processing such as the Canny method. Then, the third continuity break detection unit performs a fitting process of fitting the detected edge to the break dominant direction of each segmented region 102 by, for example, the least squares method or sparse modeling. to detect

(6-4)人工物検出部134D
図18は、人工物検出部134Dによる人工物の検出処理の一例を示す説明図である。人工物検出部134Dは、対象領域100に対応する画像データに基づいて、対象領域100に存在する人工物を検出する。具体的には、人工物検出部134Dは、対象領域100に対応する画像データを、切羽領域101に対応する画像データと、切羽領域101以外(例えば、支保領域や路盤部領域)に対応する画像データとに分けて、それらの画像データを、機械学習モデルにそれぞれ入力することにより、切羽領域101に存在する人工物と、切羽領域101以外に存在する人工物とをそれぞれ検出する。人工物検出部134Dにより用いられる機械学習モデルは、切羽が撮影された学習用画像データと、当該切羽又はその周囲に設置された人工物に対して付与された正解ラベルとを含む教師データにより機械学習が行われたものである。
(6-4) Artefact detection unit 134D
FIG. 18 is an explanatory diagram showing an example of an artifact detection process by the artifact detection unit 134D. The artifact detection unit 134</b>D detects an artifact present in the target area 100 based on the image data corresponding to the target area 100 . Specifically, the artifact detection unit 134D divides the image data corresponding to the target region 100 into image data corresponding to the face region 101 and images corresponding to regions other than the face region 101 (for example, support regions and roadbed regions). By inputting the image data into the machine learning model respectively, an artifact present in the face region 101 and an artifact present outside the face region 101 are detected. The machine learning model used by the artifact detection unit 134D is a machine learning model based on teacher data including learning image data in which the face is photographed and correct labels given to the face and the artifacts installed around it. Learning is done.

検出対象の人工物としては、例えば、鋼製支保、ロックボルト、鏡ボルト、先受工、黒板、人、人や機械類の影等が挙げられる。人工物検出部134Dは、これらのうち少なくとも1つの人工物を検出するようにすればよい。切羽領域101における検出対象の人工物は、例えば、鏡ボルト、先受工、黒板、人、人や機械類の影等であり、切羽領域101以外の支保領域や路盤部領域における検出対象の人工物は、例えば、ロックボルト、鋼製支保、黒板、人、人や機械類の影等であるが、これらの例に限られない。図18には、人工物検出部134Dが、切羽領域101に対して複数の先受工を検出するとともに、支保領域に対して複数のロックボルトを検出した場合が例示されている。 Artifacts to be detected include, for example, steel supports, rock bolts, mirror bolts, pre-construction works, blackboards, people, shadows of people and machinery, and the like. The artifact detection unit 134D may detect at least one of these artifacts. The artifacts to be detected in the face region 101 are, for example, mirror bolts, pre-construction work, blackboards, people, shadows of humans and machinery, etc. Examples of objects include rock bolts, steel supports, blackboards, people, shadows of people and machinery, etc., but are not limited to these examples. FIG. 18 illustrates a case where the artificial object detection unit 134D detects a plurality of pre-construction works in the face region 101 and a plurality of rock bolts in the support region.

機械学習モデルは、例えば、畳み込みニューラルネットワークで構成され、切羽領域101に対応する画像データから人工物を検出するための機械学習モデルと、切羽領域101以外に対応する画像データから人工物を検出するための機械学習モデルとは、共通の機械学習モデルとして作成されてもよいし、別々の機械学習モデルとして作成されてもよい。また、機械学習モデルは、検出対象の人工物の種類毎に作成されてもよい。さらに、画像データは、所定のサイズを有する小領域の画像に分割された状態で機械学習モデルにそれぞれ入力されてもよく、その場合には、人工物検出部134Dは、対象領域100に含まれる小領域単位で人工物を検出するようにしてもよい。 The machine learning model is composed of, for example, a convolutional neural network, and includes a machine learning model for detecting artifacts from image data corresponding to the face region 101 and an artifact for detecting artifacts from image data corresponding to regions other than the face region 101. The machine learning model for may be created as a common machine learning model or may be created as separate machine learning models. Also, a machine learning model may be created for each type of artifact to be detected. Furthermore, the image data may be input to the machine learning model in a state of being divided into images of small regions having a predetermined size, and in that case, the artifact detection unit 134D is included in the target region 100. Artificial objects may be detected in units of small regions.

(6-5)第1の肌落ち危険箇所予測部134E
図19は、肌落ち危険個所の予測処理の一例を示す説明図である。第1の肌落ち危険箇所予測部134Eは、点群データに基づいて、切羽Fにおいて肌落ちの危険性が存在する箇所を示す肌落ち危険個所を予測する。具体的には、第1の肌落ち危険箇所予測部134Eは、図19に示すように、割れ目卓越方向判定部133Aにより判定された区分領域102毎の割れ目卓越方向をステレオネットに大円投影し、少なくとも三方向に延びる割れ目卓越方向により閉多角形が形成された場合、当該閉多角形に対応する切羽の範囲を、肌落ち危険個所として予測する。
(6-5) First skin-spotting risk location prediction unit 134E
FIG. 19 is an explanatory diagram showing an example of prediction processing of a risky skin-spotting area. Based on the point cloud data, the first skin removal risk location prediction unit 134E predicts a skin removal risk location indicating a location at which there is a risk of skin removal in the face F. Specifically, as shown in FIG. 19, the first skin-spotting risk location prediction unit 134E projects the predominant direction of cracks for each of the divided regions 102 determined by the predominant direction of cracks determination unit 133A onto the stereo net as a great circle. When a closed polygon is formed by the dominant directions of cracks extending in at least three directions, the range of the face corresponding to the closed polygon is predicted as a risk of falling skin.

第1の肌落ち危険箇所予測部134Eでは、点群データに対して割れ目卓越方向判定部133Aにより判定された区分領域102毎の割れ目卓越方向を幾何学的に利用して、肌落ち危険箇所を予測する。例えば、割れ目卓越方向を、ステレオネットに大円として投影し、ステレオネット上に球面三角形が形成される場合、その球面三角形に対応する領域が、切羽面から抜け出し可能なブロックと予測される。 The first skin-spotting risk location predicting unit 134E geometrically utilizes the dominant crack direction for each segmented region 102 determined by the crack dominant direction determination unit 133A for the point cloud data, to estimate the skin-spotting risk location. Predict. For example, when the split dominant direction is projected as a great circle onto the stereonet and a spherical triangle is formed on the stereonet, the area corresponding to the spherical triangle is predicted to be a block that can escape from the face.

(6-6)第2の肌落ち危険箇所予測部134F
第2の肌落ち危険箇所予測部134Fは、画像データに基づいて、切羽Fにおいて肌落ちの危険性が存在する箇所を示す肌落ち危険個所を予測する。具体的には、第2の肌落ち危険箇所予測部134Fは、図19に示すように、切羽領域101に対応する画像データを、切羽が撮影された学習用画像データと、当該切羽Fにおいて肌落ちの危険性が存在する肌落ち危険個所に対して付与された正解ラベルとを含む教師データにより機械学習が行われた機械学習モデルに入力することにより、切羽領域101に存在する肌落ち危険個所を予測する。
(6-6) Second skin removal risk location prediction unit 134F
The second skin-spotting hazard point prediction unit 134F predicts a skin-spotting hazard point indicating a point where there is a risk of skin-spotting on the face F based on the image data. Specifically, as shown in FIG. By inputting to a machine learning model in which machine learning is performed using teacher data including the correct labels given to the risky skin-slipping locations where there is a risk of skin-sagging, the skin-slipping-risk locations existing in the face region 101 are input to the machine learning model. to predict.

機械学習モデルは、例えば、畳み込みニューラルネットワークで構成される。画像データは、所定のサイズを有する小領域の画像に分割された状態で機械学習モデルにそれぞれ入力されてもよく、その場合には、第2の肌落ち危険箇所予測部134Fは、切羽領域101に含まれる小領域単位で肌落ちの危険性が存在するか否かを推論するようにしてもよい。 A machine learning model is composed of, for example, a convolutional neural network. The image data may be input to the machine learning model in a state of being divided into images of small regions having a predetermined size. It may be inferred whether or not there is a risk of skin fading for each small area included in .

(6-7)肌落ち危険箇所評価部134G
肌落ち危険箇所評価部134Gは、図19に示すように、第1の肌落ち危険箇所予測部134Eによる予測結果と、前記第2の肌落ち危険箇所予測部134Fによる予測結果とに基づいて、肌落ち危険箇所を予測する、具体的には、肌落ち危険箇所評価部134Gは、第1の肌落ち危険箇所予測部134Eにより予測された肌落ち危険箇所と、第2の肌落ち危険箇所予測部134Fにより予測された肌落ち危険箇所とを比較し、その比較結果として一致度が高い肌落ち危険箇所に対して危険性が高いと判定する。
(6-7) Skin-spotting danger location evaluation unit 134G
As shown in FIG. 19, the skin-spotting risk point evaluation unit 134G, based on the prediction result of the first skin-spotting risk point prediction unit 134E and the prediction result of the second skin-spotting risk point prediction unit 134F, More specifically, the risky skin-spotting evaluation unit 134G predicts the risky skin-spotting location prediction unit 134E and the second risky-skins-spotting prediction. The section 134F compares the areas at risk of skin removal predicted by the section 134F, and as a result of the comparison, it is determined that the risk of skin removal is high for the areas at risk of skin removal with a high degree of matching.

なお、肌落ち危険箇所評価部134Gは、他の観察項目を考慮して肌落ち危険箇所を予測するようにしてもよい。例えば、肌落ち危険箇所評価部134Gは、人工物検出部134Dにより検出された人工物として、例えば、鏡ボルトが設置されていることが検出された場合には、肌落ちの危険性が高いと判定するようにしてもよい。また、第1の肌落ち危険箇所予測部134E及び第2の肌落ち危険箇所予測部134Fのいずれか一方が省略された場合には、肌落ち危険箇所評価部134Gは、他方の肌落ち危険箇所評価部により予測された肌落ち危険箇所をそのまま出力するようにしてもよいし、肌落ち危険箇所評価部134G自体が、省略されてもよい。 Note that the skin removal risk location evaluation unit 134G may predict the skin removal risk location in consideration of other observation items. For example, if the artificial object detected by the artificial object detection unit 134D, for example, a mirror bolt is detected, the skin removal risk location evaluation unit 134G determines that there is a high risk of skin removal. You may make it judge. Further, when either one of the first hazardous skin-spotting prediction unit 134E and the second skin-staining risky-site prediction unit 134F is omitted, the skin-staining risky-site evaluation unit 134G The skin removal risk location predicted by the evaluation unit may be output as is, or the skin removal risk location evaluation unit 134G itself may be omitted.

(7)支援情報出力部14による支援情報出力処理
支援情報出力部14は、上記のように、切羽評価部13による各観察項目に対する切羽Fの評価結果に基づいて、支援情報として、切羽観察シート情報15、切羽スケッチ情報16等を生成し、データ記憶出力、画面表示出力、印刷出力等の出力形態により出力する。
(7) Support Information Output Processing by Support Information Output Unit 14 As described above, the support information output unit 14 outputs a face observation sheet as support information based on the evaluation results of the face F for each observation item by the face evaluation unit 13. Information 15, face sketch information 16, and the like are generated and output in an output form such as data storage output, screen display output, or print output.

図20は、切羽観察シート情報15の印刷出力例である切羽観察シート150を示す図である。切羽観察シート150は、各観察項目に対する切羽Fの評価結果を所定の様式に則って記録したものである。図20の例では、切羽観察シート150は、切羽Fに関する情報が記録された切羽情報欄151と、切羽Fの評価結果が記録された評価区分欄152とを備える。 FIG. 20 is a diagram showing a face observation sheet 150 that is an example of a printed output of the face observation sheet information 15. As shown in FIG. The face observation sheet 150 records the evaluation results of the face F for each observation item in accordance with a predetermined format. In the example of FIG. 20, the face observation sheet 150 includes a face information column 151 in which information about the face F is recorded, and an evaluation classification column 152 in which the evaluation result of the face F is recorded.

切羽情報欄151には、例えば、現場名称、現場位置、観察日時等が記録される。評価区分欄152には、例えば、圧縮強度、風化変質、割れ目間隔、割れ目状態、走向傾斜(割れ目卓越方向)等に対する評価区分が記録される。 The face information column 151 records, for example, the name of the site, the position of the site, the date and time of observation, and the like. In the evaluation category column 152, for example, evaluation categories for compressive strength, weathering deterioration, crack spacing, crack state, strike dip (fracture dominant direction), and the like are recorded.

図20に示す評価区分欄152では、切羽Fを、天端、左肩及び右肩という3つの領域に分割したときの各領域に対する評価区分がそれぞれ記録されたものである。これは、切羽評価部13(特に区分領域評価処理部133)により各観察項目に対して区分領域102毎に評価された評価結果を、各区分領域102と、天端、左肩及び右肩という3つの領域とが重なり合う面積比に基づいて、区分領域102毎の評価結果を重み付け加算することで、天端、左肩及び右肩に対する評価結果に換算したものである。 In the evaluation classification column 152 shown in FIG. 20, the evaluation classification for each area when the face F is divided into three areas of the crest, the left shoulder and the right shoulder is recorded. The face evaluation unit 13 (particularly, the segmented region evaluation processing unit 133) evaluates each segmented region 102 with respect to each observation item and evaluates each segmented region 102, the crown, the left shoulder, and the right shoulder. By weighting and adding the evaluation results for each of the segmented regions 102 based on the area ratio of overlapping of the two regions, the evaluation results for the top, left shoulder, and right shoulder are converted.

なお、支援情報出力部14は、天端、左肩及び右肩という3つの領域毎の評価結果を記録した切羽観察シート情報15に代えて又は加えて、区分領域102毎の評価結果を記録した切羽観察シート情報15を出力するようにしてもよい。また、切羽観察シート情報15の様式として、切羽観察シート情報15に含まれる観察項目、評価結果のレイアウト、評価結果の出力形式(点数形式、表形式、グラフ形式、画像重畳形式等)等は、図20の例に限られず、適宜変更されてもよく、例えば、管理者や作業者により変更可能であってもよい。 Incidentally, the support information output unit 14 replaces or in addition to the face observation sheet information 15 that records the evaluation results for each of the three regions of the crown, left shoulder, and right shoulder, the face that records the evaluation results for each divided region 102 The observation sheet information 15 may be output. In addition, as the format of the face observation sheet information 15, the observation items included in the face observation sheet information 15, the layout of the evaluation results, the output format of the evaluation results (score format, table format, graph format, image superimposition format, etc.), etc. It is not limited to the example of FIG. 20, and may be changed as appropriate. For example, it may be changeable by an administrator or an operator.

図21は、切羽スケッチ情報16の画面表示例である切羽スケッチ画面160を示す図である。切羽スケッチ画面160は、画像データを表示する表示画面上に、各観察項目に対する切羽Fの評価結果を重畳して表示するものである。図21の例では、切羽スケッチ画面160は、切羽Fに関する情報を表示する切羽情報欄161と、切羽Fの画像データを表示する画像表示領域162と、切羽領域101、区分領域102及び各種の観察項目のうち画像表示領域162内に表示する対象を選択する表示項目選択欄163と、表示項目選択欄163の選択項目に従って画像表示領域162内に切羽Fの評価結果を表示する表示マーカ164とを備える。 FIG. 21 is a diagram showing a face sketch screen 160, which is an example of a screen display of the face sketch information 16. As shown in FIG. The face sketch screen 160 displays evaluation results of the face F for each observation item superimposed on a display screen that displays image data. In the example of FIG. 21, the face sketch screen 160 includes a face information column 161 that displays information about the face F, an image display area 162 that displays image data of the face F, a face area 101, a section area 102, and various observation areas. A display item selection field 163 for selecting an object to be displayed in the image display area 162 from among the items, and a display marker 164 for displaying the evaluation result of the face F in the image display area 162 according to the selection item of the display item selection field 163. Prepare.

切羽情報欄161には、例えば、現場名称、現場位置、観察日時等が表示される。画像表示領域162には、画像データ取得部11により取得された画像データが表示される。画像表示領域162は、画像の拡大・縮小が変更可能に構成されるとともに、作業者や管理者による画面上でのスケッチ操作を受付可能に構成される。なお、画像表示領域162には、色補正部110により色補正が行われる前の画像が表示されてもよいし、色補正が行われた後の画像が表示されてもよい。 The face information column 161 displays, for example, the name of the site, the position of the site, the date and time of observation, and the like. Image data obtained by the image data obtaining unit 11 is displayed in the image display area 162 . The image display area 162 is configured to be able to change the enlargement/reduction of the image, and is configured to be capable of accepting a sketch operation on the screen by the operator or administrator. Note that the image display area 162 may display an image before color correction is performed by the color correction unit 110, or may display an image after color correction is performed.

表示項目選択欄163は、観察項目の選択肢として、例えば、走向傾斜(割れ目卓越方向)、岩石グループ、圧縮強度、風化変質、割れ目間隔、割れ目形態、割れ目状態、連続性割れ目、人工物、肌落ち危険箇所等を有する。 The display item selection column 163 includes observation item options such as strike/dip (fracture dominant direction), rock group, compressive strength, weathering alteration, fracture interval, fracture morphology, fracture state, continuity fracture, artificial object, and skin removal. It has dangerous parts.

表示マーカ164は、切羽領域101及び区分領域102の外周を枠線で描画したり、各観察項目の評価結果をそれぞれ表示したりする。その際、表示マーカ164は、各観察項目の評価結果を、画像上にて対応する位置に重畳するように表示されてもよいし、引き出し線等で対応関係が分かるようにして表示されてもよい。また、表示マーカ164の表示形態(色、模様等)等は、図21の例に限られず、適宜変更されてもよく、例えば、管理者や作業者により変更可能であってもよい。 The display marker 164 draws a frame around the peripheries of the face region 101 and the segmented region 102, and displays the evaluation result of each observation item. At that time, the display marker 164 may be displayed so that the evaluation result of each observation item is superimposed on the corresponding position on the image, or may be displayed so that the correspondence can be understood by a lead line or the like. good. Moreover, the display form (color, pattern, etc.) of the display marker 164 is not limited to the example of FIG. 21, and may be changed as appropriate.

以上のように、本実施形態に係る切羽評価支援装置4によれば、切羽抽出部130が、画像データ及び点群データの少なくとも一方に基づいて、切羽Fに対応する切羽領域101を抽出し、ラフネス数値化部131が、点群データに基づいて、切羽領域101における切羽面のラフネスをラフネス特徴量として数値化し、領域区分部132が、ラフネス特徴量の分布に基づいて、切羽領域101を区分領域102に区分し、区分領域評価処理部133が、切羽Fに関する観察項目を区分領域102毎に評価する。そのため、切羽Fに対応する切羽領域101が区分領域102に区分され、切羽Fに関する観察項目が区分領域102毎に評価される。したがって、切羽Fの評価に際して評価品質を向上させることができる。 As described above, according to the face evaluation support device 4 according to the present embodiment, the face extraction unit 130 extracts the face region 101 corresponding to the face F based on at least one of the image data and the point cloud data, A roughness quantifying unit 131 quantifies the roughness of the face surface in the face region 101 as a roughness feature amount based on the point cloud data, and an area dividing unit 132 divides the face area 101 based on the distribution of the roughness feature amount. It is divided into regions 102, and the divided region evaluation processing unit 133 evaluates the observation items regarding the face F for each divided region 102. FIG. Therefore, the face region 101 corresponding to the face F is divided into segmented regions 102, and the observation items regarding the face F are evaluated for each segmented region 102. FIG. Therefore, when evaluating the face F, the evaluation quality can be improved.

また、区分領域評価処理部133が、上記のように、各部133A~133Eを備えることにより、各観察項目について区分領域102毎に評価することができる。さらに、切羽領域評価処理部134が、上記のように、各部134A~134Gを備えることにより、各観察項目について切羽領域101全体を評価することができる。 In addition, the sectioned area evaluation processing unit 133 can evaluate each sectioned area 102 for each observation item by including the sections 133A to 133E as described above. Furthermore, the face area evaluation processing unit 134 can evaluate the entire face area 101 for each observation item by including the respective units 134A to 134G as described above.

(他の実施形態)
本発明は上述した実施形態に制約されるものではなく、本発明の主旨を逸脱しない範囲内で種々変更して実施することが可能である。そして、それらはすべて、本発明の技術思想に含まれるものである。
(Other embodiments)
The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention. All of them are included in the technical idea of the present invention.

上記実施形態では、切羽評価支援プログラム10は、記憶部40に記憶されたものとして説明した。これに対し、切羽評価支援プログラム10は、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、DVD等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、切羽評価支援プログラム10は、外部の装置からネットワーク7経由でダウンロードさせることにより提供されてもよい。また、切羽評価部13で用いられる各種の機械学習モデルは、記憶部40に記憶されていてもよいし、外部の装置に記憶されて、ネットワーク7経由でアクセスしてもよい。 In the above embodiment, the face evaluation support program 10 has been described as being stored in the storage unit 40 . On the other hand, the face evaluation support program 10 may be provided by being recorded in a computer-readable storage medium such as a CD-ROM or a DVD as a file in an installable format or an executable format. Further, the face evaluation support program 10 may be provided by being downloaded via the network 7 from an external device. Various machine learning models used by the face evaluation unit 13 may be stored in the storage unit 40 or may be stored in an external device and accessed via the network 7 .

上記実施形態では、機械学習モデルを用いた機械学習の具体的な手法として、畳み込みニューラルネットワークを採用した場合について説明したが、機械学習モデルは、任意の他の機械学習の手法(教師あり学習だけでなく、教師なし学習や強化学習も含む)を採用してもよい。他の機械学習の手法としては、例えば、決定木、回帰木等のツリー型、バギング、ブースティング等のアンサンブル学習、再帰型ニューラルネットワーク等の他のニューラルネット型(ディープラーニングを含む)、階層型クラスタリング、非階層型クラスタリング、k近傍法、k平均法等のクラスタリング型、主成分分析、因子分析、ロジスティク回帰等の多変量解析、サポートベクターマシン等が挙げられる。 In the above embodiment, a case where a convolutional neural network is adopted as a specific method of machine learning using a machine learning model was explained, but the machine learning model can be any other machine learning method (supervised learning only). (including unsupervised learning and reinforcement learning) may be adopted. Other machine learning methods include, for example, tree types such as decision trees and regression trees, ensemble learning such as bagging and boosting, other neural network types such as recurrent neural networks (including deep learning), and hierarchical types. Clustering, non-hierarchical clustering, k-nearest neighbor method, clustering type such as k-means method, principal component analysis, factor analysis, multivariate analysis such as logistic regression, support vector machine, and the like.

1…切羽評価支援システム、2…画像撮影装置、3…三次元形状計測装置、
4…切羽評価支援装置、5…作業者端末装置、6…管理者端末装置、7…ネットワーク、
10…切羽評価支援プログラム、
11…画像データ取得部、12…点群データ取得部、13…切羽評価部、
14…支援情報出力部、15…切羽観察シート情報、16…切羽スケッチ情報、
20…色見本、
40…記憶部、41…制御部、42…入力部、43…表示部、44…通信部、
45…外部機器I/F部、46…メディア入出力部、
100…対象領域、101…切羽領域、102…区分領域、110…色補正部、
130…切羽抽出部、131…ラフネス数値化部、132…領域区分部、
133…区分領域評価処理部、133A…割れ目卓越方向判定部、
133B…岩石グループ判定部、133C…割れ目間隔判定部、
133D…割れ目形態判定部、133E…評価区分推論部、
134…切羽領域評価処理部、134A…第1の連続性割れ目検出部、
134B…第2の連続性割れ目検出部、134C…第3の連続性割れ目検出部、
134D…人工物検出部、134E…第1の肌落ち危険箇所予測部、
134F…第2の肌落ち危険箇所予測部、134G…肌落ち危険箇所評価部、
150…切羽観察シート、151…切羽情報欄、152…評価区分欄、
160…切羽スケッチ画面、161…切羽情報欄、162…画像表示領域、
163…表示項目選択欄、164…表示マーカ、400…切羽管理データベース
1... face evaluation support system, 2... image capturing device, 3... three-dimensional shape measuring device,
4... Face evaluation support device, 5... Worker terminal device, 6... Administrator terminal device, 7... Network,
10 ... face evaluation support program,
11... Image data acquisition unit, 12... Point cloud data acquisition unit, 13... Face evaluation unit,
14... support information output unit, 15... face observation sheet information, 16... face sketch information,
20 ... color sample,
40... Storage unit, 41... Control unit, 42... Input unit, 43... Display unit, 44... Communication unit,
45... External device I/F section, 46... Media input/output section,
100... Target area, 101... Face area, 102... Division area, 110... Color correction unit,
130... Face extraction unit, 131... Roughness quantification unit, 132... Region division unit,
133... Segmented area evaluation processing unit, 133A... Split dominant direction determination unit,
133B... rock group determination unit, 133C... fracture interval determination unit,
133D ... fracture morphology determination unit, 133E ... evaluation classification inference unit,
134 ... face area evaluation processing unit, 134A ... first continuity crack detection unit,
134B... second continuity break detector, 134C... third continuity break detector,
134D...artificial object detection unit, 134E...first skin removal risk location prediction unit,
134F...Second skin-spotting risk point prediction unit, 134G...Skin-spotting risk point evaluation unit,
150... face observation sheet, 151... face information column, 152... evaluation category column,
160... face sketch screen, 161... face information column, 162... image display area,
163... Display item selection column, 164... Display marker, 400... Face management database

Claims (14)

トンネルの切羽を含む対象領域が撮影された画像データを取得する画像データ取得部と、
前記対象領域の三次元形状が計測された点群データを取得する点群データ取得部と、
前記画像データ及び前記点群データに基づいて、前記切羽を評価する切羽評価部と、
前記切羽評価部による評価結果に基づいて、支援情報を出力する支援情報出力部とを備え、
前記切羽評価部は、
前記画像データ及び前記点群データの少なくとも一方に基づいて、前記対象領域から前記切羽に対応する切羽領域を抽出する切羽抽出部と、
前記点群データに基づいて、前記切羽領域に対して複数の走査方向に設定された複数の走査線に沿って前記切羽領域における切羽面のラフネスをラフネス特徴量として数値化するラフネス数値化部と、
複数の前記走査線が交差する各交点に対して前記ラフネス特徴量の代表値を求め、前記交点毎の前記代表値の分布に基づいて、前記切羽領域を区分領域に区分する領域区分部と、
前記領域区分部により前記切羽領域が区分された区分領域毎に、前記切羽に関する観察項目を前記評価結果として評価する区分領域評価処理部とを備える、
切羽評価支援装置。
an image data acquisition unit that acquires image data in which a target region including a face of a tunnel is photographed;
a point cloud data acquisition unit that acquires point cloud data in which the three-dimensional shape of the target region is measured;
a face evaluation unit that evaluates the face based on the image data and the point cloud data;
a support information output unit that outputs support information based on the evaluation result of the face evaluation unit;
The face evaluation unit is
a face extraction unit that extracts a face region corresponding to the face from the target region based on at least one of the image data and the point cloud data;
a roughness quantifying unit that quantifies the roughness of the face surface in the face region as a roughness feature amount along a plurality of scanning lines set in a plurality of scanning directions with respect to the face region, based on the point cloud data; ,
an area division unit that obtains a representative value of the roughness feature amount for each intersection point where the plurality of scanning lines intersect, and divides the face area into division areas based on the distribution of the representative value for each intersection point;
a segmented region evaluation processing unit that evaluates an observation item related to the face as the evaluation result for each segmented region in which the face region is segmented by the region segmentation unit;
Face evaluation support device.
前記区分領域評価処理部は、
前記切羽領域に対応する前記点群データから構成される三角網の各法線ベクトルを前記区分領域毎にステレオネットに極投影し、
前記ステレオネット上に極投影されたプロットの分布に基づいて、前記切羽面において卓越する割れ目の走向傾斜を示す割れ目卓越方向を前記区分領域毎に判定する割れ目卓越方向判定部を備える、
請求項1に記載の切羽評価支援装置。
The segmented area evaluation processing unit
each normal vector of a triangular network formed from the point cloud data corresponding to the face region is polar projected onto a stereo net for each of the segmented regions;
Based on the distribution of plots polar-projected on the stereo net, a crack predominant direction determining unit for determining, for each of the divided regions, a predominant crack direction indicating the strike and inclination of the crack that is predominant in the face surface,
The face evaluation support device according to claim 1.
前記ラフネス数値化部は、
前記ラフネス特徴量として、前記切羽領域に対応する前記点群データを複数の前記走査線に沿って周期関数によりそれぞれ近似したときのラフネス近似モデルの振幅値及び波長を数値化し、
前記区分領域評価処理部は、
前記振幅値及び前記波長に基づいて、前記切羽面を構成する岩石の種別を示す岩石グループを前記区分領域毎に判定する岩石グループ判定部を備える、
請求項1又は請求項2に記載の切羽評価支援装置。
The roughness quantification unit
quantifying the amplitude value and wavelength of the roughness approximation model when the point cloud data corresponding to the face region is approximated by a periodic function along the plurality of scanning lines as the roughness feature amount,
The segmented area evaluation processing unit
a rock group determination unit that determines a rock group indicating a type of rock forming the face surface for each of the divided areas based on the amplitude value and the wavelength;
The face evaluation support device according to claim 1 or 2.
前記区分領域評価処理部は、
前記区分領域に対応する前記画像データに対してエッジを検出するエッジ検出処理を行い、
前記エッジ検出処理により検出された前記エッジのエッジ密度に基づいて、前記エッジ密度と割れ目間隔との関係が定められた対応関係情報を参照することにより、前記割れ目間隔を前記区分領域毎に判定する割れ目間隔判定部を備える、
請求項1乃至請求項3のいずれか一項に記載の切羽評価支援装置。
The segmented area evaluation processing unit
performing edge detection processing for detecting edges on the image data corresponding to the segmented area;
Based on the edge density of the edges detected by the edge detection processing, the crack interval is determined for each of the divided regions by referring to correspondence information that defines the relationship between the edge density and the crack interval. A crack interval determination unit is provided,
The face evaluation support device according to any one of claims 1 to 3.
前記ラフネス数値化部は、
前記ラフネス特徴量として、前記切羽領域に対応する前記点群データを複数の前記走査線に沿って周期関数によりそれぞれ近似したときのラフネス近似モデルの波長を数値化し、
前記区分領域評価処理部は、
前記ラフネス近似モデルに近似したときの前記走査線の前記走査方向に応じた前記波長の特性に基づいて、割れ目形態を前記区分領域毎に判定する割れ目形態判定部を備える、
請求項1乃至請求項4のいずれか一項に記載の切羽評価支援装置。
The roughness quantification unit
quantifying the wavelength of the roughness approximation model when the point cloud data corresponding to the face region is approximated by a periodic function along the plurality of scanning lines as the roughness feature amount,
The segmented area evaluation processing unit
a crack morphology determination unit that determines a crack morphology for each of the divided regions based on the wavelength characteristics corresponding to the scanning direction of the scanning line when approximated to the roughness approximation model;
The face evaluation support device according to any one of claims 1 to 4.
前記区分領域評価処理部は、
前記区分領域に対応する前記画像データを、前記切羽が撮影された学習用画像データと、当該切羽に対して前記観察項目に関する評価区分が付与された正解ラベルとを含む教師データにより機械学習が行われた機械学習モデルに入力することにより、前記評価区分を前記区分領域毎に推論する評価区分推論部を備える、
請求項1乃至請求項5のいずれか一項に記載の切羽評価支援装置。
The segmented area evaluation processing unit
Machine learning is performed on the image data corresponding to the segmented region using teacher data including learning image data in which the face is photographed and a correct label to which the face is assigned an evaluation category related to the observation item. an evaluation classification inference unit that infers the evaluation classification for each classification area by inputting to the machine learning model obtained by
The face evaluation support device according to any one of claims 1 to 5.
前記切羽評価部は、
前記点群データに基づいて、前記切羽面上に連続して形成された連続性割れ目を検出する第1の連続性割れ目検出部を備え、
前記第1の連続性割れ目検出部は、
前記切羽領域に対応する前記点群データから構成される三角網の各辺から、共通の前記辺を含む2つの三角形の法線ベクトルがなす角度に基づいて前記連続性割れ目の一部をなすエッジの候補を抽出し、前記候補同士の連続性を判定することにより、前記切羽領域に存在する前記連続性割れ目を検出する、
請求項1乃至請求項6のいずれか一項に記載の切羽評価支援装置。
The face evaluation unit is
A first continuity crack detection unit that detects continuity cracks continuously formed on the face surface based on the point cloud data,
The first continuity break detection unit includes:
An edge forming a part of the continuity crack based on an angle formed by normal vectors of two triangles including the common side from each side of the triangular network composed of the point cloud data corresponding to the face region. Detecting the continuity break present in the face region by extracting candidates for and determining the continuity between the candidates,
The face evaluation support device according to any one of claims 1 to 6.
前記切羽評価部は、
前記画像データに基づいて、前記切羽面上に連続して形成された連続性割れ目を検出する第2の連続性割れ目検出部を備え、
前記第2の連続性割れ目検出部は、
前記切羽領域に対応する前記画像データを、前記切羽が撮影された学習用画像データと、当該切羽に形成された前記連続性割れ目に対して付与された正解ラベルとを含む教師データにより機械学習が行われた機械学習モデルに入力することにより、前記切羽領域に存在する前記連続性割れ目を検出する、
請求項1乃至請求項7のいずれか一項に記載の切羽評価支援装置。
The face evaluation unit is
a second continuity crack detection unit that detects a continuity crack continuously formed on the face surface based on the image data;
The second continuity break detection unit
Machine learning is performed on the image data corresponding to the face region using teacher data including learning image data in which the face is photographed and correct labels assigned to the continuity cracks formed in the face. detecting the continuity fracture present in the face region by inputting into a machine learning model performed;
The face evaluation support device according to any one of claims 1 to 7.
前記区分領域評価処理部は、
前記切羽領域に対応する前記点群データから構成される三角網の各法線ベクトルを前記区分領域毎にステレオネットに極投影し、
前記ステレオネット上に極投影されたプロットの分布に基づいて、前記切羽面において卓越する割れ目の走向傾斜を示す割れ目卓越方向を前記区分領域毎に判定する割れ目卓越方向判定部を備え、
前記切羽評価部は、
前記画像データ及び前記点群データに基づいて、前記切羽面上に連続して形成された連続性割れ目を検出する第3の連続性割れ目検出部を備え、
前記第3の連続性割れ目検出部は、
前記切羽領域に対応する前記画像データに対してエッジを検出するエッジ検出処理を行い、
前記エッジ検出処理により検出された前記エッジを、前記割れ目卓越方向判定部により判定された前記区分領域毎の前記割れ目卓越方向にフィッティングすることにより、前記切羽領域に存在する前記連続性割れ目を検出する、
請求項1乃至請求項8のいずれか一項に記載の切羽評価支援装置。
The segmented area evaluation processing unit
each normal vector of a triangular network formed from the point cloud data corresponding to the face region is polar projected onto a stereo net for each of the segmented regions;
Based on the distribution of plots polar-projected on the stereo net, a crack predominant direction determining unit for determining, for each of the divided regions, a predominant crack direction indicating the strike inclination of the crack that is predominant in the face surface,
The face evaluation unit is
A third continuity crack detection unit that detects a continuity crack continuously formed on the face surface based on the image data and the point cloud data,
The third continuity break detection unit
performing edge detection processing for detecting edges on the image data corresponding to the face region;
The continuity crack existing in the face region is detected by fitting the edge detected by the edge detection process to the crack dominant direction for each of the divided regions determined by the crack dominant direction determining unit. ,
The face evaluation support device according to any one of claims 1 to 8.
前記切羽評価部は、
前記画像データに基づいて、前記対象領域に存在する人工物を検出する人工物検出部を備え、
前記人工物検出部は、
前記画像データを、前記切羽領域に対応する前記画像データと、前記切羽領域以外に対応する前記画像データとに分けて、前記切羽が撮影された学習用画像データと、当該切羽又はその周囲に設置された人工物に対して付与された正解ラベルとを含む教師データにより機械学習が行われた機械学習モデルにそれぞれ入力することにより、前記切羽領域に存在する前記人工物と、前記切羽領域以外に存在する前記人工物とをそれぞれ検出する、
請求項1乃至請求項9のいずれか一項に記載の切羽評価支援装置。
The face evaluation unit is
An artifact detection unit that detects an artifact present in the target area based on the image data,
The artifact detection unit is
The image data is divided into the image data corresponding to the face area and the image data corresponding to areas other than the face area. By respectively inputting to a machine learning model in which machine learning is performed with teacher data including the correct label given to the artificial object, the artificial object existing in the face region and the objects other than the face region detecting each of said artifacts present;
The face evaluation support device according to any one of claims 1 to 9.
前記区分領域評価処理部は、
前記切羽領域に対応する前記点群データから構成される三角網の各法線ベクトルを前記区分領域毎にステレオネットに極投影し、
前記ステレオネット上に極投影されたプロットの分布に基づいて、前記切羽面において卓越する割れ目の走向傾斜を示す割れ目卓越方向を前記区分領域毎に判定する割れ目卓越方向判定部を備え、
前記切羽評価部は、
前記点群データに基づいて、前記肌落ち危険個所を予測する第1の肌落ち危険箇所予測部を備え、
前記第1の肌落ち危険箇所予測部は、
前記割れ目卓越方向判定部により判定された前記区分領域毎の前記割れ目卓越方向をステレオネットに大円投影し、
少なくとも三方向に延びる前記割れ目卓越方向により閉多角形が形成された場合、当該閉多角形に対応する前記切羽の範囲を、前記肌落ち危険個所として予測する、
請求項1乃至請求項10のいずれか一項に記載の切羽評価支援装置。
The segmented area evaluation processing unit
each normal vector of a triangular network formed from the point cloud data corresponding to the face region is polar projected onto a stereo net for each of the segmented regions;
Based on the distribution of plots polar-projected on the stereo net, a crack predominant direction determining unit for determining, for each of the divided regions, a predominant crack direction indicating the strike inclination of the crack that is predominant in the face surface,
The face evaluation unit is
a first skin-spotting risk location prediction unit that predicts the skin-spotting risk location based on the point cloud data;
The first skin-spotting risk location prediction unit includes:
projecting the predominant direction of cracks for each of the divided regions determined by the predominant direction of cracks determination unit onto a stereo net;
When a closed polygon is formed by the dominant directions of the cracks extending in at least three directions, the range of the face corresponding to the closed polygon is predicted as the risk of skin falling off.
The face evaluation support device according to any one of claims 1 to 10.
前記切羽評価部は、
前記画像データに基づいて、前記肌落ち危険個所を予測する第2の肌落ち危険箇所予測部と、
前記第1の肌落ち危険箇所予測部による予測結果と、前記第2の肌落ち危険箇所予測部による予測結果とに基づいて、前記肌落ち危険箇所を予測する肌落ち危険箇所評価部とを備え、
前記第2の肌落ち危険箇所予測部は、
前記切羽領域に対応する前記画像データを、前記切羽が撮影された学習用画像データと、当該切羽における前記肌落ち危険個所に対して付与された正解ラベルとを含む教師データにより機械学習が行われた機械学習モデルに入力することにより、前記肌落ち危険個所を予測し、
前記肌落ち危険箇所評価部は、
前記第1の肌落ち危険箇所予測部により予測された前記肌落ち危険箇所と、前記第2の肌落ち危険箇所予測部により予測された前記肌落ち危険箇所とを比較し、その比較結果として一致度が高い前記肌落ち危険箇所に対して前記危険性が高いと判定する、
請求項11に記載の切羽評価支援装置。
The face evaluation unit is
a second skin-spotting risk location prediction unit that predicts the skin-spotting risk location based on the image data;
a skin-stripping risk location evaluation unit that predicts the skin-stripping risk location based on the prediction result of the first skin-stripping risk-location prediction unit and the prediction result of the second skin-stripping risk location prediction unit. ,
The second skin-spotting risk location prediction unit,
Machine learning is performed on the image data corresponding to the face region using teacher data including learning image data in which the face is photographed and a correct label given to the risky skin fallout portion in the face. By inputting into the machine learning model, predicting the risk of skin falling,
The skin removal risk area evaluation unit
The location at risk of skin-spotting predicted by the first risky-skin-spotting prediction unit and the location at risk of skin-spotting predicted by the second risky-skin-spotting prediction unit are compared, and the comparison result is coincidence. Determining that the risk is high for the skin removal risk location with a high degree of
The face evaluation support device according to claim 11.
前記画像データ取得部は、
前記画像データとして、前記切羽とともに、所定の白黒模様を有する色見本とを含む前記対象領域がカラーにより撮影されたカラー画像データに対して色補正を行う色補正部を備え、
前記色補正部は、
前記カラー画像データをグレースケール画像に変換し、当該グレースケール画像を構成する全画素を明るさ順に並べたときの中間に位置する画素の明るさを明るさ中間値として求め、
前記全画素を、前記明るさ中間値よりも高い明るさを有する画素からなる高明度画素群と、前記明るさ中間値以下の明るさを有する画像からなる低明度画素群とに分類し、
前記色見本の白部分に相当する画素群に対して、RGBの3成分の平均値をそれぞれ求め、前記各平均値のうちの最大値を選択し、当該最大値と前記各平均値との各差分値を、前記高明度画素群に対する補正値として、前記高明度画素群の前記各画素に前記3成分別に加算することにより、前記高明度画素群を色補正し、
前記色見本の黒部分に相当する画素群に対して、前記3成分の平均値をそれぞれ求め、前記各平均値のうちの最小値を選択し、当該最小値と前記各平均値との各差分値を、前記低明度画素群に対する補正値として、前記低明度画素群の前記各画素から前記3成分別に減算することにより、前記低明度画素群を色補正する、
請求項1乃至請求項12のいずれか一項に記載の切羽評価支援装置。
The image data acquisition unit
a color correction unit that performs color correction on color image data obtained by photographing the target area in color, including the face and a color sample having a predetermined black and white pattern, as the image data;
The color corrector is
converting the color image data into a grayscale image, and determining the brightness of a pixel located in the middle when all pixels constituting the grayscale image are arranged in order of brightness as a brightness intermediate value;
classifying all the pixels into a high-brightness pixel group consisting of pixels having brightness higher than the intermediate brightness value and a low-brightness pixel group consisting of an image having brightness equal to or lower than the intermediate brightness value;
For the pixel group corresponding to the white portion of the color sample, the average values of the three components of RGB are obtained, the maximum value among the average values is selected, and the maximum value and the average values are selected. color-correcting the high-brightness pixel group by adding a difference value to each of the three components of the high-brightness pixel group as a correction value for the high-brightness pixel group;
For the pixel group corresponding to the black portion of the color sample, each average value of the three components is obtained, the minimum value of the average values is selected, and each difference between the minimum value and the average value is selected. color correcting the low-lightness pixel group by subtracting each of the three components from each of the pixels of the low-lightness pixel group as a correction value for the low-lightness pixel group;
The face evaluation support device according to any one of claims 1 to 12.
トンネルの切羽を含む対象領域が撮影された画像データを取得する画像データ取得工程と、
前記対象領域の三次元形状が計測された点群データを取得する点群データ取得工程と、
前記画像データ及び前記点群データに基づいて、前記切羽を評価する切羽評価工程と、
前記切羽評価工程による評価結果に基づいて、支援情報を出力する支援情報出力工程とを備え、
前記切羽評価工程は、
前記画像データ及び前記点群データの少なくとも一方に基づいて、前記対象領域から前記切羽に対応する切羽領域を抽出する切羽抽出工程と、
前記点群データに基づいて、前記切羽領域に対して複数の走査方向に設定された複数の走査線に沿って前記切羽領域における切羽面のラフネスをラフネス特徴量として数値化するラフネス数値化工程と、
複数の前記走査線が交差する各交点に対して前記ラフネス特徴量の代表値を求め、前記交点毎の前記代表値の分布に基づいて、前記切羽領域を区分領域に区分する領域区分工程と、
前記領域区分工程により前記切羽領域が区分された区分領域毎に、前記切羽に関する観察項目を前記評価結果として評価する領域評価処理工程とを備える、
切羽評価支援方法。
an image data acquisition step of acquiring image data in which a target region including the face of the tunnel is photographed;
A point cloud data acquisition step of acquiring point cloud data in which the three-dimensional shape of the target region is measured;
A face evaluation step of evaluating the face based on the image data and the point cloud data;
a support information output step of outputting support information based on the evaluation result of the face evaluation step;
The face evaluation step includes:
a face extraction step of extracting a face region corresponding to the face from the target region based on at least one of the image data and the point cloud data;
a roughness quantification step of quantifying the roughness of the face surface in the face region as a roughness feature amount along a plurality of scanning lines set in a plurality of scanning directions with respect to the face region based on the point cloud data; ,
a region segmentation step of obtaining a representative value of the roughness feature value for each intersection point where the plurality of scanning lines intersect, and segmenting the face region into segmented regions based on the distribution of the representative value for each intersection point;
an area evaluation processing step of evaluating an observation item related to the face as the evaluation result for each divided area in which the face area is divided by the area dividing step;
Face evaluation support method.
JP2021141107A 2021-08-31 2021-08-31 Face evaluation supporting apparatus and face evaluation supporting method Pending JP2023034740A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021141107A JP2023034740A (en) 2021-08-31 2021-08-31 Face evaluation supporting apparatus and face evaluation supporting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021141107A JP2023034740A (en) 2021-08-31 2021-08-31 Face evaluation supporting apparatus and face evaluation supporting method

Publications (1)

Publication Number Publication Date
JP2023034740A true JP2023034740A (en) 2023-03-13

Family

ID=85505168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021141107A Pending JP2023034740A (en) 2021-08-31 2021-08-31 Face evaluation supporting apparatus and face evaluation supporting method

Country Status (1)

Country Link
JP (1) JP2023034740A (en)

Similar Documents

Publication Publication Date Title
Valero et al. Automated defect detection and classification in ashlar masonry walls using machine learning
Valikhani et al. Machine learning and image processing approaches for estimating concrete surface roughness using basic cameras
Al Rousan Characterization of aggregate shape properties using a computer automated system
JP7319432B2 (en) LEARNING DATA COLLECTION DEVICE, LEARNING DATA COLLECTION METHOD, AND PROGRAM
Chen et al. Bottom-up image detection of water channel slope damages based on superpixel segmentation and support vector machine
JP2018185552A (en) Image analysis apparatus, image analysis method, and program
Arteaga Historical map polygon and feature extractor
WO2020110560A1 (en) Inspection assistance device, inspection assistance method, and inspection assistance program for concrete structure
Qu et al. Concrete surface crack detection with the improved pre-extraction and the second percolation processing methods
Loverdos et al. An innovative image processing-based framework for the numerical modelling of cracked masonry structures
Turkan et al. Terrestrial laser scanning-based bridge structural condition assessment
KR102559586B1 (en) Structural appearance inspection system and method using artificial intelligence
Vivekananthan et al. Concrete bridge crack detection by image processing technique by using the improved OTSU method
Loverdos et al. Geometrical digital twins of masonry structures for documentation and structural assessment using machine learning
CN113158829A (en) Deep learning ore size measuring method and early warning system based on EfficientDet network
US20230220761A1 (en) Systems and methods for segmenting rock particle instances
Talebi et al. The development of a digitally enhanced visual inspection framework for masonry bridges in the UK
JP7374847B2 (en) Face evaluation system, face evaluation learning system, face evaluation method, face evaluation learning method, computer program
JP6894361B2 (en) Crack direction identification method, crack direction identification device, crack direction identification system and program on concrete surface
Zahs et al. Classification of structural building damage grades from multi-temporal photogrammetric point clouds using a machine learning model trained on virtual laser scanning data
Lee et al. Vibration detection of stay-cable from low-quality CCTV images using deep-learning-based dehazing and semantic segmentation algorithms
Hess et al. Interactive classification of construction materials: Feedback driven framework for annotation and analysis of 3D point clouds
Loverdos et al. Image2DEM: A geometrical digital twin generator for the detailed structural analysis of existing masonry infrastructure stock
JP2023034740A (en) Face evaluation supporting apparatus and face evaluation supporting method
JP7156527B2 (en) Road surface inspection device, road surface inspection method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240409