JP2023034740A - Face evaluation supporting apparatus and face evaluation supporting method - Google Patents
Face evaluation supporting apparatus and face evaluation supporting method Download PDFInfo
- Publication number
- JP2023034740A JP2023034740A JP2021141107A JP2021141107A JP2023034740A JP 2023034740 A JP2023034740 A JP 2023034740A JP 2021141107 A JP2021141107 A JP 2021141107A JP 2021141107 A JP2021141107 A JP 2021141107A JP 2023034740 A JP2023034740 A JP 2023034740A
- Authority
- JP
- Japan
- Prior art keywords
- face
- unit
- evaluation
- image data
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 201
- 238000000034 method Methods 0.000 title claims description 31
- 238000012545 processing Methods 0.000 claims abstract description 80
- 238000000605 extraction Methods 0.000 claims abstract description 31
- 238000011002 quantification Methods 0.000 claims abstract description 18
- 238000010801 machine learning Methods 0.000 claims description 48
- 239000011435 rock Substances 0.000 claims description 45
- 238000001514 detection method Methods 0.000 claims description 44
- 238000012937 correction Methods 0.000 claims description 34
- 239000013598 vector Substances 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 238000003708 edge detection Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 6
- 238000009751 slip forming Methods 0.000 claims description 6
- 230000000737 periodic effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 37
- 238000007726 management method Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000004075 alteration Effects 0.000 description 5
- 238000010276 construction Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 229910000831 Steel Inorganic materials 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010186 staining Methods 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- 238000009412 basement excavation Methods 0.000 description 1
- 238000005422 blasting Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 239000010438 granite Substances 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000491 multivariate analysis Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Abstract
Description
本発明は、切羽評価支援装置、及び、切羽評価支援方法に関する。 The present invention relates to a face evaluation support device and a face evaluation support method.
トンネル工事の安全性や作業性を確保するため、トンネルの切羽面の状態は適切に評価することが要求される。従来、専門技術者が切羽を目視観察し、その観察結果のスケッチ記録等が行われていたが、専門技術者の不足に対応するとともに、観察結果の品質確保を図るべく、近年、切羽を撮影した画像データ(写真)や、切羽の三次元形状を計測した点群データを用いた切羽評価装置の開発が行われている。 In order to ensure the safety and workability of tunnel construction, it is required to properly evaluate the condition of the tunnel face. In the past, professional engineers visually observed the face and recorded sketches of the observation results. A face evaluation system is being developed that uses image data (photographs) and point cloud data obtained by measuring the three-dimensional shape of the face.
例えば、特許文献1には、切羽の岩盤が撮像された撮像画像に基づいて、風化変質の評価区分を導出する岩盤の風化変質評価装置が開示されている。また、特許文献2には、トンネルの切羽面の3次元立体情報が計測された点群データに基づいて、岩盤に発達する亀裂を評価する亀裂評価装置が開示されている。
For example,
特許文献1及び特許文献2に開示された装置では、画像データ及び点群データをそれぞれ用いて切羽を評価しているため、画像データ及び点群データを個別に評価しただけでは切羽の評価に際して評価品質の向上には限界がある。例えば、画像データには、切羽以外にも支保や路盤部等が撮影されているため、画像データ上で、切羽の領域と、切羽以外の領域とを分離する処理が必要となり、その処理が不十分な場合には、切羽の評価品質を低下させる可能性がある。また、切羽には、特徴が異なる複数の岩盤が含まれている場合があり、これらの岩盤を区分せずに各種の観察項目について評価した場合、切羽の状態が適切に評価されない可能性もある。
In the devices disclosed in
本発明は、上述した課題に鑑みてなされたものであって、切羽の評価に際して評価品質を向上させることを可能とする切羽評価支援装置、及び、切羽評価支援方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a face evaluation support device and a face evaluation support method capable of improving evaluation quality when evaluating a face. .
上記目的を達成するために、本発明の一態様に係る切羽評価支援装置は、
トンネルの切羽を含む対象領域が撮影された画像データを取得する画像データ取得部と、
前記対象領域の三次元形状が計測された点群データを取得する点群データ取得部と、
前記画像データ及び前記点群データに基づいて、前記切羽を評価する切羽評価部と、
前記切羽評価部による評価結果に基づいて、支援情報を出力する支援情報出力部とを備え、
前記切羽評価部は、
前記画像データ及び前記点群データの少なくとも一方に基づいて、前記対象領域から前記切羽に対応する切羽領域を抽出する切羽抽出部と、
前記点群データに基づいて、前記切羽領域に対して複数の走査方向に設定された複数の走査線に沿って前記切羽領域における切羽面のラフネスをラフネス特徴量として数値化するラフネス数値化部と、
複数の前記走査線が交差する各交点に対して前記ラフネス特徴量の代表値を求め、前記交点毎の前記代表値の分布に基づいて、前記切羽領域を区分領域に区分する領域区分部と、
前記領域区分部により前記切羽領域が区分された区分領域毎に、前記切羽に関する観察項目を前記評価結果として評価する区分領域評価処理部とを備える。
In order to achieve the above object, a face evaluation support device according to an aspect of the present invention includes:
an image data acquisition unit that acquires image data in which a target region including a face of a tunnel is photographed;
a point cloud data acquisition unit that acquires point cloud data in which the three-dimensional shape of the target region is measured;
a face evaluation unit that evaluates the face based on the image data and the point cloud data;
a support information output unit that outputs support information based on the evaluation result of the face evaluation unit;
The face evaluation unit is
a face extraction unit that extracts a face region corresponding to the face from the target region based on at least one of the image data and the point cloud data;
a roughness quantifying unit that quantifies the roughness of the face surface in the face region as a roughness feature amount along a plurality of scanning lines set in a plurality of scanning directions with respect to the face region, based on the point cloud data; ,
an area division unit that obtains a representative value of the roughness feature amount for each intersection point where the plurality of scanning lines intersect, and divides the face area into division areas based on the distribution of the representative value for each intersection point;
and a segmented region evaluation processing unit that evaluates observation items related to the face as the evaluation result for each segmented region obtained by segmenting the face region by the region segmentation unit.
本発明の一態様に係る切羽評価支援装置によれば、切羽抽出部が、画像データ及び点群データの少なくとも一方に基づいて、切羽に対応する切羽領域を抽出し、ラフネス数値化部が、点群データに基づいて、切羽領域における切羽面のラフネスをラフネス特徴量として数値化し、領域区分部が、ラフネス特徴量の分布に基づいて、切羽領域を区分領域に区分し、区分領域評価処理部が、切羽に関する観察項目を区分領域毎に評価する。そのため、切羽に対応する領域が区分領域に区分され、切羽に関する観察項目が区分領域毎に評価される。したがって、切羽の評価に際して評価品質を向上させることができる。 According to the face evaluation support device according to one aspect of the present invention, the face extraction unit extracts the face region corresponding to the face based on at least one of the image data and the point cloud data, and the roughness quantification unit converts the point Based on the group data, the roughness of the face surface in the face region is quantified as a roughness feature quantity, the region dividing unit divides the face region into segmented regions based on the distribution of the roughness feature quantity, and the segmented region evaluation processing unit , the observation items related to the face are evaluated for each segmented area. Therefore, the region corresponding to the face is divided into segmented regions, and the observation items related to the face are evaluated for each segmented region. Therefore, it is possible to improve the evaluation quality when evaluating the face.
上記以外の課題、構成及び効果は、後述する発明を実施するための形態にて明らかにされる。 Problems, configurations, and effects other than the above will be clarified in the mode for carrying out the invention, which will be described later.
以下、図面を参照して本発明を実施するための実施形態について説明する。以下では、本発明の目的を達成するための説明に必要な範囲を模式的に示し、本発明の該当部分の説明に必要な範囲を主に説明することとし、説明を省略する箇所については公知技術によるものとする。 Embodiments for carrying out the present invention will be described below with reference to the drawings. In the following, the range necessary for the description to achieve the object of the present invention is schematically shown, and the range necessary for the description of the relevant part of the present invention is mainly described. It shall be by technology.
図1は、切羽評価支援システム1の一例を示す全体図である。図2は、切羽評価支援システム1で処理されるデータの一例を示し、(a)画像データ、(b)点群データを示す図である。
FIG. 1 is an overall view showing an example of a face
切羽評価支援システム1は、トンネルの現場にて切羽Fの状態を観察し、評価するために用いられるシステムである。切羽評価支援システム1は、その主要な構成要素として、画像撮影装置2と、三次元形状計測装置3と、切羽評価支援装置4と、作業者端末装置5と、管理者端末装置6とを備える。各装置2~6は、有線又は無線のネットワーク7に接続されて、各種のデータを相互に送受信可能に構成される。なお、各装置2~6の数は、複数でもよいし、ネットワーク7の構成は、図1の例に限られない。
The face
画像撮影装置2は、トンネルの切羽Fを含む対象領域100を撮影する装置であり、例えば、カラーのイメージセンサを有するデジタルカメラ等で構成される。画像撮影装置2は、例えば、現場作業者により操作されて、所定の撮影条件(撮影位置、色見本20の設置位置、照明等)にて対象領域100を撮影することで、各画素に対してRGBの3成分に対する画素値をそれぞれ記録したカラー画像データを生成する。カラー画像データは、ネットワーク7又は記録媒体等を介して切羽評価支援装置4に送られる。
The image capturing
画像撮影装置2は、三脚等により路盤部に設置されて使用されるものであるが、例えば、工事用の機械類若しくは車両又はドローン、無人航空機(UAV)、気球等の飛行体等に取り付けられてもよいし、遠隔で操作されるものでもよい。また、画像撮影装置2は、カラー画像データに代えて、グレースケールの画像データを生成するものでもよい。本実施形態では、画像撮影装置2は、カラー画像データを生成し、後述の色補正部110により色補正を行う場合について説明し、以下では、カラー画像データを「画像データ」と略して記載する。
The image capturing
画像データには、切羽Fだけでなく、支保や路盤部も撮影される。また、画像データを撮影する際、図2(a)に示すように、切羽Fの手前付近に色見本20が設置された状態で撮影するため、画像データには、色見本20も撮影される。
In the image data, not only the face F but also the support and the roadbed are photographed. Further, when the image data is captured, as shown in FIG. 2A, the
色見本20は、白黒2色で構成された所定の白黒模様を有し、例えば、左右方向に黒色、白色(上下に黒縁を有する)・黒色の並びで配置された3つの矩形領域(面積はそれぞれ同程度)で構成される。色見本20は、天地が反転した状態でも同じ模様になるように、点対称や線対称の模様が採用される。また、色見本20は、白黒だけの模様であるため、例えば、プリンタ(カラー印刷非対応でも可)により白紙のコピー用紙や印画紙(A3、B4、A4サイズ等)に黒部分の模様を印刷し、黒板、白板、段ボール等の台紙に貼り付けることで、簡易に作製することができる。
The
三次元形状計測装置3は、トンネルの切羽Fを含む対象領域100の三次元形状を計測する装置であり、例えば、レーザや超音波を用いた測距センサ、ステレオカメラ等で構成される。三次元形状計測装置3は、所定の計測条件(計測位置等)にて対象領域100を計測することで、トンネル軸(z軸)の方向に対して対象領域100の各位置までの距離(深度)をそれぞれ記録した点群データを生成する。点群データは、ネットワーク7又は記録媒体等を介して切羽評価支援装置4に送られる。
The three-dimensional
三次元形状計測装置3は、三次元形状を計測する方式として、アクティブ方式及びパッシブ方式のいずれでもよい。画像撮影装置2及び三次元形状計測装置3は、一体的に構成されていてもよく、例えば、画像データ及び点群データの両方を生成可能なRGB-D(Red Green Blue Depth)カメラで構成されていてもよい。
The three-dimensional
点群データには、図2(b)に示すように、トンネルの軸方向をz方向として、切羽Fまでの距離により、対象領域100の三次元形状が記録される。その際、色見本20を設置する必要はない。なお、画像データによる撮影範囲と、点群データによる計測範囲とは、対象領域100のように、同程度の範囲であることが好ましいが、両範囲が、少なくとも切羽Fの全体を含む対象領域100に相当するのであれば異なる範囲でもよい。また、画像データの撮影時刻と、点群データの計測時刻とは、基本的には同じ時間帯であることが好ましいが、切羽Fの状態が変化しない範囲内であれば時間差があってもよい。
In the point cloud data, the three-dimensional shape of the
切羽評価支援装置4は、汎用又は専用のコンピュータで構成され、例えば、据置型コンピュータや携帯型コンピュータが使用される。切羽評価支援装置4は、画像撮影装置2及び三次元形状計測装置3から画像データ及び点群データをそれぞれ取得し、その画像データ及び点群データに対して各種の処理を行うことにより、切羽Fに関する各種の観察項目を評価する。切羽評価支援装置4は、その評価結果に基づいて支援情報を生成し、その支援情報を、例えば、作業者端末装置5、管理者端末装置6等に提供する。
The face
また、切羽評価支援装置4は、画像データ及び点群データと、支援情報とを対応付けて記憶する切羽管理データベース400を備える。切羽管理データベース400には、切羽Fに関する上記のデータが複数登録されて、例えば、識別子(ID)、現場名称、現場位置、観察日時等の属性情報が付加されることで、識別可能に管理される。
The face
作業者端末装置5は、例えば、現場の作業者により使用される。作業者端末装置5は、汎用又は専用のコンピュータで構成され、例えば、タブレット端末やスマートフォン等の携帯型コンピュータが使用される。作業者端末装置5は、各種の入力操作を受け付けるとともに、アプリやウェブブラウザ等のソフトウェアによる表示画面や音声を介して、各種の情報を出力する。また、作業者端末装置5は、ネットワーク7を介して切羽評価支援装置4等との間で各種のデータを送受信する。
The
管理者端末装置6は、例えば、現場の管理者(作業者と同一人物でもよい)により使用される。管理者端末装置6は、汎用又は専用のコンピュータで構成され、例えば、据置型コンピュータや携帯型コンピュータが使用される。管理者端末装置6は、各種の入力操作を受け付けるとともに、アプリやウェブブラウザ等のソフトウェアによる表示画面や音声を介して、各種の情報を出力する。また、管理者端末装置6は、ネットワーク7を介して切羽評価支援装置4等との間で各種のデータを送受信する。
The
図3は、切羽評価支援装置4の一例を示すブロック図である。切羽評価支援装置4は、HDD、SSD、メモリ等により構成される記憶部40と、CPU、GPU、MPU等のプロセッサにより構成される制御部41と、キーボード、マウス等により構成される入力部42と、ディスプレイ等により構成される表示部43と、所定の通信規格(有線及び無線のいずれでもよい)に基づくネットワーク7とのインターフェースである通信部44と、プリンタ、スキャナ、USBメモリ等の外部機器とのインターフェースである外部機器インターフェース(I/F)部45と、CD、DVD等の記憶媒体とのインターフェースであるメディア入出力部46とを備える。なお、入力部42及び表示部43は、タッチパネル等の共用の装置で構成されていてもよい。
FIG. 3 is a block diagram showing an example of the face
記憶部40には、基本プログラムであるオペレーティングシステム(OS)、切羽評価支援装置4の動作を制御する切羽評価支援プログラム10、切羽評価支援プログラム10で使用される各種のデータ(切羽管理データベース400等)、表計算処理を実行する表計算ソフトウェア、文書作成処理を実行する文書作成ソフトウェア、及び、ウェブブラウザソフトウェア等が記憶されている。
The
なお、切羽評価支援プログラム10、及び、切羽評価支援プログラム10で使用される各種のデータは、基本的には記憶部40に記憶されているが、これらのプログラムやデータは、通信部44や外部機器I/F部45を介して外部の記憶装置から取得されてもよいし、メディア入出力部46を介して記憶媒体から取得されてもよい。また、切羽評価支援プログラム10で使用される各種のデータは、表計算ソフトウェア、文書作成ソフトウェア及びウェブブラウザソフトウェアにて表示・編集可能な形式で作成されるのが好ましい。
Although the face
制御部41は、切羽評価支援プログラム10を実行することにより、画像データ取得部11、点群データ取得部12、切羽評価部13、及び、支援情報出力部14として機能する。
The
図4は、切羽評価支援装置4の一例を示す機能説明図である。なお、切羽評価支援装置4は、切羽評価支援方法を実施する主体として動作し、切羽評価支援装置4の各部で行われる処理内容は、切羽評価支援方法の各工程に相当する。
FIG. 4 is a functional explanatory diagram showing an example of the face
画像データ取得部11は、トンネルの切羽Fを含む対象領域100が撮影された画像データを取得する。画像データ取得部11は、画像撮影装置2から、例えば、通信部44、外部機器I/F部45、メディア入出力部46等を介して画像データを取得する。また、画像データ取得部11は、カラー画像データに対して色補正を行う色補正部110を備える。なお、画像データは、過去に撮像されて切羽管理データベース400に記憶されたものでもよく、その場合には、画像データ取得部11は、切羽管理データベース400を参照すればよい。
The image
点群データ取得部12は、トンネルの切羽Fを含む対象領域100の三次元形状が計測された点群データを取得する。点群データ取得部12は、三次元形状計測装置3から、例えば、通信部44、外部機器I/F部45、メディア入出力部46等を介して点群データを取得する。なお、点群データは、過去に計測されて切羽管理データベース400に記憶されたものでもよく、その場合には、点群データ取得部12は、切羽管理データベース400を参照すれればよい。
The point cloud
切羽評価部13は、画像データ取得部11により取得された画像データと、点群データ取得部12により取得された点群データとに基づいて、切羽Fを評価する。切羽評価部13で用いられる画像データは、色補正部110による色補正が行われた後の画像データである。
The
切羽評価部13は、その構成として、切羽抽出部130、ラフネス数値化部131、領域区分部132、区分領域評価処理部133、及び、切羽領域評価処理部134を備える。各部の詳細は後述する。
The
区分領域評価処理部133は、その構成として、割れ目卓越方向判定部133A、岩石グループ判定部133B、割れ目間隔判定部133C、割れ目形態判定部133D、及び、評価区分推論部133Eを備える。なお、各部133A~133Eのうちいずれかが省略されてもよい。
The segmented area
切羽領域評価処理部134は、その構成として、第1の連続性割れ目検出部134A、第2の連続性割れ目検出部134B、第3の連続性割れ目検出部134C、人工物検出部134D、第1の肌落ち危険箇所予測部134E、第2の肌落ち危険箇所予測部134F、及び、肌落ち危険箇所評価部134Gを備える。なお、各部134A~134Gのうちいずれかが省略されてもよい。
The face area
支援情報出力部14は、切羽評価部13による切羽Fの評価結果に基づいて、支援情報を出力する。支援情報は、アプリやウェブブラウザ等の任意のソフトウェアにて取り扱い可能な形式にて出力される。また、支援情報の出力先としては、例えば、切羽管理データベース400、作業者端末装置5、管理者端末装置6、外部機器(プリンタ、USBメモリ)等である。なお、支援情報出力部14は、画像データ取得部11及び点群データ取得部12により画像データ及び点群データが取得されたことに応じて支援情報を出力してもよいし、例えば、作業者端末装置5、管理者端末装置6等からの要求に応じて支援情報を出力するようにしてもよい。また、切羽管理データベース400に記憶された支援情報が、例えば、作業者端末装置5、管理者端末装置6等からの要求に応じて出力されるようにしてもよい。
The support
支援情報の内容としては、例えば、評価結果を所定の様式に則って記録した切羽観察シート情報15や、画像データを表示する表示画面上に評価結果を重畳して表示する切羽スケッチ情報16が挙げられる。
The content of the support information includes, for example, face
以下、切羽評価支援装置4の各部(切羽評価支援方法の各工程)の詳細と、切羽評価支援装置4による切羽Fの評価結果について、図5乃至図21を参照してそれぞれ説明する。
Details of each part of the face evaluation support device 4 (each process of the face evaluation support method) and evaluation results of the face F by the face
(1)色補正部110による色補正処理
色補正部110は、画像データ取得部11が、画像データとして、切羽Fとともに、所定の白黒模様を有する色見本20とを含む対象領域100がカラーにより撮影されたカラー画像データを取得したとき、そのカラー画像データに対して色補正を行う。
(1) Color correction processing by the
図5は、色補正部110による色補正処理の一例を示すフロチャートである。
FIG. 5 is a flowchart showing an example of color correction processing by the
まず、ステップS101では、カラー画像データに含まれる色見本20の白と黒の画素を用いて、カラー画像全体の色調を補正する。
First, in step S101, the color tone of the entire color image is corrected using the white and black pixels of the
次に、ステップS102では、カラー画像データをグレースケール画像に変換し、当該グレースケール画像を構成する全画素を明るさ順に並べたときの中間に位置する画素の明るさを、明るさ中間値として求める。 Next, in step S102, the color image data is converted into a grayscale image, and the brightness of the pixel located in the middle when all pixels constituting the grayscale image are arranged in order of brightness is taken as a brightness intermediate value. demand.
次に、ステップS103では、全画素を、明るさ中間値よりも高い明るさを有する画素からなる高明度画素群と、明るさ中間値以下の明るさを有する画像からなる低明度画素群とに分類する。 Next, in step S103, all pixels are divided into a high-brightness pixel group consisting of pixels having brightness higher than the brightness intermediate value and a low-brightness pixel group consisting of an image having brightness equal to or lower than the brightness intermediate value. Classify.
次に、ステップS104では、グレースケール画像に対して、例えば、最小110~最大253の閾値で二値化処理を行い、色見本20の外周の白枠を検出する。そして、グレースケール画像に対して、ノイズを除去するため、途切れた線分を結合する膨張処理を行い、輪郭検出処理を行う。その結果得られた輪郭のうち、サイズ、形状、面積比等に基づいて、色見本20の位置を検出する。
Next, in step S104, the grayscale image is subjected to binarization processing using, for example, a minimum threshold value of 110 to a maximum value of 253, and a white frame around the outer circumference of the
次に、ステップS105では、色見本20の白部分に相当する画素群に対して、RGBの3成分の平均値をそれぞれ求め、各平均値のうちの最大値を選択する。そして、当該最大値と各平均値との各差分値を、高明度画素群に対する補正値に決定する。例えば、白部分に相当する画素群のRGBの平均値が、「230,216,231」と求められた場合、最大値として「231」が選択され、高明度画素群に対する補正値は、「1,15,0」と決定される。
Next, in step S105, the average values of the three components of RGB are obtained for the pixel group corresponding to the white portion of the
次に、ステップS106では、高明度画素群の各画素に、ステップS105で決定した高明度画素群に対する補正値を3成分別に加算することにより、高明度画素群を色補正する。例えば、高明度画素群に属する特定の1つの画素が、「123,234,135」である場合、上記の補正値による補正後の画素は、「124,249,135」となる。 Next, in step S106, the high-lightness pixel group is color-corrected by adding the correction values for the high-lightness pixel group determined in step S105 for each of the three components to each pixel of the high-lightness pixel group. For example, if one specific pixel belonging to the high-brightness pixel group is "123, 234, 135", the pixel after correction with the above correction values is "124, 249, 135".
次に、ステップS107では、色見本20の黒部分に相当する画素群に対して、3成分の平均値をそれぞれ求め、各平均値のうちの最小値を選択する。そして、当該最小値と各平均値との各差分値を、低明度画素群に対する補正値に決定する。例えば、黒部分に相当する画素群のRGBの平均値が、「24,4,6」と求められた場合、最小値として「4」が選択され、低明度画素群に対する補正値は、「20,0,2」と決定される。
Next, in step S107, the average values of the three components are obtained for the pixel group corresponding to the black portion of the
次に、ステップS108では、低明度画素群の各画素から、ステップS107で決定した低明度画素群に対する補正値を3成分別に減算することにより、低明度画素群を色補正する。例えば、低明度画素群に属する特定の1つの画素が、「43,30,35」である場合、上記の補正値による補正後の画素は、「23,30,33」となる。 Next, in step S108, the low-lightness pixel group is color-corrected by subtracting the correction value for the low-lightness pixel group determined in step S107 for each of the three components from each pixel of the low-lightness pixel group. For example, if one specific pixel belonging to the low-lightness pixel group is "43, 30, 35", the pixel after correction with the above correction values is "23, 30, 33".
以上のように、色補正部110が、図5に示す一連の色補正処理を行うことにより、画像データにおける色合いの偏りが補正されるので、照明の種類や照度、画像撮影装置2の仕様や設定等の様々な条件が異なる場合であっても、補正後の画像データに基づいて切羽Fを適切に評価することができる。
As described above, the
(2)切羽抽出部130による切羽抽出処理
切羽抽出部130は、画像データ及び点群データの少なくとも一方に基づいて、対象領域100から切羽Fに対応する切羽領域101を抽出する。対象領域100から切羽領域101を抽出する方法としては、点群データを解析して抽出する第1の切羽抽出処理と、機械学習モデルを用いて画像データから抽出する第2の切羽抽出処理と、第1の切羽抽出処理と第1の切羽抽出処理の両方を併用する第3の切羽抽出処理とが挙げられる。
(2) Face Extraction Processing by
図6は、点群データから切羽領域101を抽出する第1の切羽抽出処理の一例を示す説明図である。第1の切羽抽出処理では、点群データが、図6(a)に示すように、トンネル軸をz軸とする座標系(切羽面側に近づくほど座標値は減少)で計測された場合、切羽抽出部130は、各点のz軸の座標値に基づいて、切羽領域101を抽出する。例えば、トンネル工事の1回の発破で切羽面が進行する進行距離Lは、z軸に対して約1.5mであり、切羽面のz軸に対する凸凹は、進行距離L以下である。また、支保は、切羽面に対して進行距離Lよりも離れた位置に構築される。
FIG. 6 is an explanatory diagram showing an example of the first face extraction process for extracting the
したがって、切羽抽出部130は、図6(b)に示すように、点群データ取得部12により取得された点群データのz軸の最小値(計測位置からの最遠点)から進行距離Lまでの範囲を切羽領域101として抽出する。また、切羽抽出部130は、図6(c)に示すように、点群データのz軸の最小値に進行距離Lを加算した座標値以上の範囲を、支保及び路盤部の領域として、画像データ取得部11により取得された画像データに対してマスク処理を行うことにより、切羽領域101を抽出する。
Therefore, as shown in FIG. 6B, the
なお、点群データを用いた他の切羽抽出処理として、切羽抽出部130は、点群データから構成される三角網の各法線ベクトルが、切羽領域101では、z軸に沿う成分が卓越するが、支保および路盤部では、z軸成分と直交する成分が卓越するという特性を利用して、切羽領域101を抽出するようにしてもよい。
As another face extraction process using the point cloud data, the
図7は、画像データから切羽領域101を抽出する第2の切羽抽出処理の一例を示す説明図である。第2の切羽抽出処理で用いられる機械学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)で構成され、切羽が撮影された学習用画像データと、当該切羽Fに対応する切羽領域101に対して付与された正解ラベルとを含む教師データにより機械学習が行われたものである。すなわち、図7に示すように、機械学習の学習フェーズにおいて、教師データの学習用画像データを機械学習モデルに入力することで出力された切羽領域101の抽出結果と、教師データの正解ラベルとを比較し、その比較結果に基づいて畳み込みニューラルネットワークの重み付けパラメータを調整することで、機械学習が行われる。なお、切羽抽出部130は、図7に示すように、切羽領域101だけでなく、支保に対応する支保領域や路盤部に対応する路盤領域についても抽出するようにしてもよい。
FIG. 7 is an explanatory diagram showing an example of the second face extraction process for extracting the
切羽抽出部130は、機械学習の推論フェーズを実行する主体であり、画像データ取得部11により取得された画像データを、学習済みの機械学習モデルに入力することにより、対象領域100から切羽領域101を抽出する。
The
以上のようにして、切羽抽出部130による切羽抽出処理により、対象領域100から切羽領域101が抽出される。
As described above, the
(3)ラフネス数値化部131によるラフネス数値化処理
ラフネス数値化部131は、点群データに基づいて、切羽抽出部130により抽出された切羽領域101に対して複数の走査方向に設定された複数の走査線に沿って切羽領域101における切羽面のラフネス(凸凹)をラフネス特徴量として数値化する。ラフネス数値化部131は、ラフネス特徴量として、切羽領域101に対応する点群データを複数の走査線に沿って周期関数によりそれぞれ近似したときのラフネス近似モデルの振幅値及び波長を数値化する。
(3) Roughness quantifying process by
図8は、ラフネス数値化部131によるラフネス数値化処理の一例を示す説明図である。ラフネス特徴量は、点群データに基づいて、切羽面におけるz軸方向のラフネスを数値化したパラメータである。ラフネスは、複数の走査方向として、図8(a)に示すように、例えば、切羽面上の上下左右方向(x軸、y軸)と、斜め方向とにそれぞれ設定されて、所定の間隔d1、d2を空けた配置された複数の走査線iに沿って近似される。
FIG. 8 is an explanatory diagram showing an example of roughness quantification processing by the
走査線iに沿って近似されるラフネスは、図8(b)に示すように、走査線iから一定距離a内に位置する点群データにおけるz軸の座標値から設定される。走査線i上の基準線(面)からの高低差hi(図8(c)参照)は、点群データに含まれる点群pjの座標値と、走査線iから点群pjまでの距離r(図8(b)参照)とを利用して、以下の[数1]式で求められる。ここで、pj,zは、点群pjのz軸の座標値、z0は、基準線(面)の値である。 The roughness approximated along the scanning line i is set from the z-axis coordinate values in the point cloud data positioned within a certain distance a from the scanning line i, as shown in FIG. 8(b). The height difference h i (see FIG. 8C) from the reference line (surface) on the scanning line i is the coordinate value of the point group pj included in the point cloud data and the coordinate value from the scanning line i to the point group pj (see FIG. 8(b)) and the distance r (see FIG. 8(b)). Here, pj ,z are the z-axis coordinate values of the point group pj , and z0 is the value of the reference line (plane).
切羽面のラフネスは、走査線i毎に、高低差の大きさと、高低の周期性に着目して、ラフネス近似モデルに近似される。ラフネス近似モデルは、周期関数を用いることにより、走査線iの位置tにおける基準面からの高低差H(t)iが、以下の[数2]式でモデル化(近似)される。 The roughness of the face surface is approximated by a roughness approximation model by paying attention to the magnitude of the height difference and the periodicity of the height for each scanning line i. In the roughness approximation model, the height difference H(t) i from the reference plane at the position t of the scanning line i is modeled (approximated) by the following equation (2) using a periodic function.
ここで、波数kjは、高低差の繰り返しの距離である波長λjの逆数に相当する値である。係数Aj、Bjは、特徴量であり、波数kjに対して、例えば、最小二乗法、スパースモデリングを利用することで求められる。上記のラフネス近似モデルは、j個の周期関数の重ね合わせ和により、高低差の平均値による特徴付けを包含したモデリングとなっている。一方、波数kjは、切羽Fの観察項目である割れ目間隔(頻度)を利用して設定されるようにしてもよい。 Here, the wavenumber kj is a value corresponding to the reciprocal of the wavelength λj , which is the repeat distance of the height difference. The coefficients A j and B j are feature amounts, and are obtained by using, for example, the least squares method and sparse modeling for the wave number k j . The above-mentioned roughness approximation model is a modeling that includes characterization by an average value of height difference by superposing j periodic functions. On the other hand, the wave number kj may be set using the crack interval (frequency), which is an observation item of the face F.
ラフネス数値化部131は、各走査線iに対するラフネス特徴量として、例えば、ラフネス近似モデルにおける振幅値及び波長を数値化する。ラフネス近似モデルの振幅値Cjは、係数Aj、Bjから、以下の[数3]式で求められる。また、ラフネス近似モデルの波長λjは、振幅値Cjが最大値となる波数kj(=1/λj)により定められる。
The
以上のようにして、ラフネス数値化部131によるラフネス数値化処理により、切羽領域101における切羽面のラフネスがラフネス特徴量として数値化される。
As described above, the roughness quantification processing by the
(4)領域区分部132による領域区分処理
領域区分部132は、複数の走査線が交差する各交点に対して、ラフネス数値化部131により数値化されたラフネス特徴量の代表値を求め、交点毎の代表値の分布に基づいて、切羽抽出部130により抽出された切羽領域101を区分領域102に区分する。
(4) Region segmentation processing by
図9は、領域区分部132による領域区分処理の一例を示す説明図である。領域区分部132は、切羽領域101を区分領域102に区分する際、複数の走査線が交差する各交点Pにおけるラフネス特徴量の代表値を求める。例えば、図9(a)に示すように、上下方向及び斜め方向の4つの走査線が交差する交点Pi,j,k,lにおけるラフネス特徴量として、振幅値C及び波長λが数値化されている場合、ラフネス特徴の代表値は、4つの走査線におけるラフネス特徴量、すなわち、振幅値C及び波長λの平均(単純平均や加重平均)やベクトル和等により求められる。
FIG. 9 is an explanatory diagram showing an example of area partitioning processing by the
次に、領域区分部132は、図9(b)に示すように、交点P毎の代表値(振幅値C及び波長λ)と、振幅値Cの基準値C0、及び、波長λの基準値λ0とを比較することにより、各交点Pが4つの特徴区分Ra、Rb、Rc、Rdのいずれに分類されるかを判定する。なお、振幅値Cに対して複数の基準値を設定したり、波長λに対して複数の基準値を設定したりすることで、特徴区分は、上記以外の特徴区分に分類されるようにしてもよい。
Next, as shown in FIG. 9B, the
そして、領域区分部132は、各交点Pが分類された特徴区分Ra、Rb、Rc、Rdの分布に基づいて、切羽領域101を区分領域102に区分する。図9(c)には、例えば、特徴区分Raに分類された交点Pの集合である区分領域102(左上側部分)と、特徴区分Rdに分類された交点Pの集合である区分領域102(右下側部分)という2つの区分領域102に区分された場合が図示されている。
Then, the
以上のようにして、領域区分部132による領域区分処理により、切羽領域101が、ラフネス特徴量の分布に基づいて、区分領域102に区分される。
As described above, the
(5)区分領域評価処理部133による区分領域評価処理
区分領域評価処理部133は、領域区分部132により切羽領域101が区分された区分領域102毎に、切羽Fに関する観察項目を評価結果として評価する。区分領域評価処理部133は、区分領域102に対応する画像データ及び点群データに基づいて、各種の観察項目を区分領域102毎に評価するため、図4に示すように、割れ目卓越方向判定部133A、岩石グループ判定部133B、割れ目間隔判定部133C、割れ目形態判定部133D、及び、評価区分推論部133Eを備える。以下に各部(各工程)133A~133Eの詳細を説明する。
(5) Divisional area evaluation processing by the divisional area
(5-1)割れ目卓越方向判定部133A
図10は、割れ目卓越方向判定部133Aによる割れ目卓越方向の判定処理の一例を示す説明図である。割れ目卓越方向判定部133Aは、切羽領域101に対応する点群データから構成される三角網の各法線ベクトルを区分領域102毎にステレオネットに極投影し、ステレオネット上に極投影されたプロットの分布に基づいて、切羽面において卓越する割れ目の走向傾斜を示す割れ目卓越方向を区分領域102毎に判定する。
(5-1) Crack predominant
FIG. 10 is an explanatory diagram showing an example of processing for determining the predominant direction of cracks by the predominant direction of
切羽面では、既往の割れ目に沿って岩塊が分離、掘削されることが多いため、切羽面の凸凹は、割れ目に沿って表れる可能性が高い。そこで、各区分領域102における割れ目卓越方向を判定するため、割れ目卓越方向判定部133Aは、図10(a)に示すように、区分領域102に対応する点群データから構成された三角網を用いて、図10(b)、(c)に示すように、三角網に含まれる各三角形の法線ベクトルを、ステレオネット(等面積投影ネット)に極投影する。ステレオネットへの極投影では、各法線ベクトルの矢印基端側をステレオネットの中心に合わせて、トンネル軸(z軸)と一致する方向にそれぞれ投影する。
On the face, rock masses are often separated and excavated along the existing cracks, so there is a high possibility that the unevenness of the face will appear along the cracks. Therefore, in order to determine the predominant direction of cracks in each
そして、割れ目卓越方向判定部133Aは、図10(c)に示すように、ステレオネット上に極投影された各法線ベクトルの矢印先端側に相当するプロットの分布に基づいて、密度コンター図を作成し、その密度コンター図において、所定の基準値より密度が高い範囲を割れ目卓越方向として判定する。その際、割れ目卓越方向判定部133Aは、割れ目卓越方向を区画領域毎に判定するが、1つの区画領域に対して複数の割れ目卓越方向が含まれると判定される場合もあり得る。
Then, as shown in FIG. 10(c), the crack predominant
なお、点群データが、切羽面上で不規則に分布している場合には、ステレオネットに極投影されたプロットの数と、切羽面上での三角形の面積が対応しないことが想定される。その場合には、割れ目卓越方向判定部133Aは、三角網を構成する三角形の面積で重み付けを行い、ステレオネット上にプロットすることで、切羽面での面積を反映させた状態で割れ目卓越方向を判定するようにしてもよい。
If the point cloud data is irregularly distributed on the face, it is assumed that the number of plots polar-projected on the stereonet does not correspond to the area of the triangle on the face. . In that case, the crack predominant
(5-2)岩石グループ判定部133B
図11は、岩石グループ判定部133Bによる岩石グループの判定処理の一例を示す説明図である。岩石グループ判定部133Bは、ラフネス数値化部131により数値化されたラフネス近似モデルの振幅値及び波長に基づいて、切羽面を構成する岩石の種別を示す岩石グループを区分領域102毎に判定する。
(5-2) Rock
FIG. 11 is an explanatory diagram showing an example of rock group determination processing by the rock
岩石グループとしては、例えば、風化区分が、塊状及び層状のいずれか、強度区分が、硬質、中硬質及び軟質のいずれかを組み合わせることで、複数の岩石の種別に分類される。例えば、硬質岩・塊状(例えば、花崗岩等)の岩石グループGaでは、割れ目の凸凹を示す振幅値が大きく、割れ目の間隔を示す波長は中程度から長くなる傾向がある。軟質岩・層状(例えば、第三紀頁岩、千枚岩等)の岩石グループGeでは、細かく層理や片理が入るため、層理や片理に沿った凸凹が表れることで振幅値は小さくなり、波長も小さくなる。軟質岩・塊状(例えば、固結度の低い凝灰角礫岩等)の岩石グループGcでは、掘削による切羽面が滑らかに仕上がることから、凸凹が殆どなく、振幅値は小さく、波長は長くなる。岩石グループ判定部133Bは、上記のような各岩石グループの傾向や特徴に着目することで、例えば、各交点Pにおける振幅値及び波長に基づいて、各区分領域102の岩石グループを判定する。なお、岩石グループ判定部133Bは、ラフネス特徴量だけでなく、他の観察項目(例えば、風化変質、圧縮強度等)に対する評価区分についても参照することにより、各区分領域102の岩石グループを判定するようにしてもよい。
The rock group is classified into a plurality of rock types by combining, for example, the weathering category of either massive or layered, and the strength category of hard, medium-hard, or soft. For example, in the rock group Ga of hard rock/mass (for example, granite), the amplitude value indicating the unevenness of cracks tends to be large, and the wavelength indicating the interval between cracks tends to be medium to long. Soft rocks and bedding (e.g., Tertiary shale, phyllite, etc.) rock group Ge are finely bedding and schistosity, so the amplitude value is small due to unevenness along the bedding and schistosity. and the wavelength becomes smaller. In the rock group Gc, which is soft rock/massive rock (for example, tuff breccia with low degree of consolidation), since the face surface by excavation is smooth, there is almost no unevenness, the amplitude value is small, and the wavelength is long. . The rock
(5-3)割れ目間隔判定部133C
図12は、割れ目間隔判定部133Cによる割れ目間隔の判定処理の一例を示す説明図である。割れ目間隔判定部133Cは、区分領域102に対応する画像データに対してエッジを検出するエッジ検出処理を行い、エッジ検出処理により検出されたエッジのエッジ密度に基づいて、エッジ密度と割れ目間隔との関係が定められた対応関係情報を参照することにより、割れ目間隔を区分領域102毎に判定する。
(5-3) Crack
FIG. 12 is an explanatory diagram showing an example of crack interval determination processing by the crack
割れ目間隔判定部133Cは、例えば、Canny法等の任意のエッジ検出処理により画像データからエッジを検出し、エッジ密度を算出する。そして、割れ目間隔判定部133Cは、エッジ密度と割れ目間隔との関係が、例えば、岩石の種別毎に定められた対応関係情報を参照し、岩石グループ判定部133Bにより判定された岩石グループの対応関係情報において、上記のようにして算出されたエッジ密度に対応付けられた割れ目間隔を特定することにより、割れ目間隔を判定する。
The crack
なお、対応関係情報は、岩石の種類別に複数定められたものとして説明したが、これに限られず、例えば、他の観察項目別に複数定められていてもよいし、1つの対応関係情報が定められたものでもよい。 It should be noted that although a plurality of pieces of correspondence information have been defined for each type of rock, the present invention is not limited to this. Anything is fine.
(5-4)割れ目形態判定部133D
図13は、割れ目形態判定部133Dによる割れ目形態の判定処理の一例を示す説明図である。割れ目形態判定部133Dは、ラフネス数値化部131がラフネス特徴量をラフネス近似モデルに近似したときの走査線の走査方向に応じた波長の特性に基づいて、割れ目形態を区分領域102毎に判定する。
(5-4) Crack
FIG. 13 is an explanatory diagram showing an example of the crack shape determination processing by the crack
ラフネス数値化部131により走査線に沿って数値化されたラフネス特徴量は、割れ目形態の推定に利用可能である。上下左右及び斜め方向に設定された走査線において、高低差の繰り返しの距離である波長λが、走査線の方向によらず概ね一定である場合(所定の基準値の範囲内)には、割れ目形態判定部133Dは、その区画領域の割れ目形態は「ランダム方形」又は「土砂状」であると判定する。一方、走査線の方向により波長λが大きく異なる場合(所定の基準値の範囲外)には、割れ目形態判定部133Dは、その区画領域の割れ目形態は「柱状」又は「層状」であると判定する。
The roughness feature quantity quantified along the scanning line by the
(5-5)評価区分推論部133E
図14は、評価区分推論部133Eによる観察項目に関する評価区分の推論処理の一例を示す説明図である。評価区分推論部133Eは、区分領域102に対応する画像データを、機械学習モデルに入力することにより、評価区分を区分領域102毎に推論する。評価区分推論部133Eにより用いられる機械学習モデルは、切羽が撮影された学習用画像データと、当該切羽Fに対して観察項目に関する評価区分が付与された正解ラベルとを含む教師データにより機械学習が行われたものである。
(5-5) Evaluation
FIG. 14 is an explanatory diagram showing an example of the evaluation classification inference process for the observation item by the evaluation
推論対象の観察項目としては、例えば、圧縮強度、風化変質、割れ目間隔、割れ目形態、割れ目状態、岩石グループ等が挙げられる。評価区分推論部133Eは、これらのうち少なくとも1つの観察項目に対して評価区分を推定するようにすればよい。なお、割れ目間隔、割れ目形態、割れ目状態、及び、岩石グループの各観察項目は、上記の割れ目間隔判定部133C、割れ目形態判定部133D、及び、岩石グループ判定部133Bにより判定可能であるが、評価区分推論部133Eは、これらに代えて各観察項目を推論してもよいし、これらと併用して各観察項目を推論してもよい。
Observation items to be inferred include, for example, compressive strength, weathering alteration, fracture interval, fracture morphology, fracture state, rock group, and the like. The evaluation
機械学習モデルは、例えば、畳み込みニューラルネットワークで構成され、図14に示すように、観察項目毎に作成されるのが好ましい。例えば、圧縮強度に関する機械学習モデルは、切羽が撮影された学習用画像データと、当該切羽Fに対して圧縮強度に関する評価区分が付与された正解ラベルとを含む教師データにより機械学習が行われたものである。評価区分推論部133Eは、区画領域に対応する画像データを、学習済みの機械学習モデルに入力することにより、その区画領域に対して圧縮強度に関する評価区分を推論する。その際、画像データは、所定のサイズを有する小領域の画像に分割された状態で機械学習モデルにそれぞれ入力されてもよく、その場合には、評価区分推論部133Eは、区画領域に含まれる小領域単位で圧縮強度に関する評価区分を推論するようにしてもよい。その他の観察項目に関する機械学習モデルは、上記と同様に構成されるため、説明を省略する。
The machine learning model is composed of, for example, a convolutional neural network, and is preferably created for each observation item as shown in FIG. For example, a machine learning model for compressive strength is machine-learned using teacher data including learning image data in which a face is photographed and a correct label to which an evaluation category for compressive strength is assigned to the face F. It is. The evaluation
(6)切羽領域評価処理部134による切羽領域評価処理
切羽領域評価処理部134は、切羽抽出部130により抽出された切羽領域101に対して、切羽Fに関する観察項目を評価結果として評価する。切羽領域評価処理部134は、各種の観察項目を評価するため、図4に示すように、第1の連続性割れ目検出部134A、第2の連続性割れ目検出部134B、第3の連続性割れ目検出部134C、人工物検出部134D、第1の肌落ち危険箇所予測部134E、及び、第2の肌落ち危険箇所予測部134F、及び、肌落ち危険箇所評価部134Gを備える。以下に各部(各工程)134A~133Gの詳細を説明する。
(6) Face Region Evaluation Processing by Face Region
(6―1)第1の連続性割れ目検出部134A
図15は、第1の連続性割れ目検出部134Aによる連続性割れ目の判定処理の一例を示す説明図である。第1の連続性割れ目検出部は、点群データに基づいて、切羽面上に連続して形成された連続性割れ目を検出する。具体的には、第1の連続性割れ目検出部は、切羽領域101に対応する点群データから構成される三角網の各辺から、共通の辺を含む2つの三角形の法線ベクトルがなす角度に基づいて連続性割れ目の一部をなすエッジの候補を抽出し、候補同士の連続性を判定することにより、切羽領域101に存在する連続性割れ目を検出する。
(6-1) First
FIG. 15 is an explanatory diagram showing an example of continuity break determination processing by the first
点群データでは、三角網により切羽面の凸凹形状が表現されるが、個々の三角形の各辺は、切羽面の凸凹のエッジを表すものと、便宜上の区切り線を表すものとが混在している。そのため、切羽面の凸凹のエッジを表す三角形の辺を抽出し、その抽出した各辺の連続性を考慮することで、連続性割れ目を識別する。 In the point cloud data, the uneven shape of the face surface is represented by a triangular network, but each side of each triangle represents the uneven edge of the face surface and the dividing line for convenience. there is Therefore, by extracting the sides of the triangle representing the uneven edges of the face and considering the continuity of each of the extracted sides, the continuity cracks are identified.
隣接する2つの三角形A、Bに共通する辺abが、凸凹のエッジを表す否かの判定(エッジ判定処理)は、図15に示すように、三角形A、Bの法線ベクトルnA、nBがなす角度に基づいて行われる。例えば、2つの法線ベクトルnA、nBがなす角度θが、0°又は180°に対して所定の閾値範囲内にある場合には、三角形A、Bは、同一平面上にあるとみなされるため、辺abは、凸凹のエッジではないと判定し、そうでない場合には、辺abは、凸凹のエッジであると判定する。その際、法線ベクトルnA、nBのなす角度θを求めて判定してもよいし、法線ベクトルnA、nBの内積で判定してもよい。 Determination (edge determination processing) of whether or not the side ab common to two adjacent triangles A and B represents an uneven edge is performed, as shown in FIG. It is done based on the angle to make. For example, if the angle θ formed by the two normal vectors nA and nB is within a predetermined threshold range with respect to 0° or 180°, the triangles A and B are considered to be on the same plane. , the side ab is determined not to be a bumpy edge; otherwise, the side ab is determined to be a bumpy edge. At that time, the angle θ formed by the normal vectors nA and nB may be obtained for determination, or the inner product of the normal vectors nA and nB may be used for determination.
第1の連続性割れ目検出部は、隣接する2つの三角形が共有する全ての辺に対して上記のエッジ判定処理を行い、連続性割れ目の一部をなすエッジの候補を抽出する。そして、エッジの候補同士の連続性は、抽出したエッジの各候補について、エッジの候補同士に連続性があるか否かの判定(連続性判定処理)を行い、連続するエッジ同士を折れ線として連結することで、グループ分けを行う。連続性判定処理では、判定対象の2つのエッジを線分ベクトルとし、両者の線分ベクトルのなす角度が所定の閾値以下の場合には、連続すると判定し、そうでない場合には、分断すると判定する。第1の連続性割れ目検出部は、グループ分けされた折れ線のうち、所定の閾値よりも短い折れ線を削除し、さらに、直進性の高いものを選択することで、連続性割れ目を検出する。 The first continuity break detection unit performs the above-described edge determination processing on all sides shared by two adjacent triangles, and extracts edge candidates forming a part of the continuity break. The continuity between the edge candidates is determined by determining whether or not there is continuity between the extracted edge candidates (continuity determination processing), and connecting the continuous edges as a polygonal line. By doing so, grouping is performed. In the continuity determination process, the two edges to be determined are defined as line segment vectors, and if the angle between the two line segment vectors is equal to or less than a predetermined threshold value, it is determined that they are continuous, and if not, it is determined that they are separated. do. The first continuity break detection unit detects a continuity break by deleting a polygonal line shorter than a predetermined threshold among the grouped polygonal lines and selecting a line with high straightness.
(6―2)第2の連続性割れ目検出部134B
図16は、第2の連続性割れ目検出部134Bによる連続性割れ目の判定処理の一例を示す説明図である。第2の連続性割れ目検出部は、画像データに基づいて、切羽面上に連続して形成された連続性割れ目を検出する。具体的には、第2の連続性割れ目検出部は、切羽領域101に対応する画像データを、機械学習モデルに入力することにより、切羽領域101に存在する連続性割れ目を検出する。第2の連続性割れ目検出部により用いられる機械学習モデルは、例えば、畳み込みニューラルネットワークで構成され、切羽が撮影された学習用画像データと、当該切羽Fに形成された連続性割れ目に対して付与された正解ラベルとを含む教師データにより機械学習が行われたものである。
(6-2) Second
FIG. 16 is an explanatory diagram showing an example of continuity break determination processing by the second
(6―3)第3の連続性割れ目検出部134C
図17は、第3の連続性割れ目検出部134Cによる連続性割れ目の判定処理の一例を示す説明図である。第3の連続性割れ目検出部は、画像データ及び点群データに基づいて、切羽面上に連続して形成された連続性割れ目を検出する。具体的には、第3の連続性割れ目検出部は、切羽領域101に対応する画像データに対してエッジを検出するエッジ検出処理を行い、エッジ検出処理により検出されたエッジを、点群データに対して割れ目卓越方向判定部133Aにより判定された区分領域102毎の割れ目卓越方向にフィッティングすることにより、切羽領域101に存在する連続性割れ目を検出する。
(6-3) Third
FIG. 17 is an explanatory diagram showing an example of continuity break determination processing by the third
第3の連続性割れ目検出部は、例えば、Canny法等の任意のエッジ検出処理により画像データからエッジを検出する。そして、第3の連続性割れ目検出部は、その検出されたエッジを、例えば、最小二乗法、スパースモデリングにより、区分領域102毎の割れ目卓越方向にフィッティングするフィッティング処理を行うことにより、連続性割れ目を検出する。
The third continuity break detection unit detects edges from the image data by arbitrary edge detection processing such as the Canny method. Then, the third continuity break detection unit performs a fitting process of fitting the detected edge to the break dominant direction of each
(6-4)人工物検出部134D
図18は、人工物検出部134Dによる人工物の検出処理の一例を示す説明図である。人工物検出部134Dは、対象領域100に対応する画像データに基づいて、対象領域100に存在する人工物を検出する。具体的には、人工物検出部134Dは、対象領域100に対応する画像データを、切羽領域101に対応する画像データと、切羽領域101以外(例えば、支保領域や路盤部領域)に対応する画像データとに分けて、それらの画像データを、機械学習モデルにそれぞれ入力することにより、切羽領域101に存在する人工物と、切羽領域101以外に存在する人工物とをそれぞれ検出する。人工物検出部134Dにより用いられる機械学習モデルは、切羽が撮影された学習用画像データと、当該切羽又はその周囲に設置された人工物に対して付与された正解ラベルとを含む教師データにより機械学習が行われたものである。
(6-4)
FIG. 18 is an explanatory diagram showing an example of an artifact detection process by the
検出対象の人工物としては、例えば、鋼製支保、ロックボルト、鏡ボルト、先受工、黒板、人、人や機械類の影等が挙げられる。人工物検出部134Dは、これらのうち少なくとも1つの人工物を検出するようにすればよい。切羽領域101における検出対象の人工物は、例えば、鏡ボルト、先受工、黒板、人、人や機械類の影等であり、切羽領域101以外の支保領域や路盤部領域における検出対象の人工物は、例えば、ロックボルト、鋼製支保、黒板、人、人や機械類の影等であるが、これらの例に限られない。図18には、人工物検出部134Dが、切羽領域101に対して複数の先受工を検出するとともに、支保領域に対して複数のロックボルトを検出した場合が例示されている。
Artifacts to be detected include, for example, steel supports, rock bolts, mirror bolts, pre-construction works, blackboards, people, shadows of people and machinery, and the like. The
機械学習モデルは、例えば、畳み込みニューラルネットワークで構成され、切羽領域101に対応する画像データから人工物を検出するための機械学習モデルと、切羽領域101以外に対応する画像データから人工物を検出するための機械学習モデルとは、共通の機械学習モデルとして作成されてもよいし、別々の機械学習モデルとして作成されてもよい。また、機械学習モデルは、検出対象の人工物の種類毎に作成されてもよい。さらに、画像データは、所定のサイズを有する小領域の画像に分割された状態で機械学習モデルにそれぞれ入力されてもよく、その場合には、人工物検出部134Dは、対象領域100に含まれる小領域単位で人工物を検出するようにしてもよい。
The machine learning model is composed of, for example, a convolutional neural network, and includes a machine learning model for detecting artifacts from image data corresponding to the
(6-5)第1の肌落ち危険箇所予測部134E
図19は、肌落ち危険個所の予測処理の一例を示す説明図である。第1の肌落ち危険箇所予測部134Eは、点群データに基づいて、切羽Fにおいて肌落ちの危険性が存在する箇所を示す肌落ち危険個所を予測する。具体的には、第1の肌落ち危険箇所予測部134Eは、図19に示すように、割れ目卓越方向判定部133Aにより判定された区分領域102毎の割れ目卓越方向をステレオネットに大円投影し、少なくとも三方向に延びる割れ目卓越方向により閉多角形が形成された場合、当該閉多角形に対応する切羽の範囲を、肌落ち危険個所として予測する。
(6-5) First skin-spotting risk
FIG. 19 is an explanatory diagram showing an example of prediction processing of a risky skin-spotting area. Based on the point cloud data, the first skin removal risk
第1の肌落ち危険箇所予測部134Eでは、点群データに対して割れ目卓越方向判定部133Aにより判定された区分領域102毎の割れ目卓越方向を幾何学的に利用して、肌落ち危険箇所を予測する。例えば、割れ目卓越方向を、ステレオネットに大円として投影し、ステレオネット上に球面三角形が形成される場合、その球面三角形に対応する領域が、切羽面から抜け出し可能なブロックと予測される。
The first skin-spotting risk
(6-6)第2の肌落ち危険箇所予測部134F
第2の肌落ち危険箇所予測部134Fは、画像データに基づいて、切羽Fにおいて肌落ちの危険性が存在する箇所を示す肌落ち危険個所を予測する。具体的には、第2の肌落ち危険箇所予測部134Fは、図19に示すように、切羽領域101に対応する画像データを、切羽が撮影された学習用画像データと、当該切羽Fにおいて肌落ちの危険性が存在する肌落ち危険個所に対して付与された正解ラベルとを含む教師データにより機械学習が行われた機械学習モデルに入力することにより、切羽領域101に存在する肌落ち危険個所を予測する。
(6-6) Second skin removal risk
The second skin-spotting hazard
機械学習モデルは、例えば、畳み込みニューラルネットワークで構成される。画像データは、所定のサイズを有する小領域の画像に分割された状態で機械学習モデルにそれぞれ入力されてもよく、その場合には、第2の肌落ち危険箇所予測部134Fは、切羽領域101に含まれる小領域単位で肌落ちの危険性が存在するか否かを推論するようにしてもよい。 A machine learning model is composed of, for example, a convolutional neural network. The image data may be input to the machine learning model in a state of being divided into images of small regions having a predetermined size. It may be inferred whether or not there is a risk of skin fading for each small area included in .
(6-7)肌落ち危険箇所評価部134G
肌落ち危険箇所評価部134Gは、図19に示すように、第1の肌落ち危険箇所予測部134Eによる予測結果と、前記第2の肌落ち危険箇所予測部134Fによる予測結果とに基づいて、肌落ち危険箇所を予測する、具体的には、肌落ち危険箇所評価部134Gは、第1の肌落ち危険箇所予測部134Eにより予測された肌落ち危険箇所と、第2の肌落ち危険箇所予測部134Fにより予測された肌落ち危険箇所とを比較し、その比較結果として一致度が高い肌落ち危険箇所に対して危険性が高いと判定する。
(6-7) Skin-spotting danger
As shown in FIG. 19, the skin-spotting risk
なお、肌落ち危険箇所評価部134Gは、他の観察項目を考慮して肌落ち危険箇所を予測するようにしてもよい。例えば、肌落ち危険箇所評価部134Gは、人工物検出部134Dにより検出された人工物として、例えば、鏡ボルトが設置されていることが検出された場合には、肌落ちの危険性が高いと判定するようにしてもよい。また、第1の肌落ち危険箇所予測部134E及び第2の肌落ち危険箇所予測部134Fのいずれか一方が省略された場合には、肌落ち危険箇所評価部134Gは、他方の肌落ち危険箇所評価部により予測された肌落ち危険箇所をそのまま出力するようにしてもよいし、肌落ち危険箇所評価部134G自体が、省略されてもよい。
Note that the skin removal risk
(7)支援情報出力部14による支援情報出力処理
支援情報出力部14は、上記のように、切羽評価部13による各観察項目に対する切羽Fの評価結果に基づいて、支援情報として、切羽観察シート情報15、切羽スケッチ情報16等を生成し、データ記憶出力、画面表示出力、印刷出力等の出力形態により出力する。
(7) Support Information Output Processing by Support
図20は、切羽観察シート情報15の印刷出力例である切羽観察シート150を示す図である。切羽観察シート150は、各観察項目に対する切羽Fの評価結果を所定の様式に則って記録したものである。図20の例では、切羽観察シート150は、切羽Fに関する情報が記録された切羽情報欄151と、切羽Fの評価結果が記録された評価区分欄152とを備える。
FIG. 20 is a diagram showing a
切羽情報欄151には、例えば、現場名称、現場位置、観察日時等が記録される。評価区分欄152には、例えば、圧縮強度、風化変質、割れ目間隔、割れ目状態、走向傾斜(割れ目卓越方向)等に対する評価区分が記録される。
The
図20に示す評価区分欄152では、切羽Fを、天端、左肩及び右肩という3つの領域に分割したときの各領域に対する評価区分がそれぞれ記録されたものである。これは、切羽評価部13(特に区分領域評価処理部133)により各観察項目に対して区分領域102毎に評価された評価結果を、各区分領域102と、天端、左肩及び右肩という3つの領域とが重なり合う面積比に基づいて、区分領域102毎の評価結果を重み付け加算することで、天端、左肩及び右肩に対する評価結果に換算したものである。
In the
なお、支援情報出力部14は、天端、左肩及び右肩という3つの領域毎の評価結果を記録した切羽観察シート情報15に代えて又は加えて、区分領域102毎の評価結果を記録した切羽観察シート情報15を出力するようにしてもよい。また、切羽観察シート情報15の様式として、切羽観察シート情報15に含まれる観察項目、評価結果のレイアウト、評価結果の出力形式(点数形式、表形式、グラフ形式、画像重畳形式等)等は、図20の例に限られず、適宜変更されてもよく、例えば、管理者や作業者により変更可能であってもよい。
Incidentally, the support
図21は、切羽スケッチ情報16の画面表示例である切羽スケッチ画面160を示す図である。切羽スケッチ画面160は、画像データを表示する表示画面上に、各観察項目に対する切羽Fの評価結果を重畳して表示するものである。図21の例では、切羽スケッチ画面160は、切羽Fに関する情報を表示する切羽情報欄161と、切羽Fの画像データを表示する画像表示領域162と、切羽領域101、区分領域102及び各種の観察項目のうち画像表示領域162内に表示する対象を選択する表示項目選択欄163と、表示項目選択欄163の選択項目に従って画像表示領域162内に切羽Fの評価結果を表示する表示マーカ164とを備える。
FIG. 21 is a diagram showing a
切羽情報欄161には、例えば、現場名称、現場位置、観察日時等が表示される。画像表示領域162には、画像データ取得部11により取得された画像データが表示される。画像表示領域162は、画像の拡大・縮小が変更可能に構成されるとともに、作業者や管理者による画面上でのスケッチ操作を受付可能に構成される。なお、画像表示領域162には、色補正部110により色補正が行われる前の画像が表示されてもよいし、色補正が行われた後の画像が表示されてもよい。
The
表示項目選択欄163は、観察項目の選択肢として、例えば、走向傾斜(割れ目卓越方向)、岩石グループ、圧縮強度、風化変質、割れ目間隔、割れ目形態、割れ目状態、連続性割れ目、人工物、肌落ち危険箇所等を有する。
The display
表示マーカ164は、切羽領域101及び区分領域102の外周を枠線で描画したり、各観察項目の評価結果をそれぞれ表示したりする。その際、表示マーカ164は、各観察項目の評価結果を、画像上にて対応する位置に重畳するように表示されてもよいし、引き出し線等で対応関係が分かるようにして表示されてもよい。また、表示マーカ164の表示形態(色、模様等)等は、図21の例に限られず、適宜変更されてもよく、例えば、管理者や作業者により変更可能であってもよい。
The
以上のように、本実施形態に係る切羽評価支援装置4によれば、切羽抽出部130が、画像データ及び点群データの少なくとも一方に基づいて、切羽Fに対応する切羽領域101を抽出し、ラフネス数値化部131が、点群データに基づいて、切羽領域101における切羽面のラフネスをラフネス特徴量として数値化し、領域区分部132が、ラフネス特徴量の分布に基づいて、切羽領域101を区分領域102に区分し、区分領域評価処理部133が、切羽Fに関する観察項目を区分領域102毎に評価する。そのため、切羽Fに対応する切羽領域101が区分領域102に区分され、切羽Fに関する観察項目が区分領域102毎に評価される。したがって、切羽Fの評価に際して評価品質を向上させることができる。
As described above, according to the face
また、区分領域評価処理部133が、上記のように、各部133A~133Eを備えることにより、各観察項目について区分領域102毎に評価することができる。さらに、切羽領域評価処理部134が、上記のように、各部134A~134Gを備えることにより、各観察項目について切羽領域101全体を評価することができる。
In addition, the sectioned area
(他の実施形態)
本発明は上述した実施形態に制約されるものではなく、本発明の主旨を逸脱しない範囲内で種々変更して実施することが可能である。そして、それらはすべて、本発明の技術思想に含まれるものである。
(Other embodiments)
The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention. All of them are included in the technical idea of the present invention.
上記実施形態では、切羽評価支援プログラム10は、記憶部40に記憶されたものとして説明した。これに対し、切羽評価支援プログラム10は、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、DVD等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、切羽評価支援プログラム10は、外部の装置からネットワーク7経由でダウンロードさせることにより提供されてもよい。また、切羽評価部13で用いられる各種の機械学習モデルは、記憶部40に記憶されていてもよいし、外部の装置に記憶されて、ネットワーク7経由でアクセスしてもよい。
In the above embodiment, the face
上記実施形態では、機械学習モデルを用いた機械学習の具体的な手法として、畳み込みニューラルネットワークを採用した場合について説明したが、機械学習モデルは、任意の他の機械学習の手法(教師あり学習だけでなく、教師なし学習や強化学習も含む)を採用してもよい。他の機械学習の手法としては、例えば、決定木、回帰木等のツリー型、バギング、ブースティング等のアンサンブル学習、再帰型ニューラルネットワーク等の他のニューラルネット型(ディープラーニングを含む)、階層型クラスタリング、非階層型クラスタリング、k近傍法、k平均法等のクラスタリング型、主成分分析、因子分析、ロジスティク回帰等の多変量解析、サポートベクターマシン等が挙げられる。 In the above embodiment, a case where a convolutional neural network is adopted as a specific method of machine learning using a machine learning model was explained, but the machine learning model can be any other machine learning method (supervised learning only). (including unsupervised learning and reinforcement learning) may be adopted. Other machine learning methods include, for example, tree types such as decision trees and regression trees, ensemble learning such as bagging and boosting, other neural network types such as recurrent neural networks (including deep learning), and hierarchical types. Clustering, non-hierarchical clustering, k-nearest neighbor method, clustering type such as k-means method, principal component analysis, factor analysis, multivariate analysis such as logistic regression, support vector machine, and the like.
1…切羽評価支援システム、2…画像撮影装置、3…三次元形状計測装置、
4…切羽評価支援装置、5…作業者端末装置、6…管理者端末装置、7…ネットワーク、
10…切羽評価支援プログラム、
11…画像データ取得部、12…点群データ取得部、13…切羽評価部、
14…支援情報出力部、15…切羽観察シート情報、16…切羽スケッチ情報、
20…色見本、
40…記憶部、41…制御部、42…入力部、43…表示部、44…通信部、
45…外部機器I/F部、46…メディア入出力部、
100…対象領域、101…切羽領域、102…区分領域、110…色補正部、
130…切羽抽出部、131…ラフネス数値化部、132…領域区分部、
133…区分領域評価処理部、133A…割れ目卓越方向判定部、
133B…岩石グループ判定部、133C…割れ目間隔判定部、
133D…割れ目形態判定部、133E…評価区分推論部、
134…切羽領域評価処理部、134A…第1の連続性割れ目検出部、
134B…第2の連続性割れ目検出部、134C…第3の連続性割れ目検出部、
134D…人工物検出部、134E…第1の肌落ち危険箇所予測部、
134F…第2の肌落ち危険箇所予測部、134G…肌落ち危険箇所評価部、
150…切羽観察シート、151…切羽情報欄、152…評価区分欄、
160…切羽スケッチ画面、161…切羽情報欄、162…画像表示領域、
163…表示項目選択欄、164…表示マーカ、400…切羽管理データベース
1... face evaluation support system, 2... image capturing device, 3... three-dimensional shape measuring device,
4... Face evaluation support device, 5... Worker terminal device, 6... Administrator terminal device, 7... Network,
10 ... face evaluation support program,
11... Image data acquisition unit, 12... Point cloud data acquisition unit, 13... Face evaluation unit,
14... support information output unit, 15... face observation sheet information, 16... face sketch information,
20 ... color sample,
40... Storage unit, 41... Control unit, 42... Input unit, 43... Display unit, 44... Communication unit,
45... External device I/F section, 46... Media input/output section,
100... Target area, 101... Face area, 102... Division area, 110... Color correction unit,
130... Face extraction unit, 131... Roughness quantification unit, 132... Region division unit,
133... Segmented area evaluation processing unit, 133A... Split dominant direction determination unit,
133B... rock group determination unit, 133C... fracture interval determination unit,
133D ... fracture morphology determination unit, 133E ... evaluation classification inference unit,
134 ... face area evaluation processing unit, 134A ... first continuity crack detection unit,
134B... second continuity break detector, 134C... third continuity break detector,
134D...artificial object detection unit, 134E...first skin removal risk location prediction unit,
134F...Second skin-spotting risk point prediction unit, 134G...Skin-spotting risk point evaluation unit,
150... face observation sheet, 151... face information column, 152... evaluation category column,
160... face sketch screen, 161... face information column, 162... image display area,
163... Display item selection column, 164... Display marker, 400... Face management database
Claims (14)
前記対象領域の三次元形状が計測された点群データを取得する点群データ取得部と、
前記画像データ及び前記点群データに基づいて、前記切羽を評価する切羽評価部と、
前記切羽評価部による評価結果に基づいて、支援情報を出力する支援情報出力部とを備え、
前記切羽評価部は、
前記画像データ及び前記点群データの少なくとも一方に基づいて、前記対象領域から前記切羽に対応する切羽領域を抽出する切羽抽出部と、
前記点群データに基づいて、前記切羽領域に対して複数の走査方向に設定された複数の走査線に沿って前記切羽領域における切羽面のラフネスをラフネス特徴量として数値化するラフネス数値化部と、
複数の前記走査線が交差する各交点に対して前記ラフネス特徴量の代表値を求め、前記交点毎の前記代表値の分布に基づいて、前記切羽領域を区分領域に区分する領域区分部と、
前記領域区分部により前記切羽領域が区分された区分領域毎に、前記切羽に関する観察項目を前記評価結果として評価する区分領域評価処理部とを備える、
切羽評価支援装置。 an image data acquisition unit that acquires image data in which a target region including a face of a tunnel is photographed;
a point cloud data acquisition unit that acquires point cloud data in which the three-dimensional shape of the target region is measured;
a face evaluation unit that evaluates the face based on the image data and the point cloud data;
a support information output unit that outputs support information based on the evaluation result of the face evaluation unit;
The face evaluation unit is
a face extraction unit that extracts a face region corresponding to the face from the target region based on at least one of the image data and the point cloud data;
a roughness quantifying unit that quantifies the roughness of the face surface in the face region as a roughness feature amount along a plurality of scanning lines set in a plurality of scanning directions with respect to the face region, based on the point cloud data; ,
an area division unit that obtains a representative value of the roughness feature amount for each intersection point where the plurality of scanning lines intersect, and divides the face area into division areas based on the distribution of the representative value for each intersection point;
a segmented region evaluation processing unit that evaluates an observation item related to the face as the evaluation result for each segmented region in which the face region is segmented by the region segmentation unit;
Face evaluation support device.
前記切羽領域に対応する前記点群データから構成される三角網の各法線ベクトルを前記区分領域毎にステレオネットに極投影し、
前記ステレオネット上に極投影されたプロットの分布に基づいて、前記切羽面において卓越する割れ目の走向傾斜を示す割れ目卓越方向を前記区分領域毎に判定する割れ目卓越方向判定部を備える、
請求項1に記載の切羽評価支援装置。 The segmented area evaluation processing unit
each normal vector of a triangular network formed from the point cloud data corresponding to the face region is polar projected onto a stereo net for each of the segmented regions;
Based on the distribution of plots polar-projected on the stereo net, a crack predominant direction determining unit for determining, for each of the divided regions, a predominant crack direction indicating the strike and inclination of the crack that is predominant in the face surface,
The face evaluation support device according to claim 1.
前記ラフネス特徴量として、前記切羽領域に対応する前記点群データを複数の前記走査線に沿って周期関数によりそれぞれ近似したときのラフネス近似モデルの振幅値及び波長を数値化し、
前記区分領域評価処理部は、
前記振幅値及び前記波長に基づいて、前記切羽面を構成する岩石の種別を示す岩石グループを前記区分領域毎に判定する岩石グループ判定部を備える、
請求項1又は請求項2に記載の切羽評価支援装置。 The roughness quantification unit
quantifying the amplitude value and wavelength of the roughness approximation model when the point cloud data corresponding to the face region is approximated by a periodic function along the plurality of scanning lines as the roughness feature amount,
The segmented area evaluation processing unit
a rock group determination unit that determines a rock group indicating a type of rock forming the face surface for each of the divided areas based on the amplitude value and the wavelength;
The face evaluation support device according to claim 1 or 2.
前記区分領域に対応する前記画像データに対してエッジを検出するエッジ検出処理を行い、
前記エッジ検出処理により検出された前記エッジのエッジ密度に基づいて、前記エッジ密度と割れ目間隔との関係が定められた対応関係情報を参照することにより、前記割れ目間隔を前記区分領域毎に判定する割れ目間隔判定部を備える、
請求項1乃至請求項3のいずれか一項に記載の切羽評価支援装置。 The segmented area evaluation processing unit
performing edge detection processing for detecting edges on the image data corresponding to the segmented area;
Based on the edge density of the edges detected by the edge detection processing, the crack interval is determined for each of the divided regions by referring to correspondence information that defines the relationship between the edge density and the crack interval. A crack interval determination unit is provided,
The face evaluation support device according to any one of claims 1 to 3.
前記ラフネス特徴量として、前記切羽領域に対応する前記点群データを複数の前記走査線に沿って周期関数によりそれぞれ近似したときのラフネス近似モデルの波長を数値化し、
前記区分領域評価処理部は、
前記ラフネス近似モデルに近似したときの前記走査線の前記走査方向に応じた前記波長の特性に基づいて、割れ目形態を前記区分領域毎に判定する割れ目形態判定部を備える、
請求項1乃至請求項4のいずれか一項に記載の切羽評価支援装置。 The roughness quantification unit
quantifying the wavelength of the roughness approximation model when the point cloud data corresponding to the face region is approximated by a periodic function along the plurality of scanning lines as the roughness feature amount,
The segmented area evaluation processing unit
a crack morphology determination unit that determines a crack morphology for each of the divided regions based on the wavelength characteristics corresponding to the scanning direction of the scanning line when approximated to the roughness approximation model;
The face evaluation support device according to any one of claims 1 to 4.
前記区分領域に対応する前記画像データを、前記切羽が撮影された学習用画像データと、当該切羽に対して前記観察項目に関する評価区分が付与された正解ラベルとを含む教師データにより機械学習が行われた機械学習モデルに入力することにより、前記評価区分を前記区分領域毎に推論する評価区分推論部を備える、
請求項1乃至請求項5のいずれか一項に記載の切羽評価支援装置。 The segmented area evaluation processing unit
Machine learning is performed on the image data corresponding to the segmented region using teacher data including learning image data in which the face is photographed and a correct label to which the face is assigned an evaluation category related to the observation item. an evaluation classification inference unit that infers the evaluation classification for each classification area by inputting to the machine learning model obtained by
The face evaluation support device according to any one of claims 1 to 5.
前記点群データに基づいて、前記切羽面上に連続して形成された連続性割れ目を検出する第1の連続性割れ目検出部を備え、
前記第1の連続性割れ目検出部は、
前記切羽領域に対応する前記点群データから構成される三角網の各辺から、共通の前記辺を含む2つの三角形の法線ベクトルがなす角度に基づいて前記連続性割れ目の一部をなすエッジの候補を抽出し、前記候補同士の連続性を判定することにより、前記切羽領域に存在する前記連続性割れ目を検出する、
請求項1乃至請求項6のいずれか一項に記載の切羽評価支援装置。 The face evaluation unit is
A first continuity crack detection unit that detects continuity cracks continuously formed on the face surface based on the point cloud data,
The first continuity break detection unit includes:
An edge forming a part of the continuity crack based on an angle formed by normal vectors of two triangles including the common side from each side of the triangular network composed of the point cloud data corresponding to the face region. Detecting the continuity break present in the face region by extracting candidates for and determining the continuity between the candidates,
The face evaluation support device according to any one of claims 1 to 6.
前記画像データに基づいて、前記切羽面上に連続して形成された連続性割れ目を検出する第2の連続性割れ目検出部を備え、
前記第2の連続性割れ目検出部は、
前記切羽領域に対応する前記画像データを、前記切羽が撮影された学習用画像データと、当該切羽に形成された前記連続性割れ目に対して付与された正解ラベルとを含む教師データにより機械学習が行われた機械学習モデルに入力することにより、前記切羽領域に存在する前記連続性割れ目を検出する、
請求項1乃至請求項7のいずれか一項に記載の切羽評価支援装置。 The face evaluation unit is
a second continuity crack detection unit that detects a continuity crack continuously formed on the face surface based on the image data;
The second continuity break detection unit
Machine learning is performed on the image data corresponding to the face region using teacher data including learning image data in which the face is photographed and correct labels assigned to the continuity cracks formed in the face. detecting the continuity fracture present in the face region by inputting into a machine learning model performed;
The face evaluation support device according to any one of claims 1 to 7.
前記切羽領域に対応する前記点群データから構成される三角網の各法線ベクトルを前記区分領域毎にステレオネットに極投影し、
前記ステレオネット上に極投影されたプロットの分布に基づいて、前記切羽面において卓越する割れ目の走向傾斜を示す割れ目卓越方向を前記区分領域毎に判定する割れ目卓越方向判定部を備え、
前記切羽評価部は、
前記画像データ及び前記点群データに基づいて、前記切羽面上に連続して形成された連続性割れ目を検出する第3の連続性割れ目検出部を備え、
前記第3の連続性割れ目検出部は、
前記切羽領域に対応する前記画像データに対してエッジを検出するエッジ検出処理を行い、
前記エッジ検出処理により検出された前記エッジを、前記割れ目卓越方向判定部により判定された前記区分領域毎の前記割れ目卓越方向にフィッティングすることにより、前記切羽領域に存在する前記連続性割れ目を検出する、
請求項1乃至請求項8のいずれか一項に記載の切羽評価支援装置。 The segmented area evaluation processing unit
each normal vector of a triangular network formed from the point cloud data corresponding to the face region is polar projected onto a stereo net for each of the segmented regions;
Based on the distribution of plots polar-projected on the stereo net, a crack predominant direction determining unit for determining, for each of the divided regions, a predominant crack direction indicating the strike inclination of the crack that is predominant in the face surface,
The face evaluation unit is
A third continuity crack detection unit that detects a continuity crack continuously formed on the face surface based on the image data and the point cloud data,
The third continuity break detection unit
performing edge detection processing for detecting edges on the image data corresponding to the face region;
The continuity crack existing in the face region is detected by fitting the edge detected by the edge detection process to the crack dominant direction for each of the divided regions determined by the crack dominant direction determining unit. ,
The face evaluation support device according to any one of claims 1 to 8.
前記画像データに基づいて、前記対象領域に存在する人工物を検出する人工物検出部を備え、
前記人工物検出部は、
前記画像データを、前記切羽領域に対応する前記画像データと、前記切羽領域以外に対応する前記画像データとに分けて、前記切羽が撮影された学習用画像データと、当該切羽又はその周囲に設置された人工物に対して付与された正解ラベルとを含む教師データにより機械学習が行われた機械学習モデルにそれぞれ入力することにより、前記切羽領域に存在する前記人工物と、前記切羽領域以外に存在する前記人工物とをそれぞれ検出する、
請求項1乃至請求項9のいずれか一項に記載の切羽評価支援装置。 The face evaluation unit is
An artifact detection unit that detects an artifact present in the target area based on the image data,
The artifact detection unit is
The image data is divided into the image data corresponding to the face area and the image data corresponding to areas other than the face area. By respectively inputting to a machine learning model in which machine learning is performed with teacher data including the correct label given to the artificial object, the artificial object existing in the face region and the objects other than the face region detecting each of said artifacts present;
The face evaluation support device according to any one of claims 1 to 9.
前記切羽領域に対応する前記点群データから構成される三角網の各法線ベクトルを前記区分領域毎にステレオネットに極投影し、
前記ステレオネット上に極投影されたプロットの分布に基づいて、前記切羽面において卓越する割れ目の走向傾斜を示す割れ目卓越方向を前記区分領域毎に判定する割れ目卓越方向判定部を備え、
前記切羽評価部は、
前記点群データに基づいて、前記肌落ち危険個所を予測する第1の肌落ち危険箇所予測部を備え、
前記第1の肌落ち危険箇所予測部は、
前記割れ目卓越方向判定部により判定された前記区分領域毎の前記割れ目卓越方向をステレオネットに大円投影し、
少なくとも三方向に延びる前記割れ目卓越方向により閉多角形が形成された場合、当該閉多角形に対応する前記切羽の範囲を、前記肌落ち危険個所として予測する、
請求項1乃至請求項10のいずれか一項に記載の切羽評価支援装置。 The segmented area evaluation processing unit
each normal vector of a triangular network formed from the point cloud data corresponding to the face region is polar projected onto a stereo net for each of the segmented regions;
Based on the distribution of plots polar-projected on the stereo net, a crack predominant direction determining unit for determining, for each of the divided regions, a predominant crack direction indicating the strike inclination of the crack that is predominant in the face surface,
The face evaluation unit is
a first skin-spotting risk location prediction unit that predicts the skin-spotting risk location based on the point cloud data;
The first skin-spotting risk location prediction unit includes:
projecting the predominant direction of cracks for each of the divided regions determined by the predominant direction of cracks determination unit onto a stereo net;
When a closed polygon is formed by the dominant directions of the cracks extending in at least three directions, the range of the face corresponding to the closed polygon is predicted as the risk of skin falling off.
The face evaluation support device according to any one of claims 1 to 10.
前記画像データに基づいて、前記肌落ち危険個所を予測する第2の肌落ち危険箇所予測部と、
前記第1の肌落ち危険箇所予測部による予測結果と、前記第2の肌落ち危険箇所予測部による予測結果とに基づいて、前記肌落ち危険箇所を予測する肌落ち危険箇所評価部とを備え、
前記第2の肌落ち危険箇所予測部は、
前記切羽領域に対応する前記画像データを、前記切羽が撮影された学習用画像データと、当該切羽における前記肌落ち危険個所に対して付与された正解ラベルとを含む教師データにより機械学習が行われた機械学習モデルに入力することにより、前記肌落ち危険個所を予測し、
前記肌落ち危険箇所評価部は、
前記第1の肌落ち危険箇所予測部により予測された前記肌落ち危険箇所と、前記第2の肌落ち危険箇所予測部により予測された前記肌落ち危険箇所とを比較し、その比較結果として一致度が高い前記肌落ち危険箇所に対して前記危険性が高いと判定する、
請求項11に記載の切羽評価支援装置。 The face evaluation unit is
a second skin-spotting risk location prediction unit that predicts the skin-spotting risk location based on the image data;
a skin-stripping risk location evaluation unit that predicts the skin-stripping risk location based on the prediction result of the first skin-stripping risk-location prediction unit and the prediction result of the second skin-stripping risk location prediction unit. ,
The second skin-spotting risk location prediction unit,
Machine learning is performed on the image data corresponding to the face region using teacher data including learning image data in which the face is photographed and a correct label given to the risky skin fallout portion in the face. By inputting into the machine learning model, predicting the risk of skin falling,
The skin removal risk area evaluation unit
The location at risk of skin-spotting predicted by the first risky-skin-spotting prediction unit and the location at risk of skin-spotting predicted by the second risky-skin-spotting prediction unit are compared, and the comparison result is coincidence. Determining that the risk is high for the skin removal risk location with a high degree of
The face evaluation support device according to claim 11.
前記画像データとして、前記切羽とともに、所定の白黒模様を有する色見本とを含む前記対象領域がカラーにより撮影されたカラー画像データに対して色補正を行う色補正部を備え、
前記色補正部は、
前記カラー画像データをグレースケール画像に変換し、当該グレースケール画像を構成する全画素を明るさ順に並べたときの中間に位置する画素の明るさを明るさ中間値として求め、
前記全画素を、前記明るさ中間値よりも高い明るさを有する画素からなる高明度画素群と、前記明るさ中間値以下の明るさを有する画像からなる低明度画素群とに分類し、
前記色見本の白部分に相当する画素群に対して、RGBの3成分の平均値をそれぞれ求め、前記各平均値のうちの最大値を選択し、当該最大値と前記各平均値との各差分値を、前記高明度画素群に対する補正値として、前記高明度画素群の前記各画素に前記3成分別に加算することにより、前記高明度画素群を色補正し、
前記色見本の黒部分に相当する画素群に対して、前記3成分の平均値をそれぞれ求め、前記各平均値のうちの最小値を選択し、当該最小値と前記各平均値との各差分値を、前記低明度画素群に対する補正値として、前記低明度画素群の前記各画素から前記3成分別に減算することにより、前記低明度画素群を色補正する、
請求項1乃至請求項12のいずれか一項に記載の切羽評価支援装置。 The image data acquisition unit
a color correction unit that performs color correction on color image data obtained by photographing the target area in color, including the face and a color sample having a predetermined black and white pattern, as the image data;
The color corrector is
converting the color image data into a grayscale image, and determining the brightness of a pixel located in the middle when all pixels constituting the grayscale image are arranged in order of brightness as a brightness intermediate value;
classifying all the pixels into a high-brightness pixel group consisting of pixels having brightness higher than the intermediate brightness value and a low-brightness pixel group consisting of an image having brightness equal to or lower than the intermediate brightness value;
For the pixel group corresponding to the white portion of the color sample, the average values of the three components of RGB are obtained, the maximum value among the average values is selected, and the maximum value and the average values are selected. color-correcting the high-brightness pixel group by adding a difference value to each of the three components of the high-brightness pixel group as a correction value for the high-brightness pixel group;
For the pixel group corresponding to the black portion of the color sample, each average value of the three components is obtained, the minimum value of the average values is selected, and each difference between the minimum value and the average value is selected. color correcting the low-lightness pixel group by subtracting each of the three components from each of the pixels of the low-lightness pixel group as a correction value for the low-lightness pixel group;
The face evaluation support device according to any one of claims 1 to 12.
前記対象領域の三次元形状が計測された点群データを取得する点群データ取得工程と、
前記画像データ及び前記点群データに基づいて、前記切羽を評価する切羽評価工程と、
前記切羽評価工程による評価結果に基づいて、支援情報を出力する支援情報出力工程とを備え、
前記切羽評価工程は、
前記画像データ及び前記点群データの少なくとも一方に基づいて、前記対象領域から前記切羽に対応する切羽領域を抽出する切羽抽出工程と、
前記点群データに基づいて、前記切羽領域に対して複数の走査方向に設定された複数の走査線に沿って前記切羽領域における切羽面のラフネスをラフネス特徴量として数値化するラフネス数値化工程と、
複数の前記走査線が交差する各交点に対して前記ラフネス特徴量の代表値を求め、前記交点毎の前記代表値の分布に基づいて、前記切羽領域を区分領域に区分する領域区分工程と、
前記領域区分工程により前記切羽領域が区分された区分領域毎に、前記切羽に関する観察項目を前記評価結果として評価する領域評価処理工程とを備える、
切羽評価支援方法。 an image data acquisition step of acquiring image data in which a target region including the face of the tunnel is photographed;
A point cloud data acquisition step of acquiring point cloud data in which the three-dimensional shape of the target region is measured;
A face evaluation step of evaluating the face based on the image data and the point cloud data;
a support information output step of outputting support information based on the evaluation result of the face evaluation step;
The face evaluation step includes:
a face extraction step of extracting a face region corresponding to the face from the target region based on at least one of the image data and the point cloud data;
a roughness quantification step of quantifying the roughness of the face surface in the face region as a roughness feature amount along a plurality of scanning lines set in a plurality of scanning directions with respect to the face region based on the point cloud data; ,
a region segmentation step of obtaining a representative value of the roughness feature value for each intersection point where the plurality of scanning lines intersect, and segmenting the face region into segmented regions based on the distribution of the representative value for each intersection point;
an area evaluation processing step of evaluating an observation item related to the face as the evaluation result for each divided area in which the face area is divided by the area dividing step;
Face evaluation support method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021141107A JP2023034740A (en) | 2021-08-31 | 2021-08-31 | Face evaluation supporting apparatus and face evaluation supporting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021141107A JP2023034740A (en) | 2021-08-31 | 2021-08-31 | Face evaluation supporting apparatus and face evaluation supporting method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023034740A true JP2023034740A (en) | 2023-03-13 |
Family
ID=85505168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021141107A Pending JP2023034740A (en) | 2021-08-31 | 2021-08-31 | Face evaluation supporting apparatus and face evaluation supporting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023034740A (en) |
-
2021
- 2021-08-31 JP JP2021141107A patent/JP2023034740A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Valero et al. | Automated defect detection and classification in ashlar masonry walls using machine learning | |
Valikhani et al. | Machine learning and image processing approaches for estimating concrete surface roughness using basic cameras | |
Al Rousan | Characterization of aggregate shape properties using a computer automated system | |
JP7319432B2 (en) | LEARNING DATA COLLECTION DEVICE, LEARNING DATA COLLECTION METHOD, AND PROGRAM | |
Chen et al. | Bottom-up image detection of water channel slope damages based on superpixel segmentation and support vector machine | |
JP2018185552A (en) | Image analysis apparatus, image analysis method, and program | |
Arteaga | Historical map polygon and feature extractor | |
WO2020110560A1 (en) | Inspection assistance device, inspection assistance method, and inspection assistance program for concrete structure | |
Qu et al. | Concrete surface crack detection with the improved pre-extraction and the second percolation processing methods | |
Loverdos et al. | An innovative image processing-based framework for the numerical modelling of cracked masonry structures | |
Turkan et al. | Terrestrial laser scanning-based bridge structural condition assessment | |
KR102559586B1 (en) | Structural appearance inspection system and method using artificial intelligence | |
Vivekananthan et al. | Concrete bridge crack detection by image processing technique by using the improved OTSU method | |
Loverdos et al. | Geometrical digital twins of masonry structures for documentation and structural assessment using machine learning | |
CN113158829A (en) | Deep learning ore size measuring method and early warning system based on EfficientDet network | |
US20230220761A1 (en) | Systems and methods for segmenting rock particle instances | |
Talebi et al. | The development of a digitally enhanced visual inspection framework for masonry bridges in the UK | |
JP7374847B2 (en) | Face evaluation system, face evaluation learning system, face evaluation method, face evaluation learning method, computer program | |
JP6894361B2 (en) | Crack direction identification method, crack direction identification device, crack direction identification system and program on concrete surface | |
Zahs et al. | Classification of structural building damage grades from multi-temporal photogrammetric point clouds using a machine learning model trained on virtual laser scanning data | |
Lee et al. | Vibration detection of stay-cable from low-quality CCTV images using deep-learning-based dehazing and semantic segmentation algorithms | |
Hess et al. | Interactive classification of construction materials: Feedback driven framework for annotation and analysis of 3D point clouds | |
Loverdos et al. | Image2DEM: A geometrical digital twin generator for the detailed structural analysis of existing masonry infrastructure stock | |
JP2023034740A (en) | Face evaluation supporting apparatus and face evaluation supporting method | |
JP7156527B2 (en) | Road surface inspection device, road surface inspection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240409 |