JP6784239B2 - Face evaluation support system, face evaluation support method and face evaluation support program - Google Patents

Face evaluation support system, face evaluation support method and face evaluation support program Download PDF

Info

Publication number
JP6784239B2
JP6784239B2 JP2017142711A JP2017142711A JP6784239B2 JP 6784239 B2 JP6784239 B2 JP 6784239B2 JP 2017142711 A JP2017142711 A JP 2017142711A JP 2017142711 A JP2017142711 A JP 2017142711A JP 6784239 B2 JP6784239 B2 JP 6784239B2
Authority
JP
Japan
Prior art keywords
face
evaluation
image
learning
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017142711A
Other languages
Japanese (ja)
Other versions
JP2019023392A (en
Inventor
浩二 畑
浩二 畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Obayashi Corp
Original Assignee
Obayashi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=65368997&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6784239(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Obayashi Corp filed Critical Obayashi Corp
Priority to JP2017142711A priority Critical patent/JP6784239B2/en
Publication of JP2019023392A publication Critical patent/JP2019023392A/en
Application granted granted Critical
Publication of JP6784239B2 publication Critical patent/JP6784239B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、山岳トンネルにおける切羽の評価を支援するための切羽評価支援システム、切羽評価支援方法及び切羽評価支援プログラムに関する。 The present invention relates to a face evaluation support system, a face evaluation support method, and a face evaluation support program for supporting the evaluation of a face in a mountain tunnel.

トンネル工事では、切羽の地質状況の変化に応じて適切な掘削方法や支保工を選定したり、補助工法を施工したりするため、各切羽の地質状況を、切羽・坑内観察記録簿に観察記録している。この切羽・坑内観察記録簿には、切羽の地質状況のスケッチ、岩石の硬軟や亀裂頻度、湧水状況等を記載し、適切な施工法について検討する。 In tunnel construction, the geological condition of each face is recorded in the face / underground observation record book in order to select an appropriate excavation method and support work according to changes in the geological condition of the face and to construct an auxiliary construction method. doing. In this face / underground observation record book, a sketch of the geological condition of the face, the hardness and crack frequency of rocks, the condition of spring water, etc. are described, and an appropriate construction method is examined.

また、画像を用いて、切羽状況を判定する技術も検討されている(例えば、特許文献1参照。)。この文献に開示されたトンネル地山判定資料の作成方法は、デジタルカメラにより撮影されたトンネル切羽面の状況を、メモリーカードやパソコン用カードリーダを介して、画像情報としてパーソナルコンピュータに取り込んでディスプレイ上に表示する。そして、このディスプレイ上の画像と、作業員が記録した切羽面の観察結果に基づいて、地山判定プログラムによる地山判定用のデータをパーソナルコンピュータに入力し、このプログラムによる判定結果を地山判定資料として出力する。 In addition, a technique for determining a face condition using an image is also being studied (see, for example, Patent Document 1). The method of creating the tunnel ground determination material disclosed in this document is to capture the condition of the tunnel face surface taken by a digital camera into a personal computer as image information via a memory card or a card reader for a personal computer and display it on a display. Display on. Then, based on the image on the display and the observation result of the face surface recorded by the worker, the data for the ground judgment by the ground judgment program is input to the personal computer, and the judgment result by this program is ground judgment. Output as a document.

また、岩・地質の判定を明確にする基礎資料を提供するために、画像処理により特徴量を算出する技術が検討されている(例えば、非特許文献1参照。)。この文献に開示された技術では、カラー画像からの切羽部分を切出し、RGB表色系の各成分とLab色空間のa成分とb成分との散布図による分離性が検討されている。 Further, in order to provide basic data for clarifying the determination of rocks and geology, a technique for calculating features by image processing is being studied (see, for example, Non-Patent Document 1). In the technique disclosed in this document, the face portion is cut out from the color image, and the separability of each component of the RGB color system and the a component and the b component of the Lab color space is examined by a scatter plot.

また、トンネル切羽のデータ収集、画像解析による、岩判定支援システムの構築も検討されている(例えば、非特許文献2参照。)。この文献に開示された技術では、画像解析やディープラーニングといったICT技術を、トンネル切羽観察にも導入し、岩判定に要する手間の軽減というニーズが提示されている。 In addition, construction of a rock determination support system by collecting tunnel face data and image analysis is also being studied (see, for example, Non-Patent Document 2). In the technology disclosed in this document, there is a need to introduce ICT technology such as image analysis and deep learning to tunnel face observation to reduce the time and effort required for rock determination.

特開平10−39042号公報Japanese Unexamined Patent Publication No. 10-39042

三重大学学術機関リポジトリ研究教育成果コレクション、澤井康太、修士論文2015年度〔平成29年6月27日検索〕「トンネル切羽画像に対する色特徴を利用した岩領域と粘土領域の識別方法」,URL:https://mie-u.repo.nii.ac.jp/?action=repository_uri&item_id=10807&file_id=17Mie University Academic Institutional Repository Research and Education Achievement Collection, Kota Sawai, Master's Thesis 2015 [Search on June 27, 2017] "Method of identifying rock region and clay region using color characteristics for tunnel face image", URL: https //mie-u.repo.nii.ac.jp/?action=repository_uri&item_id=10807&file_id=17 国土交通省〔平成29年6月27日検索〕「No.14 トンネル切羽のデータ収集、画像解析による、岩判定支援システムの構築」,URL:http://www.mlit.go.jp/common/001183031.pdfMinistry of Land, Infrastructure, Transport and Tourism [Searched on June 27, 2017] "No. 14 Construction of rock judgment support system by data collection and image analysis of tunnel face", URL: http://www.mlit.go.jp/common /001183031.pdf

特許文献1に記載されているように、切羽の評価においては多様な観察項目が用いられている。この場合、切羽観察者の経験値や知識によって注目する観察項目が異なり、その結果、切羽評価において大きなバラツキが生じる可能性がある。山岳トンネルにおける切羽評価において、土木職員が判断を行なう場合、その判断の適否を地質専門家がフォローできることが望ましい。しかしながら、山岳トンネルの工事現場は多く、フォローの負担が大きくなる。非特許文献1に記載のように、岩・地質の判定には色を利用可能であるが、切羽・坑内観察記録簿に記録する情報は多様である。また、非特許文献2には、具体的なICT技術の活用方法は開示されていない。 As described in Patent Document 1, various observation items are used in the evaluation of the face. In this case, the observation items to be focused on differ depending on the experience value and knowledge of the face observer, and as a result, there is a possibility that a large variation may occur in the face evaluation. When civil engineering staff make a judgment in the face evaluation in a mountain tunnel, it is desirable that a geologist can follow the appropriateness of the judgment. However, there are many construction sites for mountain tunnels, and the burden of follow-up is heavy. As described in Non-Patent Document 1, colors can be used for determining rocks and geology, but the information recorded in the face and underground observation records is diverse. Further, Non-Patent Document 2 does not disclose a specific method for utilizing ICT technology.

上記課題を解決するための切羽評価支援システムは、坑内観察における切羽の撮影画像を基準画素数で分割して生成した学習用分割画像を入力層に用い、前記切羽の観察項目に対する評価区分を出力層に用いた機械学習により生成した学習結果を記憶する学習結果記憶部と、入力部と出力部とに接続された制御部とを備える。そして、前記制御部が、前記入力部から取得した評価対象の切羽画像の評価領域を、前記基準画素数で分割し、前記分割した評価対象分割画像に前記学習結果を適用して個別評価区分を取得し、前記個別評価区分に基づいて、前記評価領域の評価区分を予測し、前記出力部に出力する。 The face evaluation support system for solving the above problems uses a divided learning image generated by dividing the captured image of the face in underground observation by the reference number of pixels as an input layer, and outputs an evaluation classification for the observation item of the face. It includes a learning result storage unit that stores the learning results generated by machine learning used for the layer, and a control unit connected to the input unit and the output unit. Then, the control unit divides the evaluation region of the face image of the evaluation target acquired from the input unit by the reference pixel number, and applies the learning result to the divided evaluation target divided image to determine the individual evaluation classification. It is acquired, the evaluation category of the evaluation area is predicted based on the individual evaluation category, and the evaluation category is output to the output unit.

本発明によれば、山岳トンネルにおける切羽の的確な評価を効率的に支援することができる。 According to the present invention, it is possible to efficiently support the accurate evaluation of the face in a mountain tunnel.

本実施形態のシステムの説明図であって、(a)はシステム概要、(b)は教師データ記憶部の説明図。It is explanatory drawing of the system of this embodiment, (a) is the system outline, (b) is the explanatory view of the teacher data storage unit. 本実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the processing procedure of this embodiment. 本実施形態の画像加工の説明図であって、(a)は撮影画像、(b)は切羽の切り出し、(c)は3領域分割、(d)は画像分割の説明図。It is explanatory drawing of the image processing of this embodiment, (a) is a photographed image, (b) is a cutout of a face, (c) is a three-region division, (d) is an explanatory diagram of image division. 本実施形態のヒートマップの説明図であって、(a)は切羽面画像、(b)はヒートマップ画像の説明図。It is explanatory drawing of the heat map of this embodiment, (a) is the face surface image, (b) is the explanatory view of the heat map image.

以下、一実施形態を、図1〜図5に従って説明する。本実施形態では、山岳トンネルの切羽観察を支援するための切羽評価支援システムとして説明する。
図1(a)に示すように、本実施形態では、入力部10、出力部11を備えた評価支援装置20を用いる。
Hereinafter, one embodiment will be described with reference to FIGS. 1 to 5. In this embodiment, it will be described as a face evaluation support system for supporting face observation of a mountain tunnel.
As shown in FIG. 1A, in the present embodiment, the evaluation support device 20 including the input unit 10 and the output unit 11 is used.

入力部10は、キーボードやポインティングデバイス等、各種指示を入力するために用いる。本実施形態では、土木職員が、切羽・坑内観察記録簿に必要な観察項目を入力する場合を想定する。出力部11は、各種情報を出力するために用いる。本実施形態では、土木職員の切羽評価を支援するための情報が出力される。なお、入力部10及び出力部11の機能を兼ね備えたタッチパネルディスプレイを用いることも可能である。 The input unit 10 is used to input various instructions such as a keyboard and a pointing device. In this embodiment, it is assumed that the civil engineering staff inputs the necessary observation items in the face / underground observation record book. The output unit 11 is used to output various information. In this embodiment, information for supporting the face evaluation of civil engineering staff is output. It is also possible to use a touch panel display having the functions of the input unit 10 and the output unit 11.

評価支援装置20は、土木職員による切羽評価を支援するコンピュータシステムである。この評価支援装置20は、制御部21、教師データ記憶部22、学習結果記憶部23、切羽観察情報記憶部24を備える。 The evaluation support device 20 is a computer system that supports face evaluation by civil engineering staff. The evaluation support device 20 includes a control unit 21, a teacher data storage unit 22, a learning result storage unit 23, and a face observation information storage unit 24.

制御部21は、CPU、RAM、ROM等から構成された制御手段として機能し、後述する処理(画像加工段階、学習処理段階、評価支援段階、各観察項目の予測段階等を含む処理)を行なう。このための切羽評価支援プログラムを実行することにより、画像加工部211、学習処理部212、評価支援部213、予測部214等として機能する。 The control unit 21 functions as a control means composed of a CPU, RAM, ROM, etc., and performs processing described later (processing including an image processing stage, a learning processing stage, an evaluation support stage, a prediction stage of each observation item, and the like). .. By executing the face evaluation support program for this purpose, it functions as an image processing unit 211, a learning processing unit 212, an evaluation support unit 213, a prediction unit 214, and the like.

画像加工部211は、切羽画像の学習や評価を行なう前に必要な画像の事前加工を行なう処理を実行する。
学習処理部212は、教師データを用いた深層学習により、切羽を判定するための学習処理を実行する。本実施形態では、学習処理部212は、例えば、CNN(Convolutional Neural Network)を用いるが、これに限定されるものではない。
The image processing unit 211 executes a process of performing necessary pre-processing of the image before learning or evaluating the face image.
The learning processing unit 212 executes a learning process for determining the face by deep learning using the teacher data. In the present embodiment, the learning processing unit 212 uses, for example, a CNN (Convolutional Neural Network), but is not limited thereto.

評価支援部213は、土木職員の切羽観察を支援する処理を実行する。
予測部214は、学習処理部212による学習結果を用いて、切羽評価を支援する処理を実行する。CNNにおいては、入力層において入力された情報を用いて、多層に重ね合わせた畳み込み層、プーリング層を介して、全結合層において特徴量から最終的な判定を行なう。畳み込み層では、種々のフィルタを介して切羽の局所領域の特徴を捉える。プーリング層では、畳み込み層で得られた特徴点を代表的な数値に置き換える。本実施形態では、予測部214は、風化変質、割目間隔、割目状態をそれぞれ判定するための学習結果を保持する。なお、本実施形態では、全結合層において、畳み込み層、プーリング層から出力された特徴量に応じて、分類器(例えば、SVM:Support Vector Machine)を用いて、分析結果と切羽評点とを結び付け、分析のための閾値を決定する。
The evaluation support unit 213 executes a process of supporting the face observation of civil engineering staff.
The prediction unit 214 uses the learning result of the learning processing unit 212 to execute a process of supporting the face evaluation. In CNN, using the information input in the input layer, the final determination is made from the feature amount in the fully connected layer via the convolutional layer and the pooling layer which are overlapped in multiple layers. In the convolutional layer, the features of the local region of the face are captured through various filters. In the pooling layer, the feature points obtained in the convolutional layer are replaced with typical numerical values. In the present embodiment, the prediction unit 214 holds the learning results for determining the weathering alteration, the split interval, and the split state, respectively. In the present embodiment, in the fully connected layer, the analysis result and the face score are linked by using a classifier (for example, SVM: Support Vector Machine) according to the feature amount output from the convolutional layer and the pooling layer. , Determine the threshold for analysis.

図1(b)に示すように、教師データ記憶部22には、切羽評価のための学習を行なうための教師データ220が記録される。この教師データ220は、学習処理を行なう前に登録される。教師データ220は、画像ID、切羽画像、領域ID、評価区分(風化変質)、評価区分(割目間隔)、評価区分(割目状態)に関するデータを含んで構成される。 As shown in FIG. 1 (b), the teacher data storage unit 22 records teacher data 220 for performing learning for face evaluation. The teacher data 220 is registered before the learning process is performed. The teacher data 220 is configured to include data related to an image ID, a face image, an area ID, an evaluation category (weathering alteration), an evaluation category (split interval), and an evaluation category (split state).

画像IDデータ領域には、切羽画像を特定するための識別子に関するデータが記録される。
切羽画像データ領域には、この画像IDの切羽画像のデータが記録される。
領域IDデータ領域には、天端、左肩部、右肩部の各領域を特定するための識別子に関するデータが記録される。
In the image ID data area, data relating to an identifier for identifying the face image is recorded.
In the face image data area, the face image data of this image ID is recorded.
In the area ID data area, data relating to an identifier for identifying each area of the top end, the left shoulder portion, and the right shoulder portion is recorded.

評価区分(風化変質)データ領域には、この領域の風化変質を評価した結果に関するデータが記録される。風化変質については、「概ね新鮮」、「割れ目沿いの風化変質」、「岩芯まで風化変質」、「土砂状風化、未固結土砂」に対応させた「1〜4」によって評価する。 In the evaluation category (weathering alteration) data area, data regarding the result of evaluating the weathering alteration in this region is recorded. Weathering alteration is evaluated by "1 to 4" corresponding to "generally fresh", "weathering alteration along cracks", "weathering alteration up to the rock core", and "earth and sand weathering, unconsolidated earth and sand".

評価区分(割目間隔)データ領域には、地質専門家が切羽の割目間隔を評価した結果に関するデータが記録される。割目間隔については「d≧1m」、「1m>d≧50cm」、「50cm>d≧20cm」、「20cm>d≧5cm」、「5cm>d」に対応させた「1〜5」によって評価する。 In the evaluation category (split interval) data area, data regarding the result of evaluation of the split interval of the face by a geologist is recorded. The split interval is determined by "1 to 5" corresponding to "d ≧ 1 m", "1 m> d ≧ 50 cm", "50 cm> d ≧ 20 cm", "20 cm> d ≧ 5 cm", and "5 cm> d". evaluate.

評価区分(割目状態)データ領域には、地質専門家が切羽の割目状態を評価した結果に関するデータが記録される。割目状態については「割目は密着している」、「割目の一部が開口している」、「割目の多くが開口している」、「割目が開口している幅1〜5mm」、「割目が開口し5mm以上の幅がある」に対応させた「1〜5」によって評価する。 In the evaluation category (split state) data area, data regarding the result of evaluation of the split state of the face by a geologist is recorded. Regarding the state of the splits, "the splits are in close contact", "a part of the splits are open", "many of the splits are open", and "the width of the splits is 1". It is evaluated by "1 to 5" corresponding to "~ 5 mm" and "the split is open and has a width of 5 mm or more".

学習結果記憶部23には、切羽評価のための学習結果が記録される。学習結果記憶部23には、観察項目(風化変質、割目間隔、割目状態)に応じた学習結果が記録される。この学習結果は、本実施形態では、学習処理時に記録される。 The learning result storage unit 23 records the learning result for face evaluation. The learning result storage unit 23 records learning results according to observation items (weathering alteration, split interval, split state). In the present embodiment, this learning result is recorded at the time of learning processing.

切羽観察情報記憶部24には、切羽・坑内観察による切羽観察レコードが記録される。この切羽観察レコードは、工事現場の土木職員が切羽面の評価を行なった場合に記録される。この切羽観察レコードには、通常利用されている切羽・坑内観察記録簿に用いられている項目が記録されている。例えば、観察項目(圧縮強度、風化変質、割目間隔、割目状態、走向傾斜)、評価区分(風化変質)、評価区分(割目間隔)、評価区分(割目状態)の評価区分、切羽評価点等に関するデータを含んで構成される。 The face observation information storage unit 24 records a face observation record by observing the face and underground. This face observation record is recorded when the civil engineering staff at the construction site evaluates the face surface. In this face observation record, the items used in the face / underground observation record book that are normally used are recorded. For example, observation items (compression strength, weathering alteration, split interval, split state, strike and dip symbol), evaluation category (weathered alteration), evaluation category (split interval), evaluation category (split state) evaluation category, face It is composed of data related to evaluation points and the like.

次に、図2〜図5を用いて、評価支援装置20において、切羽評価を支援する場合の処理手順について説明する。ここでは、学習処理(図2)、評価支援処理(図3)の順番で説明する。 Next, with reference to FIGS. 2 to 5, a processing procedure for supporting face evaluation in the evaluation support device 20 will be described. Here, the learning process (FIG. 2) and the evaluation support process (FIG. 3) will be described in this order.

(学習処理)
図2、図4を用いて、学習処理を説明する。
まず、図2に示すように、評価支援装置20の制御部21は、教師データの取得処理を実行する(ステップS1−1)。具体的には、制御部21の学習処理部212は、教師データ記憶部22に記録されている教師データ220を取得する。この場合、図4(a)に示す撮影画像500を取得する。
(Learning process)
The learning process will be described with reference to FIGS. 2 and 4.
First, as shown in FIG. 2, the control unit 21 of the evaluation support device 20 executes the teacher data acquisition process (step S1-1). Specifically, the learning processing unit 212 of the control unit 21 acquires the teacher data 220 recorded in the teacher data storage unit 22. In this case, the captured image 500 shown in FIG. 4A is acquired.

次に、評価支援装置20の制御部21は、切羽画像サイズの統一処理を実行する(ステップS1−2)。具体的には、制御部21の画像加工部211は、取得した教師データ220の切羽画像のサイズが一定値になるように調整する。 Next, the control unit 21 of the evaluation support device 20 executes the unification process of the face image size (step S1-2). Specifically, the image processing unit 211 of the control unit 21 adjusts the size of the face image of the acquired teacher data 220 to be a constant value.

次に、評価支援装置20の制御部21は、切羽部分の切り出し処理を実行する(ステップS1−3)。具体的には、制御部21の画像加工部211は、サイズを調整した切羽画像において、切羽部分を切り出す。この切り出しには、例えば、エッジ抽出、色判定等のパターン認識を用いることができる。この場合、図4(b)に示すように、切羽面画像510を取得する。 Next, the control unit 21 of the evaluation support device 20 executes the cutting process of the face portion (step S1-3). Specifically, the image processing unit 211 of the control unit 21 cuts out the face portion in the face image whose size has been adjusted. For this cutting out, for example, pattern recognition such as edge extraction and color determination can be used. In this case, as shown in FIG. 4B, the face surface image 510 is acquired.

次に、評価支援装置20の制御部21は、3領域分割処理を実行する(ステップS1−4)。具体的には、制御部21の画像加工部211は、円弧形状に基づいて、スプリングライン(SL)を特定する。次に、画像加工部211は、切羽部分のスプリングライン(SL)の上側を上下方向に2分割し、上方部分を天端画像として特定する。また、下方部分を左右に分割して、左肩部画像、右肩部画像として特定する。この場合、図4(c)に示すように、天端画像521、左肩部画像522、右肩部画像523を取得する。 Next, the control unit 21 of the evaluation support device 20 executes the three-region division process (step S1-4). Specifically, the image processing unit 211 of the control unit 21 identifies the spring line (SL) based on the arc shape. Next, the image processing unit 211 divides the upper side of the spring line (SL) of the face portion into two in the vertical direction, and specifies the upper portion as a top image. Further, the lower portion is divided into left and right to be specified as a left shoulder image and a right shoulder image. In this case, as shown in FIG. 4C, the top image 521, the left shoulder image 522, and the right shoulder image 523 are acquired.

次に、評価支援装置20の制御部21は、画像分割処理を実行する(ステップS1−5)。具体的には、制御部21の画像加工部211は、天端画像、左肩部画像、右肩部画像をそれぞれ所定の基準画素数(ここでは、227ピクセル×227ピクセル)の領域に分割した学習用分割画像を生成する。図4(c)においては、天端画像521〜右肩部画像523において、分割画像を生成している。この場合、図4(d)を示すような分割画像531,532,533が複数生成される。ここでは、画像の写り込んだ切羽領域が評価対象抽出基準値(本実施形態では、50%)を超える画像(例えば、分割画像531,532)を深層学習に用いる。一方、切羽領域が評価対象抽出基準値を超えない画像(例えば、分割画像533)は、深層学習に用いない。 Next, the control unit 21 of the evaluation support device 20 executes the image division process (step S1-5). Specifically, the image processing unit 211 of the control unit 21 divides the top image, the left shoulder image, and the right shoulder image into regions having a predetermined reference pixel number (here, 227 pixels × 227 pixels). Generate a split image for use. In FIG. 4C, a divided image is generated in the top image 521 to the right shoulder image 523. In this case, a plurality of divided images 531, 532, 533 as shown in FIG. 4D are generated. Here, an image (for example, divided images 531 and 532) in which the face area in which the image is reflected exceeds the evaluation target extraction reference value (50% in this embodiment) is used for deep learning. On the other hand, an image in which the face region does not exceed the evaluation target extraction reference value (for example, divided image 533) is not used for deep learning.

次に、評価支援装置20の制御部21は、分割画像毎に、以下の処理を繰り返す。
ここでは、評価支援装置20の制御部21は、評価区分の付与処理を実行する(ステップS1−6)。具体的には、制御部21の学習処理部212は、各分割画像に対して、この分割画像を切り出した領域(天端、左肩部、右肩部)を特定する。そして、学習処理部212は、分割画像を切り出した領域に基づいて、教師データ220に記録されている評価区分(風化変質、割目間隔、割目状態)を取得し、各分割画像に関連付けて、メモリに仮記憶する。
Next, the control unit 21 of the evaluation support device 20 repeats the following processing for each divided image.
Here, the control unit 21 of the evaluation support device 20 executes the evaluation classification assignment process (step S1-6). Specifically, the learning processing unit 212 of the control unit 21 specifies a region (top end, left shoulder portion, right shoulder portion) from which the divided image is cut out for each divided image. Then, the learning processing unit 212 acquires the evaluation classification (weathering alteration, split interval, split state) recorded in the teacher data 220 based on the region from which the split image is cut out, and associates it with each split image. , Temporarily store in memory.

次に、評価支援装置20の制御部21は、観察項目(風化変質、割目間隔、割目状態)毎に、以下の処理を繰り返す。
ここでは、評価支援装置20の制御部21は、深層学習処理を実行する(ステップS1−7)。具体的には、制御部21の学習処理部212は、メモリに仮記憶した分割画像を入力層として用い、この分割画像に関連付けられた評価区分を出力層に用いて深層学習を行なうことにより、各観察項目についての学習結果を算出する。この深層学習においては、分割画像の227ピクセル×227ピクセル及び各画素の色データ(RGB)を用いる。
そして、学習処理部212は、観察項目(風化変質、割目間隔、割目状態)毎に生成した学習結果を学習結果記憶部23に記録する。
Next, the control unit 21 of the evaluation support device 20 repeats the following processing for each observation item (weathering alteration, split interval, split state).
Here, the control unit 21 of the evaluation support device 20 executes the deep learning process (step S1-7). Specifically, the learning processing unit 212 of the control unit 21 uses the divided image temporarily stored in the memory as the input layer, and uses the evaluation division associated with the divided image as the output layer to perform deep learning. Calculate the learning results for each observation item. In this deep learning, 227 pixels × 227 pixels of the divided image and the color data (RGB) of each pixel are used.
Then, the learning processing unit 212 records the learning result generated for each observation item (weathering alteration, split interval, split state) in the learning result storage unit 23.

(評価支援処理)
図3を用いて、評価支援処理を説明する。
まず、評価支援装置20の制御部21は、記録簿情報の取得処理を実行する(ステップS2−1)。具体的には、土木職員は、工事現場で切羽面を撮影した撮影画像を評価支援装置20に保存する。そして、評価支援装置20において切羽・坑内観察記録の登録を指示する。この場合、評価支援部213は、出力部11に記録簿画面を出力する。この記録簿画面には、切羽画像入力欄、各観察項目も入力欄が設けられている。そして、土木職員は、入力部10を用いて、記録簿画面に、撮影画像、切羽面に基づいて判定した評価区分を入力する。この場合、評価支援部213は、入力された評価区分、撮影画像を切羽観察情報記憶部24に記録する。
(Evaluation support processing)
The evaluation support process will be described with reference to FIG.
First, the control unit 21 of the evaluation support device 20 executes the acquisition process of the record book information (step S2-1). Specifically, the civil engineering staff saves a photographed image of the face surface at the construction site in the evaluation support device 20. Then, the evaluation support device 20 instructs the registration of the face / underground observation record. In this case, the evaluation support unit 213 outputs the record book screen to the output unit 11. This record book screen is provided with a face image input field and an input field for each observation item. Then, the civil engineering staff uses the input unit 10 to input the evaluation category determined based on the photographed image and the face surface on the record book screen. In this case, the evaluation support unit 213 records the input evaluation category and captured image in the face observation information storage unit 24.

次に、評価支援装置20の制御部21は、ステップS1−2〜S1−5と同様に、切羽画像サイズの統一処理(ステップS2−2)、切羽部分の切り出し処理(ステップS2−3)、3領域分割処理(ステップS2−4)、画像分割処理(ステップS2−5)を実行する。この場合、画像分割処理により評価対象分割画像が生成される。 Next, the control unit 21 of the evaluation support device 20 performs the unification process of the face image size (step S2-2), the cutout process of the face portion (step S2-3), as in steps S1-2 to S1-5. The three-region division process (step S2-4) and the image division process (step S2-5) are executed. In this case, the evaluation target divided image is generated by the image division process.

次に、評価支援装置20の制御部21は、観察項目毎に以下の処理を繰り返す。
まず、評価支援装置20の制御部21は、観察項目の評価に用いる学習結果の特定処理を実行する(ステップS2−6)。具体的には、制御部21の予測部214は、学習結果記憶部23から、観察項目(風化変質、割目間隔、割目状態)に応じた学習結果を取得する。
Next, the control unit 21 of the evaluation support device 20 repeats the following processing for each observation item.
First, the control unit 21 of the evaluation support device 20 executes a learning result specifying process used for evaluating the observation item (step S2-6). Specifically, the prediction unit 214 of the control unit 21 acquires the learning results according to the observation items (weathering alteration, split interval, split state) from the learning result storage unit 23.

そして、3領域毎に、各領域に含まれる評価対象分割画像を順次、処理対象画像として特定し、以下の処理を繰り返す。
ここでは、評価支援装置20の制御部21は、予測処理を実行する(ステップS2−7)。具体的には、制御部21の予測部214は、処理対象画像を、学習したCNNの入力層に設定し、出力層において個別評価区分を取得する。そして、予測部214は、取得した個別評価区分をメモリに仮記憶する。なお、この場合も、深層学習時と同様に、切羽領域が評価対象抽出基準値を超える分割画像を用いて予測を行なう。
以上のようにして、処理対象領域に含まれるすべての分割画像についての評価区分を予測する。
Then, for each of the three regions, the evaluation target divided images included in each region are sequentially specified as the processing target images, and the following processing is repeated.
Here, the control unit 21 of the evaluation support device 20 executes the prediction process (step S2-7). Specifically, the prediction unit 214 of the control unit 21 sets the image to be processed in the input layer of the learned CNN, and acquires the individual evaluation classification in the output layer. Then, the prediction unit 214 temporarily stores the acquired individual evaluation classification in the memory. In this case as well, as in the case of deep learning, prediction is performed using a divided image in which the face region exceeds the evaluation target extraction reference value.
As described above, the evaluation classification for all the divided images included in the processing target area is predicted.

そして、処理対象領域に含まれるすべての分割画像についての予測を終了した場合、評価支援装置20の制御部21は、評価区分の記録処理を実行する(ステップS2−8)。具体的には、制御部21の評価支援部213は、メモリに仮記憶された個別評価区分の代表値(例えば、平均値)を算出する。そして、評価支援部213は、領域、観察項目に関連付けて算出した評価区分(統計値)をメモリに仮記憶する。
上記処理を、対象領域、観察項目について、処理を繰り返す。
Then, when the prediction for all the divided images included in the processing target area is completed, the control unit 21 of the evaluation support device 20 executes the recording process of the evaluation division (step S2-8). Specifically, the evaluation support unit 213 of the control unit 21 calculates a representative value (for example, an average value) of the individual evaluation categories temporarily stored in the memory. Then, the evaluation support unit 213 temporarily stores the evaluation category (statistical value) calculated in association with the area and the observation item in the memory.
The above processing is repeated for the target area and the observation item.

次に、評価支援装置20の制御部21は、入力値との比較処理を実行する(ステップS2−9)。具体的には、制御部21の評価支援部213は、各領域について算出した評価区分に対して、予め定められた重み付けを行ない、各観察項目についての切羽評価点を算出する。次に、評価支援部213は、切羽観察情報記憶部24に記録された評価区分を取得する。そして、評価支援部213は、領域毎、観察項目毎に、土木職員によって入力された評価区分と深層学習により算出した評価区分とを比較した結果を算出し、出力部11に表示する。 Next, the control unit 21 of the evaluation support device 20 executes a comparison process with the input value (step S2-9). Specifically, the evaluation support unit 213 of the control unit 21 performs a predetermined weighting on the evaluation categories calculated for each area, and calculates the face evaluation points for each observation item. Next, the evaluation support unit 213 acquires the evaluation classification recorded in the face observation information storage unit 24. Then, the evaluation support unit 213 calculates the result of comparing the evaluation category input by the civil engineering staff and the evaluation category calculated by deep learning for each area and each observation item, and displays it on the output unit 11.

次に、評価支援装置20の制御部21は、ヒートマップ出力処理を実行する(ステップS2−10)。具体的には、制御部21の評価支援部213は、観察項目毎に、深層学習により算出した評価区分を、分割画像の配置に応じて表示したヒートマップ画像を生成する。
図5(a)に示す切羽面画像510に対して、図5(b)に示すように、風化変質、割目間隔、割目状態に応じたヒートマップ画像540を生成する。なお、ヒートマップ画像540においては、複数の分割画像をまとめた領域の平均値を算出して配置されている。そして、評価支援部213は、生成したヒートマップ画像540を、出力部11に表示する。
Next, the control unit 21 of the evaluation support device 20 executes the heat map output process (step S2-10). Specifically, the evaluation support unit 213 of the control unit 21 generates a heat map image in which the evaluation categories calculated by deep learning are displayed according to the arrangement of the divided images for each observation item.
With respect to the face surface image 510 shown in FIG. 5 (a), as shown in FIG. 5 (b), a heat map image 540 corresponding to the weathering alteration, the split interval, and the split state is generated. In the heat map image 540, the average value of the regions in which a plurality of divided images are combined is calculated and arranged. Then, the evaluation support unit 213 displays the generated heat map image 540 on the output unit 11.

本実施形態の切羽評価支援システムによれば、以下のような効果を得ることができる。
(1)本実施形態では、評価支援装置20の制御部21は、切羽画像サイズの統一処理を実行する(ステップS1−2,S2−2)。そして、評価支援装置20の制御部21は、画像分割処理を実行する(ステップS1−5,S2−5)。画像のサイズが異なる場合には、学習時と予測時とで画像の解像度が異なるが、サイズを統一することにより、同じ画像状態で判定することができる。
According to the face evaluation support system of the present embodiment, the following effects can be obtained.
(1) In the present embodiment, the control unit 21 of the evaluation support device 20 executes the unification process of the face image size (steps S1-2 and S2-2). Then, the control unit 21 of the evaluation support device 20 executes the image division process (steps S1-5 and S2-5). When the size of the image is different, the resolution of the image is different between the time of learning and the time of prediction, but by unifying the size, it is possible to judge in the same image state.

(2)本実施形態では、評価支援装置20の制御部21は、切羽部分の切り出し処理を実行する(ステップS1−3,S2−3)。これにより、撮影画像から評価対象の切羽面を抽出することができる。 (2) In the present embodiment, the control unit 21 of the evaluation support device 20 executes the cutting process of the face portion (steps S1-3 and S2-3). As a result, the face surface to be evaluated can be extracted from the captured image.

(3)本実施形態では、評価支援装置20の制御部21は、3領域分割処理を実行する(ステップS1−4)。これにより、過去の切羽・坑内観察記録簿の情報を用いて、教師データ220を作成することができる。 (3) In the present embodiment, the control unit 21 of the evaluation support device 20 executes the three-region division process (step S1-4). As a result, the teacher data 220 can be created by using the information of the past face / underground observation record book.

(4)本実施形態では、評価支援装置20の制御部21は、評価区分の付与処理(ステップS1−6)、観察項目毎に、深層学習処理を実行する(ステップS1−7)。これにより、過去の切羽・坑内観察記録簿の情報を用いて、領域毎、観察項目毎に教師データ220を作成することができる。 (4) In the present embodiment, the control unit 21 of the evaluation support device 20 executes the evaluation classification assignment process (step S1-6) and the deep learning process for each observation item (step S1-7). Thereby, the teacher data 220 can be created for each area and each observation item by using the information of the past face / underground observation record book.

(5)本実施形態では、評価支援装置20の制御部21は、3領域分割処理を実行する(ステップS2−4)。これにより、工事現場の切羽面の領域毎に観察項目を評価することができる。 (5) In the present embodiment, the control unit 21 of the evaluation support device 20 executes the three-region division process (step S2-4). As a result, the observation items can be evaluated for each area of the face surface of the construction site.

(6)本実施形態では、評価支援装置20の制御部21は、予測処理(ステップS2−7)、評価区分の記録処理(ステップS2−8)を実行する。これにより、分割画像の評価を統合して、各3領域の評価区分を決定することができる。 (6) In the present embodiment, the control unit 21 of the evaluation support device 20 executes the prediction process (step S2-7) and the evaluation category recording process (step S2-8). As a result, the evaluation of the divided images can be integrated and the evaluation categories of each of the three regions can be determined.

(7)本実施形態では、評価支援装置20の制御部21は、入力値との比較処理を実行する(ステップS2−9)。これにより、土木職員の判定の妥当性を確認することができる。 (7) In the present embodiment, the control unit 21 of the evaluation support device 20 executes a comparison process with the input value (step S2-9). This makes it possible to confirm the validity of the judgment of the civil engineering staff.

(8)本実施形態では、評価支援装置20の制御部21は、ヒートマップ出力処理を実行する(ステップS2−10)。これにより、切羽面の分割領域毎に、各状態を確認することができる。 (8) In the present embodiment, the control unit 21 of the evaluation support device 20 executes the heat map output process (step S2-10). As a result, each state can be confirmed for each divided region of the face surface.

また、上記実施形態は、以下のように変更してもよい。
・上記実施形態では、評価支援装置20の制御部21は、評価区分の記録処理を実行する(ステップS2−8)。具体的には、制御部21の評価支援部213は、メモリに仮記憶された評価区分の代表値(例えば、平均値)を算出する。分割画像毎の評価区分を統合する際に用いる評価区分の代表値は、平均値に限定されるものではない。例えば、最も悪い評価区分を代表値として特定するようにしてもよい。
Moreover, the said embodiment may be changed as follows.
-In the above embodiment, the control unit 21 of the evaluation support device 20 executes the recording process of the evaluation category (step S2-8). Specifically, the evaluation support unit 213 of the control unit 21 calculates a representative value (for example, an average value) of the evaluation category temporarily stored in the memory. The representative value of the evaluation category used when integrating the evaluation categories for each divided image is not limited to the average value. For example, the worst evaluation category may be specified as a representative value.

・上記実施形態では、評価支援装置20の制御部21は、記録簿情報の取得処理を実行する(ステップS2−1)。そして、評価支援装置20の制御部21は、入力値との比較処理を実行する(ステップS2−9)。これに代えて、評価支援部213は、領域、観察項目に関連付けて算出した評価区分(統計値)を切羽観察情報記憶部24に記録するようにしてもよい。 -In the above embodiment, the control unit 21 of the evaluation support device 20 executes the acquisition process of the record book information (step S2-1). Then, the control unit 21 of the evaluation support device 20 executes the comparison process with the input value (step S2-9). Instead of this, the evaluation support unit 213 may record the evaluation category (statistical value) calculated in association with the area and the observation item in the face observation information storage unit 24.

・上記実施形態では、評価支援装置20の制御部21は、予測処理を実行する(ステップS2−7)。ここでは、観察項目(風化変質、割目間隔、割目状態)について評価する。評価対象の観察項目はこれらに限定されるものではなく、これらの一部や他の観察項目に適用することも可能である。例えば、評価支援装置20の制御部21が、各撮影画像を用いて、差し目や流れ目を特定する。次に、制御部21が、連続した撮影画像において、差し目や流れ目の位置や向きに基づいて相互の関連性を特定する。そして、制御部21が、関連性がある差し目や流れ目について、トンネル軸との傾きに基づいて、走向傾斜(差し目傾斜、流れ目傾斜)を判定する。これにより、一枚の撮影画像を用いて評価する場合と異なり、切羽観察情報記憶部24に記録されている連続した切羽における撮影画像を用いて、評価を支援することができる。 -In the above embodiment, the control unit 21 of the evaluation support device 20 executes the prediction process (step S2-7). Here, the observation items (weathering alteration, split interval, split state) are evaluated. The observation items to be evaluated are not limited to these, and can be applied to some of these observation items or other observation items. For example, the control unit 21 of the evaluation support device 20 identifies the seams and flow lines using each captured image. Next, the control unit 21 identifies the mutual relationship based on the positions and directions of the joints and the flow lines in the continuous captured images. Then, the control unit 21 determines the strike and dip symbol (seam inclination, flow eye inclination) based on the inclination with respect to the tunnel axis for the related seams and flow seams. As a result, unlike the case of evaluating using one photographed image, the evaluation can be supported by using the photographed images of continuous faces recorded in the face observation information storage unit 24.

10…入力部、11…出力部、20…評価支援装置、21…制御部、211…画像加工部、212…学習処理部、213…評価支援部、214…予測部、22…教師データ記憶部、23…学習結果記憶部、24…切羽観察情報記憶部。 10 ... Input unit, 11 ... Output unit, 20 ... Evaluation support device, 21 ... Control unit, 211 ... Image processing unit, 212 ... Learning processing unit, 213 ... Evaluation support unit, 214 ... Prediction unit, 22 ... Teacher data storage unit , 23 ... Learning result storage unit, 24 ... Face observation information storage unit.

Claims (7)

坑内観察における切羽の撮影画像を基準画素数で分割して生成した学習用分割画像を入力層に用い、前記切羽の観察項目に対する評価区分を出力層に用いた機械学習により生成した学習結果を記憶する学習結果記憶部と、
入力部と出力部とに接続された制御部とを備えた切羽評価支援システムであって、
前記制御部が、
前記入力部から取得した切羽の撮像画像から切羽部分を切り出して、評価対象の切羽画像を取得し、
前記切羽画像の評価領域を、前記基準画素数で分割し、
前記分割した評価対象分割画像に前記学習結果を適用して、前記評価対象分割画像の個別評価区分を取得し、
前記評価対象分割画像の個別評価区分に基づいて、前記評価領域の評価区分を予測し、前記出力部に出力するとともに、
前記観察項目に割目間隔および割目状態の少なくとも一方を含むことを特徴とする切羽評価支援システム。
The learning result generated by machine learning using the learning divided image generated by dividing the captured image of the face in the underground observation by the reference pixel number as the input layer and the evaluation classification for the observation item of the face as the output layer is stored. Learning result memory and
It is a face evaluation support system equipped with a control unit connected to an input unit and an output unit.
The control unit
The face portion is cut out from the captured image of the face acquired from the input unit, and the face image to be evaluated is acquired.
The evaluation area of the face image is divided by the reference pixel number,
The learning result is applied to the divided evaluation target divided image to acquire the individual evaluation classification of the evaluation target divided image.
Based on the individual evaluation classification of the evaluation target divided image, the evaluation classification of the evaluation area is predicted and output to the output unit, and at the same time.
A face evaluation support system characterized in that the observation items include at least one of a split interval and a split state .
前記制御部が、
坑内観察における切羽の撮影画像を取得し、前記撮影画像を前記基準画素数で分割した学習用分割画像を生成し、
前記学習用分割画像を入力層に用い、前記切羽の観察項目に対する評価区分を出力層に用いた機械学習により学習結果を生成し、前記学習結果記憶部に記録する請求項1に記載の切羽評価支援システム。
The control unit
The photographed image of the face in the underground observation is acquired, and the photographed image is divided by the reference pixel number to generate a divided image for learning.
The face evaluation according to claim 1, wherein a learning result is generated by machine learning using the divided image for learning as an input layer and an evaluation category for an observation item of the face as an output layer, and recorded in the learning result storage unit. Support system.
前記観察項目に風化変質をさらに含むことを特徴とする請求項1又は2に記載の切羽評価支援システム。 The face evaluation support system according to claim 1 or 2, wherein the observation item further includes weathering alteration . 前記評価領域には、切羽の天端、右肩部、左肩部の少なくともいずれか一つを含むことを特徴とする請求項1〜3のいずれか一項に記載の切羽評価支援システム。 The face evaluation support system according to any one of claims 1 to 3, wherein the evaluation area includes at least one of a top end, a right shoulder portion, and a left shoulder portion of the face. 前記制御部が、評価対象の切羽画像の分割画像について予測した評価区分を、前記分割
画像の配置に対応させて表示したヒートマップを生成し、前記出力部に出力することを特徴とする請求項1〜4のいずれか一項に記載の切羽評価支援システム。
The claim is characterized in that the control unit generates a heat map in which the evaluation classification predicted for the divided image of the face image to be evaluated is displayed corresponding to the arrangement of the divided images, and outputs the heat map to the output unit. The face evaluation support system according to any one of 1 to 4.
坑内観察における切羽の撮影画像を基準画素数で分割して生成した学習用分割画像を入力層に用い、前記切羽の観察項目に対する評価区分を出力層に用いた機械学習により生成した学習結果を記憶する学習結果記憶部と、
入力部と出力部とに接続された制御部とを備えた切羽評価支援システムを用いて、切羽評価支援を行なう方法であって、
前記制御部が、
前記入力部から取得した切羽の撮像画像から切羽部分を切り出して、評価対象の切羽画像を取得し、
前記切羽画像の評価領域を、前記基準画素数で分割し、
前記分割した評価対象分割画像に前記学習結果を適用して、前記評価対象分割画像の個別評価区分を取得し、
前記評価対象分割画像の個別評価区分に基づいて、前記評価領域の評価区分を予測し、前記出力部に出力するとともに、
前記観察項目に割目間隔および割目状態の少なくとも一方を含むことを特徴とする切羽評価支援方法。
The learning result generated by machine learning using the learning divided image generated by dividing the captured image of the face in the underground observation by the reference pixel number as the input layer and the evaluation classification for the observation item of the face as the output layer is stored. Learning result memory and
This is a method of performing face evaluation support using a face evaluation support system provided with a control unit connected to an input unit and an output unit.
The control unit
The face portion is cut out from the captured image of the face acquired from the input unit, and the face image to be evaluated is acquired.
The evaluation area of the face image is divided by the reference pixel number,
The learning result is applied to the divided evaluation target divided image to acquire the individual evaluation classification of the evaluation target divided image.
Based on the individual evaluation classification of the evaluation target divided image, the evaluation classification of the evaluation area is predicted and output to the output unit, and at the same time.
A face evaluation support method characterized in that the observation items include at least one of a split interval and a split state .
坑内観察における切羽の撮影画像を基準画素数で分割して生成した学習用分割画像を入力層に用い、前記切羽の観察項目に対する評価区分を出力層に用いた機械学習により生成した学習結果を記憶する学習結果記憶部と、
入力部と出力部とに接続された制御部とを備えた切羽評価支援システムを用いて、切羽評価支援を行なうためのプログラムであって、
前記制御部を、
前記入力部から取得した切羽の撮像画像から切羽部分を切り出して、評価対象の切羽画像を取得し、
前記切羽画像の評価領域を、前記基準画素数で分割し、
前記分割した評価対象分割画像に前記学習結果を適用して、前記評価対象分割画像の個別評価区分を取得し、
前記評価対象分割画像の個別評価区分に基づいて、前記評価領域の評価区分を予測し、前記出力部に出力する手段として機能させるとともに、
前記観察項目に割目間隔および割目状態の少なくとも一方を含むことを特徴とする切羽評価支援プログラム。
The learning result generated by machine learning using the learning divided image generated by dividing the captured image of the face in the underground observation by the reference pixel number as the input layer and the evaluation classification for the observation item of the face as the output layer is stored. Learning result memory and
It is a program for performing face evaluation support using a face evaluation support system equipped with a control unit connected to an input unit and an output unit.
The control unit
The face portion is cut out from the captured image of the face acquired from the input unit, and the face image to be evaluated is acquired.
The evaluation area of the face image is divided by the reference pixel number,
The learning result is applied to the divided evaluation target divided image to acquire the individual evaluation classification of the evaluation target divided image.
Based on the individual evaluation classification of the evaluation target divided image, the evaluation classification of the evaluation region is predicted, and it functions as a means to output to the output unit .
A face evaluation support program characterized in that the observation items include at least one of a split interval and a split state .
JP2017142711A 2017-07-24 2017-07-24 Face evaluation support system, face evaluation support method and face evaluation support program Active JP6784239B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017142711A JP6784239B2 (en) 2017-07-24 2017-07-24 Face evaluation support system, face evaluation support method and face evaluation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017142711A JP6784239B2 (en) 2017-07-24 2017-07-24 Face evaluation support system, face evaluation support method and face evaluation support program

Publications (2)

Publication Number Publication Date
JP2019023392A JP2019023392A (en) 2019-02-14
JP6784239B2 true JP6784239B2 (en) 2020-11-11

Family

ID=65368997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017142711A Active JP6784239B2 (en) 2017-07-24 2017-07-24 Face evaluation support system, face evaluation support method and face evaluation support program

Country Status (1)

Country Link
JP (1) JP6784239B2 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102193830B1 (en) * 2019-05-07 2020-12-22 주식회사 대림코퍼레이션 Apparatus and method for predicting front geological features based on indicatingtendency to change according to measuring data for a blind end in a tunnel
JP7284023B2 (en) * 2019-07-30 2023-05-30 株式会社熊谷組 Aggregate discrimination system
JP7245750B2 (en) * 2019-08-30 2023-03-24 前田建設工業株式会社 Evaluation support system, evaluation support method, and program
JP7245749B2 (en) * 2019-08-30 2023-03-24 前田建設工業株式会社 Evaluation support system, evaluation support method, and program
JP7304781B2 (en) * 2019-09-17 2023-07-07 株式会社安藤・間 Tunnel face state display system and tunnel face state display method
KR102240422B1 (en) * 2019-12-06 2021-04-15 주식회사 대림 Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization
KR102240421B1 (en) * 2019-12-06 2021-04-15 주식회사 대림 Method for analysis of blind ends in tunnels using artificial intelligence
KR102201211B1 (en) * 2019-12-06 2021-01-12 주식회사 대림코퍼레이션 Method for analysis of blind ends in tunnels using artificial intelligence and extraction of joints
JP6936845B2 (en) * 2019-12-06 2021-09-22 株式会社福田組 Ground prediction system
JP7390975B2 (en) * 2020-05-21 2023-12-04 清水建設株式会社 Face evaluation system, face evaluation learning system, face evaluation method, face evaluation learning method, computer program
JP7453848B2 (en) * 2020-05-21 2024-03-21 清水建設株式会社 Face image processing device, face image processing method
JP7374847B2 (en) * 2020-05-21 2023-11-07 清水建設株式会社 Face evaluation system, face evaluation learning system, face evaluation method, face evaluation learning method, computer program
KR102530383B1 (en) * 2020-05-22 2023-05-09 주식회사 대림 Method for generating tunnel construction documents automatically
KR102344741B1 (en) * 2020-06-30 2021-12-29 주식회사 대림 Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends
CN116057585A (en) * 2020-08-13 2023-05-02 文塔纳医疗系统公司 Active learning system for digital pathology
JP7329486B2 (en) * 2020-09-24 2023-08-18 大成建設株式会社 Rock ground condition learning device, rock ground condition determination device, rock ground condition learning method, and rock ground condition determination method
JP7553213B2 (en) 2021-07-27 2024-09-18 鹿島建設株式会社 Asbestos content measurement method and device
JP7510459B2 (en) 2022-04-21 2024-07-03 飛島建設株式会社 Tunnel face evaluation system and tunnel face evaluation method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07116917B2 (en) * 1991-11-25 1995-12-18 株式会社鴻池組 Tunnel excavation method
JPH063145A (en) * 1992-06-18 1994-01-11 Shimizu Corp Tunnel face image recording processing system
NL1015324C2 (en) * 1999-11-11 2001-05-14 Ballast Nedam Infra B V Device and method for drilling in a substrate.
JP2005220687A (en) * 2004-02-09 2005-08-18 Taisei Corp System for managing civil engineering construction
JP5433377B2 (en) * 2009-10-29 2014-03-05 楽天株式会社 Image processing apparatus, image processing method, and image processing program
GB2542118B (en) * 2015-09-04 2021-05-19 Toshiba Europe Ltd A method, apparatus, system, and computer readable medium for detecting change to a structure
JP2017117147A (en) * 2015-12-24 2017-06-29 前田建設工業株式会社 Structure construction management method

Also Published As

Publication number Publication date
JP2019023392A (en) 2019-02-14

Similar Documents

Publication Publication Date Title
JP6784239B2 (en) Face evaluation support system, face evaluation support method and face evaluation support program
Riquelme et al. Discontinuity spacing analysis in rock masses using 3D point clouds
JP6764842B2 (en) Information processing equipment, information processing system, information processing method, and information processing program
Xu et al. BrIM and UAS for bridge inspections and management
Lemy et al. Discontinuity trace map construction using photographs of rock exposures
US11105785B2 (en) System and method for analyzing drill core samples
Mlynarczuk et al. The application of artificial intelligence for the identification of the maceral groups and mineral components of coal
CN104463199A (en) Rock fragment size classification method based on multiple features and segmentation recorrection
Beretta et al. Automated lithological classification using UAV and machine learning on an open cast mine
CN105426645B (en) Automatic ASC stratum comparison method and system
EP2911090B1 (en) A method and arrangement for identifying a difference between a first 3D model of an environment and a second 3D model of the environment
CN104380143A (en) Systems and methods for processing geophysical data
JP2020056254A (en) Geological evaluation system, geological evaluation method, and geological evaluation program
WO2021180178A1 (en) Geological data processing method, system and apparatus, and storage medium
Hernandez et al. A deep learning framework for construction equipment activity analysis
JP4847482B2 (en) Road network extraction device
Weidner et al. Generalization considerations and solutions for point cloud hillslope classifiers
Hasan et al. Spectral Angle Mapper and aeromagnetic data integration for gold-associated alteration zone mapping: a case study for the Central Eastern Desert Egypt
Brazil et al. Improving underground mine access layouts using software tools
Pham et al. A feasibility study on application of a deep convolutional neural network for automatic rock type classification
KR102429666B1 (en) Apparatus for evaluating safety of cut-slopes
Qiao et al. Multi‐CrackNet: A Fast Segmentation and Quantification Combined Method for Rock Discontinuity Traces by Capturing an Image
JP6738513B2 (en) Pavement maintenance and repair plan formulation support device and support method
Letshwiti Improving Highwall Monitoring Through Fracture Identification in Open-Pit Mines Using Image Segmentation
Wilhelm et al. Machine learning on mars: Open challenges, similarities and differences to earth remote sensing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191025

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200207

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200923

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201006

R150 Certificate of patent or registration of utility model

Ref document number: 6784239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R157 Certificate of patent or utility model (correction)

Free format text: JAPANESE INTERMEDIATE CODE: R157