JP7510459B2 - Tunnel face evaluation system and tunnel face evaluation method - Google Patents

Tunnel face evaluation system and tunnel face evaluation method

Info

Publication number
JP7510459B2
JP7510459B2 JP2022070007A JP2022070007A JP7510459B2 JP 7510459 B2 JP7510459 B2 JP 7510459B2 JP 2022070007 A JP2022070007 A JP 2022070007A JP 2022070007 A JP2022070007 A JP 2022070007A JP 7510459 B2 JP7510459 B2 JP 7510459B2
Authority
JP
Japan
Prior art keywords
face
evaluation
image
base image
sketch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022070007A
Other languages
Japanese (ja)
Other versions
JP2023160012A (en
Inventor
亮汰 鈴木
亮 兼松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tobishima Corp
Original Assignee
Tobishima Corp
Filing date
Publication date
Application filed by Tobishima Corp filed Critical Tobishima Corp
Priority to JP2022070007A priority Critical patent/JP7510459B2/en
Publication of JP2023160012A publication Critical patent/JP2023160012A/en
Application granted granted Critical
Publication of JP7510459B2 publication Critical patent/JP7510459B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、トンネル切羽評価システム及びトンネル切羽評価方法に関し、特にクラウドストレージに保存された切羽の画像を取得して、深層学習を使用した画像変換処理手段により、切羽の画像から大局的に見た目の色調毎に色分けしてデフォルメされたスケッチ用下地画像を生成するトンネル切羽評価システム及びそれを用いたトンネル切羽評価方法に関する。 The present invention relates to a tunnel face evaluation system and a tunnel face evaluation method, and in particular to a tunnel face evaluation system and a tunnel face evaluation method using the same, which acquire images of the face stored in cloud storage and generate a deformed base image for sketching by color-coding the face image according to the overall appearance of the color tone using an image conversion processing means using deep learning.

山岳トンネル現場では,支保構造(支保パターン)や補助工法を選定するにあたって,切羽に現れる岩盤を観察して記録する切羽観察の作業が日常的に行われている。
切羽観察は,掘削直後のトンネル切羽へ近づく行為を伴うものであり、その場で定められた評価項目を記録する行為は、重機との接触や肌落ちなどといった災害や事故のリスクを伴う作業である。
At mountain tunnel sites, face observation is a routine task in which the rock mass that appears at the tunnel face is observed and recorded in order to select the support structure (support pattern) and auxiliary construction methods.
Face observation involves approaching the tunnel face immediately after excavation, and the act of recording the evaluation items determined on the spot is a task that involves the risk of disaster or accidents, such as contact with heavy machinery or skin falls.

切羽観察の作業では、切羽観察記録と呼ばれる書類を作成することが求められるが、切羽観察記録には、基本的に切羽の状態を観察して図に表し、必要箇所にコメントなどを追記して作成したスケッチと呼ばれる図と、切羽を天端、左肩、右肩の各評価エリアに分解して、評価エリアごとに、また風化変質や割れ目の状況などの項目ごとに評価点を求めて表として表した評価区分とを含み、切羽観察記録の作成は手間がかかるものとなっている。トンネルの掘削の進展に伴い切羽が変化していくことから、切羽観察記録は定期的に作成する必要があり、頻繁に観察記録の書類を作成するという点で業務上大きな負担になる問題があり、省力化が求められている。
このような課題に対処するため、切羽観察を支援する技術も検討が進んでいる。
The task of face observation requires the preparation of a document called a face observation record, which basically consists of a sketch, which is a diagram of the face observed and illustrated, with comments added where necessary, and an evaluation category, which is a table in which the face is broken down into evaluation areas of the top, left shoulder, and right shoulder, and evaluation points are calculated for each evaluation area and for items such as weathering and crack conditions, making the preparation of the face observation record time-consuming. As the face changes as the excavation of the tunnel progresses, face observation records must be prepared regularly, and there is a problem of a large burden on the work in terms of frequently preparing the observation record documents, and there is a demand for labor-saving measures.
To address these issues, research is also underway into technologies to assist in observing the tunnel face.

特許文献1には、坑内観察における切羽の撮影画像を基準画素数で分割して生成した学習用分割画像を入力層に用い、切羽の観察項目に対する評価区分を出力層に用いた機械学習により生成した学習結果を記憶する学習結果記憶部と、入力部と出力部とに接続された制御部とを備え、制御部が、入力部から取得した評価対象の切羽画像の評価領域を、基準画素数で分割し、分割した評価対象分割画像に学習結果を適用して個別評価区分を取得し、個別評価区分に基づいて、評価領域の評価区分を予測し、出力部に出力する切羽評価支援システムが開示されている。 Patent Document 1 discloses a face evaluation support system that includes a learning result storage unit that stores learning results generated by machine learning using a learning divided image generated by dividing an image of a face photographed during underground observation by a reference number of pixels as an input layer and an evaluation category for the observation item of the face as an output layer, and a control unit connected to the input unit and output unit, in which the control unit divides the evaluation area of the face image to be evaluated acquired from the input unit by a reference number of pixels, applies the learning result to the divided divided image of the evaluation object to obtain an individual evaluation category, predicts the evaluation category of the evaluation area based on the individual evaluation category, and outputs it to the output unit.

特許文献1の発明では、主に深層学習の技術を使用して、画像から評価点を直接算出する手法が取られている。画像データから深層学習処理を用いて直接評価点を算出する手法は、一定の正確さを以て評価するということが過去の研究成果によって確認されているものの、「何が高い正確さに貢献しているのか」「本当に深層学習は適切な処理を行っているのか」といった点を説明することが難しいという問題があった。
また、特許文献1の発明では、評価区分については評価支援装置により出力されるため省力化に寄与することはできるが、切羽のスケッチの作成などには対応しておらず、省力化の余地は残ったままである。
The invention of Patent Document 1 mainly uses deep learning technology to directly calculate an evaluation score from an image. Although past research results have confirmed that the method of directly calculating an evaluation score from image data using deep learning processing can evaluate with a certain degree of accuracy, there is a problem in that it is difficult to explain points such as "what contributes to high accuracy" and "whether deep learning is really performing appropriate processing."
In addition, in the invention of Patent Document 1, the evaluation category is output by the evaluation support device, which can contribute to labor savings, but it does not support the creation of sketches of the face, etc., and there is still room for labor savings.

そこで、作業者が取得する切羽の画像に基づき、スケッチを作成するための元図面を生成すると共に、生成した元図面に基づき評価点を生成し、スケッチを作成するための元図面及び生成した評価点に基づき切羽観察記録の基となる原稿を生成することで切羽観察の省力化を図るトンネル切羽評価システムの提供が望まれる。 Therefore, it is desirable to provide a tunnel face evaluation system that reduces the labor required for face observation by generating original drawings for making sketches based on images of the face taken by the worker, generating evaluation points based on the generated original drawings, and generating manuscripts that serve as the basis for face observation records based on the original drawings for making sketches and the generated evaluation points.

特開2019-023392号公報JP 2019-023392 A

本発明は、上記従来のトンネル切羽評価システムにおける問題点に鑑みてなされたものであって、本発明の目的は、クラウドストレージに保存された切羽の画像を取得して、深層学習を使用した画像変換処理手段により、切羽の画像から大局的に見た目の色調毎に色分けしてデフォルメされたスケッチ用下地画像を生成するトンネル切羽評価システム及びそれを用いたトンネル切羽評価方法を提供することにある。 The present invention has been made in consideration of the problems with the conventional tunnel face evaluation system described above, and the object of the present invention is to provide a tunnel face evaluation system and a tunnel face evaluation method using the same, which acquires an image of the face stored in cloud storage and uses an image conversion processing means using deep learning to generate a deformed base image for sketching that is color-coded according to the overall appearance of the image of the face.

上記目的を達成するためになされた本発明によるトンネル切羽評価システムは、クラウドストレージを介して作業者の携帯端末とネットワークで接続される評価サーバを備えるトンネル切羽評価システムであって、前記評価サーバは、前記携帯端末により取得され前記クラウドストレージに保存された切羽の画像を取得して、深層学習を使用した画像変換処理手段により、前記切羽の画像から大局的に見た目の色調毎に色分けしてデフォルメされたスケッチ用下地画像を生成するスケッチ用下地画像生成部と、生成された前記スケッチ用下地画像に基づき切羽の評価点を生成する切羽評価部と、前記スケッチ用下地画像と前記評価点に基づき切羽観察記録原稿を生成して前記クラウドストレージに保存する切羽観察記録原稿生成部とを備えることを特徴とする。 The tunnel face evaluation system according to the present invention, which has been made to achieve the above-mentioned object, is a tunnel face evaluation system that includes an evaluation server that is connected to a mobile terminal of a worker via a cloud storage network, and the evaluation server includes a sketch base image generation unit that acquires an image of the face acquired by the mobile terminal and stored in the cloud storage, and generates a sketch base image that is deformed by color-coding the image of the face according to the color tone of the appearance from a global perspective using an image conversion processing means using deep learning, a face evaluation unit that generates an evaluation score for the face based on the generated sketch base image, and a face observation record manuscript generation unit that generates a face observation record manuscript based on the sketch base image and the evaluation score and stores it in the cloud storage.

前記評価サーバは、前記切羽の画像を取得して深層学習を使用した物体検知手段により切羽箇所を検出するか、前記スケッチ用下地画像を取得して前記スケッチ用下地画像の色調解析から切羽箇所を検出する切羽箇所検出部と、前記切羽箇所を天端、左肩、右肩の各評価エリアに分解する切羽箇所分解処理部とをさらに備えることが好ましい。 It is preferable that the evaluation server further includes a face location detection unit that acquires an image of the face and detects the face location by an object detection means using deep learning, or acquires an image of the sketch base and detects the face location from a color analysis of the sketch base image, and a face location decomposition processing unit that decomposes the face location into the top, left shoulder, and right shoulder evaluation areas.

上記目的を達成するためになされた本発明によるトンネル切羽評価方法は、クラウドストレージを介してネットワークで接続される評価サーバと携帯端末とを備えるトンネル切羽評価システムによるトンネル切羽評価方法であって、作業者の前記携帯端末で切羽の画像を取得して前記クラウドストレージに保存する段階と、前記評価サーバが、前記クラウドストレージに保存された前記切羽の画像を取得して、深層学習を使用した画像変換処理手段により、前記切羽の画像から大局的に見た目の色調毎に色分けしてデフォルメされたスケッチ用下地画像を生成する段階と、生成された前記スケッチ用下地画像に基づき切羽の評価点を生成する段階と、前記スケッチ用下地画像と前記評価点に基づき切羽観察記録原稿を生成する段階と、前記切羽観察記録原稿を前記クラウドストレージに保存する段階とを有することを特徴とする。 The tunnel face evaluation method according to the present invention, which has been made to achieve the above object, is a tunnel face evaluation method using a tunnel face evaluation system equipped with an evaluation server and a mobile terminal connected by a network via cloud storage, and is characterized by having a step of acquiring an image of the tunnel face with the mobile terminal of an operator and storing it in the cloud storage, a step of the evaluation server acquiring the image of the tunnel face stored in the cloud storage and generating a sketch base image from the image of the tunnel face, which is color-coded according to the color tone of the overall appearance by an image conversion processing means using deep learning, a step of generating an evaluation score for the tunnel face based on the generated sketch base image, a step of generating a tunnel face observation record manuscript based on the sketch base image and the evaluation score, and a step of storing the tunnel face observation record manuscript in the cloud storage.

前記携帯端末により前記クラウドストレージに保存された切羽観察記録原稿を取得して前記切羽観察記録原稿に補足又は修正を加えて、完成された切羽観察記録としてクラウドストレージに保存する段階をさらに有することが好ましい。 It is preferable to further include a step of acquiring the face observation record manuscript stored in the cloud storage by the mobile terminal, adding supplements or corrections to the face observation record manuscript, and storing it in the cloud storage as a completed face observation record.

前記スケッチ用下地画像に基づき切羽の評価点を生成する段階は、前記切羽の画像又は前記スケッチ用下地画像から切羽箇所を検出する段階と、検出した切羽箇所を天端、左肩、右肩の各評価エリアに分解する段階と、分解した評価エリアごとに予め設定した色の面積に基づき風化変質評価点を算出する段階とを含むことが好ましい。 The step of generating an evaluation score for the face based on the sketch base image preferably includes a step of detecting the face location from the face image or the sketch base image, a step of decomposing the detected face location into evaluation areas of the top, left shoulder, and right shoulder, and a step of calculating a weathering deterioration evaluation score based on the area of a color preset for each of the decomposed evaluation areas.

前記切羽箇所を検出する段階は、前記切羽の画像から、深層学習を使用した物体検知手段により切羽箇所を検出する段階と、検出された前記切羽箇所が適切であるか否かを判断する段階と、検出された前記切羽箇所が適切であると判断した場合、検出された前記切羽箇所を採用し、検出された前記切羽箇所が不適切であると判断した場合、前記スケッチ用下地画像から切羽箇所を検出して前記スケッチ用下地画像から検出された切羽箇所を採用する段階とを含むことが好ましい。 The step of detecting the face location preferably includes the steps of detecting the face location from the image of the face using an object detection means using deep learning, judging whether the detected face location is appropriate, and adopting the detected face location if it is judged that the detected face location is appropriate, and detecting the face location from the sketch base image and adopting the face location detected from the sketch base image if it is judged that the detected face location is inappropriate.

本発明に係るトンネル切羽評価システムによれば、作業者が携帯端末を使って切羽の画像を取得し、取得した切羽の画像をクラウドストレージに保存するだけで、評価サーバがクラウドストレージへの新たな切羽の画像の保存を検知し、保存された切羽の画像に基づきスケッチの基になるスケッチ用下地画像を生成するため、作業者はスケッチ用下地画像に必要なコメントを追記するだけで容易にスケッチを作成することが可能となる。 According to the tunnel face evaluation system of the present invention, a worker simply uses a mobile device to acquire an image of the face and saves the acquired image of the face in cloud storage. The evaluation server detects that a new image of the face has been saved to cloud storage, and generates a sketch base image that serves as the basis for a sketch based on the saved image of the face. This allows a worker to easily create a sketch by simply adding the necessary comments to the sketch base image.

また、本発明に係るトンネル切羽評価システムによれば、切羽の評価は初めに大局的に見た目の色調毎に色分けしてデフォルメされたスケッチ用下地画像を生成した後、生成したスケッチ用下地画像に基づき評価結果が算出されるため、評価結果がどのように算出されたかが分かり易く、深層学習は適切な処理を行っているのかという疑問の生じにくいシステムとなっている。 In addition, with the tunnel face evaluation system of the present invention, the face is evaluated by first generating a sketch base image that is deformed and color-coded according to the overall appearance of the color tone, and then the evaluation result is calculated based on the generated sketch base image. This makes it easy to understand how the evaluation result was calculated, and the system is less likely to raise questions about whether deep learning is performing appropriate processing.

さらに、本発明に係るトンネル切羽評価システムによれば、評価サーバにより切羽箇所が検出されて、天端、左肩、右肩の各評価エリアに分解されて出力されるので作業者による画像の切出しが不要となる。また評価サーバが生成したスケッチ用下地画像やスケッチ用下地画像に基づき算出された評価結果は、作業者が少し手を加えるだけで切羽観察記録に纏められる切羽観察記録原稿として出力されるので、切羽観察記録を作成する手間を大幅に削減することが可能となる。 Furthermore, according to the tunnel face evaluation system of the present invention, the face location is detected by the evaluation server and broken down into evaluation areas for the top, left shoulder, and right shoulder, and then output, eliminating the need for workers to cut out images. In addition, the sketch base image generated by the evaluation server and the evaluation results calculated based on the sketch base image are output as a face observation record manuscript that can be compiled into a face observation record with just a little modification by the worker, making it possible to significantly reduce the effort required to create a face observation record.

本発明の実施形態によるトンネル切羽評価システムの構成を概略的に示すブロック図である。1 is a block diagram showing an outline of the configuration of a tunnel face evaluation system according to an embodiment of the present invention. 本発明の実施形態によるトンネル切羽評価システムにおける処理の流れを概略的に示す図である。FIG. 2 is a diagram showing a schematic flow of processing in a tunnel face evaluation system according to an embodiment of the present invention. 取得された切羽の画像と切羽の画像から生成されたデフォルメされたスケッチ用下地画像の事例を示す図である。13A and 13B are diagrams showing examples of an acquired face image and a deformed sketch base image generated from the face image. 取得された切羽の画像から直接またはスケッチ用下地画像を経由して切羽箇所を検出した結果の例を示す図である。13 is a diagram showing an example of the results of detecting the face location from an acquired image of the face directly or via a sketch base image. FIG. 評価エリアごとに分解されたスケッチ用下地画像から切羽の風化変質評価点を生成した結果の例を示す図である。This figure shows an example of the results of generating weathering and deterioration evaluation points for a face from a sketch base image decomposed into evaluation areas. 本発明の実施形態による切羽観察記録原稿の例を示す図である。FIG. 2 is a diagram showing an example of a working face observation record manuscript according to an embodiment of the present invention. 本発明の実施形態によるトンネル切羽評価方法を説明するためのフローチャートである。1 is a flowchart for explaining a tunnel face evaluation method according to an embodiment of the present invention. 本発明の実施形態によるトンネル切羽評価方法における風化変質評価点を算出する切羽の評価点生成方法を説明するためのフローチャートである。1 is a flowchart for explaining a tunnel face evaluation point generation method for calculating weathering deterioration evaluation points in a tunnel face evaluation method according to an embodiment of the present invention.

次に、本発明に係るトンネル切羽評価システムを実施するための形態の具体例を、図面を参照しながら詳細に説明する。
図1は、本発明の実施形態によるトンネル切羽評価システムの構成を概略的に示すブロック図である。
図1を参照すると、本発明の実施形態によるトンネル切羽評価システム1は、クラウドストレージ5を介してネットワークで相互に接続される評価サーバ10と作業者の携帯端末20とを備える。
Next, a specific example of an embodiment for carrying out the tunnel face evaluation system according to the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a tunnel face evaluation system according to an embodiment of the present invention.
Referring to FIG. 1 , a tunnel face evaluation system 1 according to an embodiment of the present invention includes an evaluation server 10 and a mobile terminal 20 of a worker, which are mutually connected via a network via a cloud storage 5 .

本発明の実施形態によるトンネル切羽評価システム1は、トンネル切羽の状態を評価する評価サーバ10が、携帯端末20で取得されクラウドストレージ5に保存されたトンネル切羽の画像を取得して、深層学習を使用した画像変換処理手段により、切羽の画像から大局的に見た目の色調毎に色分けしてデフォルメされたスケッチ用下地画像を生成すると共に生成したスケッチ用下地画像に基づき切羽の評価点を生成し、更にスケッチ用下地画像と切羽の評価点に基づき切羽観察記録原稿を生成してクラウドストレージ5に保存することにより、作業者によるトンネル切羽の切羽観察記録の作成を大幅に省力化することを可能にするシステムである。 The tunnel face evaluation system 1 according to an embodiment of the present invention is a system in which an evaluation server 10 that evaluates the state of a tunnel face acquires an image of the tunnel face acquired by a mobile terminal 20 and stored in cloud storage 5, and generates a sketch base image that is deformed by color-coding the overall appearance of the color tone from the image of the face using an image conversion processing means that uses deep learning, generates an evaluation score for the face based on the generated sketch base image, and further generates a face observation record draft based on the sketch base image and the face evaluation score and stores it in cloud storage 5, thereby enabling workers to significantly reduce the effort required to create a face observation record of the tunnel face.

評価サーバ10は上記の機能を果たすために、入出力部12、記憶部13、表示部14、スケッチ用下地画像生成部15、切羽箇所検出部16、切羽箇所分解処理部17、切羽評価部18、切羽観察記録原稿生成部19、及びこれらの要素を制御する制御部11を備える。 In order to perform the above functions, the evaluation server 10 is equipped with an input/output unit 12, a memory unit 13, a display unit 14, a sketch base image generation unit 15, a face location detection unit 16, a face location decomposition processing unit 17, a face evaluation unit 18, a face observation record manuscript generation unit 19, and a control unit 11 that controls these elements.

スケッチ用下地画像生成部15は、深層学習を使用した画像変換処理手段を備え、携帯端末20により取得されクラウドストレージ5に保存された切羽の画像を取得して、画像変換処理手段により切羽の画像から、大局的に見た目の色調毎に色分けしてデフォルメされたスケッチ用下地画像を生成する。スケッチ用下地画像とは最終的に切羽観察記録に記載するスケッチの基になる画像であり、詳細な構造にとらわれず大局的に色分けするので、誰が見ても切羽全体の風化具合を含む色調構成が分かり易く表現される下地の画像である。 The sketch base image generating unit 15 is equipped with an image conversion processing means using deep learning, and acquires an image of the face acquired by the mobile terminal 20 and stored in the cloud storage 5, and generates a sketch base image from the face image by the image conversion processing means, which is color-coded according to the color tone of the appearance from a global perspective. The sketch base image is an image that will ultimately be the basis for the sketch to be recorded in the face observation record, and is color-coded globally without being bound by the detailed structure, so that it is a base image that clearly expresses the color tone composition, including the weathering of the entire face, for anyone to see.

また、スケッチ用下地画像は、切羽の風化変質などの評価を行う基になる図でもある。このためスケッチ用下地画像は、基となる切羽の画像から切羽の風化変質などの評価を行う途中段階の生成図面ともいえるものであり、スケッチ用下地画像が生成されることにより、深層学習を使用した画像変換処理手段がどのように判断して切羽の評価を行ったかを把握しやすくする役割も果たすものである。 The sketch base image is also the basis for evaluating the weathering and deterioration of the face. For this reason, the sketch base image can be said to be a generated drawing at an intermediate stage when evaluating the weathering and deterioration of the face from the base image of the face, and the generation of the sketch base image also plays a role in making it easier to understand how the image conversion processing means using deep learning made the judgment to evaluate the face.

スケッチ用下地画像は、評価サーバ10から切羽観察記録作成の支援のために出力されるデータの一部となるものであり、作業者はスケッチ用下地画像を取得して割れ目や湧水などの情報を書き足すことでスケッチ完成させることができる。これにより切羽の画像から必要部分を切り出してスケッチを作成する場合に比べて省力化が可能となる。 The sketch base image is part of the data output from the evaluation server 10 to support the creation of face observation records, and the worker can complete the sketch by acquiring the sketch base image and adding information about cracks, springs, etc. This saves labor compared to cutting out the necessary parts from the face image to create a sketch.

スケッチ用下地画像生成部15が備える画像変換処理手段は、深層学習としては画像変換型の敵対的生成ネットワーク(GAN:Generative Adversarial Network)を適用したものである。敵対的生成ネットワークは、画像データを生成する生成ネットワークと生成された画像データの真偽を判定する識別ネットワークの2つのネットワークを含み、生成ネットワークは、生成した画像データができるだけ真と判断されるように、また識別ネットワークは、生成された画像データをできるだけ偽と判断するようにパラメータを変更することを繰り返すことにより、生成する画像データの精度が向上していく。
画像変換処理手段は、こうして画像データの生成と判定を繰り返し学習することで所定の仕様を満足する画像データが生成されるようになった敵対的生成ネットワークを、深層学習モデルとして画像変換処理手段内部の記憶部に保存する。
The image conversion processing means provided in the sketch base image generating unit 15 is an application of an image conversion type Generative Adversarial Network (GAN) as deep learning. The Generative Adversarial Network includes two networks, a generation network that generates image data and a discrimination network that judges the authenticity of the generated image data. The generation network changes parameters so that the generated image data is judged as true as possible, and the discrimination network changes parameters so that the generated image data is judged as false as possible, thereby improving the accuracy of the generated image data.
The image conversion processing means stores the generative adversarial network, which has thus come to generate image data that satisfies specified specifications by repeatedly learning to generate and judge image data, in a memory unit within the image conversion processing means as a deep learning model.

画像変換処理手段が備える深層学習モデルは、切羽の画像を数多く読み込ませ、岩種と風化具合で塗り分けを実施して画像データを出力し、出力された画像データの真偽を判定することを繰り返し、深層学習モデルの精度を向上している。取得された切羽の画像を基に、精度が向上した深層学習モデルにより生成される画像データがスケッチ用下地画像である。画像変換処理手段は、塗り分けに際しては岩種の細かい分布にはとらわれず、見た目の色合いを重視するように学習させることでデフォルメされたスケッチ用下地画像を生成するように構成されている。 The deep learning model provided in the image conversion processing means reads in many images of the face, colors them according to rock type and weathering, outputs image data, and repeatedly determines the authenticity of the output image data, improving the accuracy of the deep learning model. Image data generated by the deep learning model with improved accuracy based on the acquired face image is the base image for sketching. The image conversion processing means is configured to generate a deformed base image for sketching by having it learn to emphasize the apparent color tone rather than the fine distribution of rock types when coloring them.

実施形態では、スケッチ用下地画像生成部15は、スケッチ用下地画像を生成すると共にスケッチ用下地画像を生成するのに使用した色の使い分けに基づき、スケッチ用下地画像における色別の面積率の算出を行い、算出した面積率はグラフ化してスケッチ用下地画像と共に出力するように構成される。 In an embodiment, the sketch base image generating unit 15 is configured to generate a sketch base image, calculate the area ratio of each color in the sketch base image based on the use of different colors used to generate the sketch base image, and graph the calculated area ratios and output them together with the sketch base image.

切羽の画像は、トンネルの掘削工事の進展に伴い変化していく切羽の状況に応じて所定のタイミングで取得される。そのため例えば着工日毎や特定の進展があった時点等で繰り返し取得される。そこで実施形態では、作業者又は評価サーバ10の操作者の負担を軽減するため、クラウドストレージ5として、Dropbox(登録商標)の様なファイルの共有や通知機能のあるクラウドストレージ5を使用し、作業者は携帯端末20により切羽の画像を取得して、特定のファイル名でクラウドストレージ5に保存するだけで、スケッチ用下地画像生成部15は、入出力部12を介して切羽の画像の更新を検知し、保存された切羽の画像を取得することができる。スケッチ用下地画像生成部15は、取得した切羽の画像に基づき、深層学習を使用した画像変換処理手段によりスケッチ用下地画像を生成し、完成したスケッチ用下地画像は最終的な出力となる切羽観察記録原稿のデータの一部として切羽観察記録原稿生成部19に引き渡される。 The image of the face is acquired at a predetermined timing according to the state of the face, which changes as the tunnel excavation work progresses. Therefore, for example, it is repeatedly acquired every construction start date or at the time of specific progress. Therefore, in the embodiment, in order to reduce the burden on the worker or the operator of the evaluation server 10, a cloud storage 5 with file sharing and notification functions such as Dropbox (registered trademark) is used as the cloud storage 5, and the worker simply acquires the image of the face using the mobile terminal 20 and saves it in the cloud storage 5 with a specific file name, and the sketch base image generation unit 15 can detect the update of the image of the face via the input/output unit 12 and acquire the saved image of the face. The sketch base image generation unit 15 generates a sketch base image by an image conversion processing means using deep learning based on the acquired image of the face, and the completed sketch base image is handed over to the face observation record manuscript generation unit 19 as part of the data of the face observation record manuscript, which is the final output.

切羽箇所検出部16は、切羽の画像を取得して深層学習を使用した物体検知手段により切羽箇所を検出するか、スケッチ用下地画像生成部15が生成したスケッチ用下地画像を取得してスケッチ用下地画像の色調解析から切羽箇所を検出する。
物体検知手段は、多数の切羽の画像により評価対象である切羽の上半の特徴を覚え込ませることを繰り返し、切羽の画像に対し切羽箇所はどのような特徴のどの部分であるかを学習した結果を物体検知手段が備える記憶部に保存し、新たな切羽画像の入力を受けて、保存された学習の結果を参照して切羽箇所がどこであるかを判断して出力するように構成される。
The face detection unit 16 acquires an image of the face and detects the face using an object detection means using deep learning, or acquires a sketch base image generated by the sketch base image generation unit 15 and detects the face from a color analysis of the sketch base image.
The object detection means repeatedly memorizes the characteristics of the upper half of the face to be evaluated using a large number of face images, and stores the results of learning which part of the face image has what characteristics the face location, in a memory unit provided in the object detection means.When a new face image is input, the means is configured to refer to the stored learning results to determine where the face location is and output the result.

切羽の画像を取得する際の切羽の照明や色味の状況により切羽の画像が様々に変化する要因があることから、切羽箇所の検出は、誤差や誤判断を含む場合も想定される。そこで、切羽箇所検出部16は、検出した切羽箇所が適切なものであるか否かを判断する。具体的には例えば工事中のトンネルの既に検出して作業関係者によって承認された切羽箇所のデータに基づき、検出した切羽箇所の幅、高さ、又は縦横比等の寸法データが、承認された切羽箇所の寸法データの所定の誤差範囲に入っているかどうかで判断する。他の実施形態では検出した切羽箇所の外周部の曲線を検出し、その曲率や底辺との立ち上がり角度などで検出した切羽箇所が適切なものであるか否かを判断するようにしてもよい。 Because there are various factors that cause the image of the face to change depending on the lighting and color conditions of the face when the image is acquired, it is expected that the detection of the face location may include errors and misjudgments. Therefore, the face location detection unit 16 judges whether the detected face location is appropriate. Specifically, for example, based on data on the face location of a tunnel under construction that has already been detected and approved by the work personnel, it judges whether the dimensional data of the detected face location, such as the width, height, or aspect ratio, falls within a predetermined error range of the approved dimensional data of the face location. In another embodiment, the curve of the outer periphery of the detected face location may be detected, and whether the detected face location is appropriate may be judged based on the curvature, the rise angle with the base, etc.

切羽箇所検出部16は、検出した切羽箇所が適切なものであると判断すると、検出した切羽箇所を採用して切羽箇所分解処理部17に引き渡す。また検出した切羽箇所が適切なものでないと判断した場合、切羽箇所検出部16は、スケッチ用下地画像を取得してスケッチ用下地画像の色調解析から切羽箇所を検出する。一実施形態では色調解析は黒か黒以外の色調かに基づき、黒以外の色調の部分を切羽箇所として検出する。この場合も前述のように承認された切羽箇所の寸法データに基づき、検出した切羽箇所が適切なものであるか否かを判断するようにしてもよい。このように切羽箇所検出部16は、切羽の画像から検出した切羽箇所が適切なものでないと判断した場合、スケッチ用下地画像の色調解析から検出した切羽箇所を採用して切羽箇所分解処理部17に引き渡す。 When the face location detection unit 16 determines that the detected face location is appropriate, it adopts the detected face location and transfers it to the face location decomposition processing unit 17. When it determines that the detected face location is not appropriate, the face location detection unit 16 acquires a sketch base image and detects the face location from a color tone analysis of the sketch base image. In one embodiment, the color tone analysis is based on whether the color tone is black or a color tone other than black, and detects the part with a color tone other than black as the face location. In this case, too, it may be determined whether the detected face location is appropriate or not based on the dimensional data of the approved face location as described above. In this way, when the face location detection unit 16 determines that the face location detected from the face image is not appropriate, it adopts the face location detected from the color tone analysis of the sketch base image and transfers it to the face location decomposition processing unit 17.

切羽箇所分解処理部17は、スケッチ用下地画像生成部15から取得したスケッチ用下地画像と、切羽箇所検出部16から取得した切羽箇所を重ね合わせ、切羽箇所を天端、左肩、右肩の各評価エリアに分解する。具体的には例えば切羽箇所を高さ方向に2等分して上部側を天端とし、下部側をさらに左右に2等分して左側を左肩、右側を右肩とする。 The face location decomposition processing unit 17 overlays the sketch base image acquired from the sketch base image generation unit 15 and the face location acquired from the face location detection unit 16, and decomposes the face location into the evaluation areas of the top, left shoulder, and right shoulder. Specifically, for example, the face location is divided into two equal parts in the height direction, with the upper side being the top, and the lower side is further divided into two equal parts left and right, with the left side being the left shoulder and the right side being the right shoulder.

切羽評価部18は、生成されたスケッチ用下地画像に基づき切羽の評価点を生成する。このとき切羽評価部18は、切羽箇所分解処理部17によって分解した天端、左肩、右肩の評価エリアごとに評価点を生成する。評価点としては少なくとも風化変質評価点を含み、風化変質評価点は予め設定した色の面積に基づき、予め設定した色がどれだけの面積を占めるかで求める。一実施形態では予め設定した色は主に褐色であり、褐色の面積が多い評価エリアでは評価区分に従い、評価点として風化が進んでいることを示す4を選定し、褐色の面積が無いか、少ない評価エリアでは風化が進んでいないことを示す1や2を選定する。
切羽評価部18は、切羽箇所内に黒っぽい筋状の割れ目が存在するときは割れ目の頻度や状態などについても評価区分に従い、例えば割れ目の間隔が狭いほど高い評価点にしたり、開口の程度が悪くなるほど高い評価点にしたりするなどして評価点を生成する。
The face evaluation unit 18 generates an evaluation score for the face based on the generated sketch base image. At this time, the face evaluation unit 18 generates an evaluation score for each evaluation area of the top, left shoulder, and right shoulder decomposed by the face part decomposition processing unit 17. The evaluation scores include at least a weathering evaluation score, and the weathering evaluation score is calculated based on the area of a preset color and how much area the preset color occupies. In one embodiment, the preset color is mainly brown, and in evaluation areas with a large brown area, an evaluation score of 4 indicating that weathering is progressing is selected according to the evaluation category, and in evaluation areas with no or few brown areas, 1 or 2 indicating that weathering is not progressing is selected.
When dark streak-like cracks are present within the face, the face evaluation unit 18 generates an evaluation score based on the frequency and condition of the cracks in accordance with the evaluation category, for example, by assigning a higher evaluation score to cracks that are closer together and by assigning a higher evaluation score to cracks that have a worse degree of opening.

切羽観察記録原稿生成部19は、スケッチ用下地画像生成部15から取得したスケッチ用下地画像と切羽評価部18から取得した評価点に基づき切羽観察記録原稿を生成してクラウドストレージ5に保存する。切羽観察記録原稿は予めフォーマット化された原稿であり、必要事項を記載したり、必要な情報を貼り付けたりすることで最終的に切羽観察記録に仕上げられる基の原稿である。切羽観察記録原稿生成部19は、フォーマット化された原稿にスケッチ用下地画像を貼り付け、切羽評価部18から取得した評価点を該当する記入欄に記載することで、評価サーバ10によって得られている情報を盛り込んだ切羽観察記録原稿を生成するため、切羽観察記録を作成する作業者の負担を軽減する。 The face observation record manuscript generation unit 19 generates a face observation record manuscript based on the sketch base image acquired from the sketch base image generation unit 15 and the evaluation points acquired from the face evaluation unit 18, and saves it in cloud storage 5. The face observation record manuscript is a pre-formatted manuscript, and is a base manuscript that is ultimately completed as a face observation record by entering necessary items and pasting necessary information. The face observation record manuscript generation unit 19 pastes the sketch base image onto the formatted manuscript and enters the evaluation points acquired from the face evaluation unit 18 in the corresponding entry fields, thereby generating a face observation record manuscript that incorporates the information obtained by the evaluation server 10, thereby reducing the burden on the worker creating the face observation record.

切羽観察記録原稿は1つのトンネル工事では共通したフォーマットで生成されるので、切羽観察記録原稿生成部19は、予め切羽観察記録原稿のフォーマットを受け付ける入力手段と受け付けたフォーマットを保存する記憶部を備える。切羽観察記録のフォーマットは、一般にトンネル工事の発注者ごとに決まっている。そこで、一実施形態では、切羽観察記録原稿生成部19は、発注者と発注者ごとに決まっている切羽観察記録のフォーマットを対応付けて保存し、トンネル工事の開始時点でのトンネルの名称やトンネル工事の仕様などの初期登録データに発注者の情報を含め、初期登録データに基づき登録されて保存された切羽観察記録のフォーマットがある場合には発注者に対応するフォーマットを抽出して切羽観察記録原稿を生成するように構成される。また他の実施形態では、切羽観察記録のフォーマットを新たに指定されるごとに当該フォーマットを記憶部に保存し、トンネル工事の初期登録時に、記憶部に保存したフォーマットを選択可能にメニュー形式で提供する。 Since the face observation record manuscript is generated in a common format for one tunnel construction, the face observation record manuscript generation unit 19 is equipped with an input means for accepting the format of the face observation record manuscript in advance and a storage unit for storing the accepted format. The format of the face observation record is generally determined for each tunnel construction client. Therefore, in one embodiment, the face observation record manuscript generation unit 19 is configured to store the face observation record format determined for each client in association with the client, include the client's information in the initial registration data such as the tunnel name at the start of the tunnel construction and the tunnel construction specifications, and extract the format corresponding to the client and generate the face observation record manuscript when there is a face observation record format registered and stored based on the initial registration data. In another embodiment, each time a face observation record format is newly specified, the format is stored in the storage unit, and the format stored in the storage unit is provided in a menu format for selection during the initial registration of the tunnel construction.

入出力部12は、クラウドストレージ5から切羽の画像を取得したり、切羽観察記録原稿をクラウドストレージ5に保存したりするためのクラウドストレージ5との通信手段を備える。クラウドストレージ5との通信はインターネットを介して行うため、通信手段はインターネットに対応した通信手段を備えればよい。入出力部12は、この他に評価サーバ10にトンネル工事の初期登録データなどのデータを入力するためのキーボードやマウスなどの入力手段を備える。 The input/output unit 12 includes a means for communicating with the cloud storage 5 to obtain images of the tunnel face from the cloud storage 5 and to store manuscripts of the tunnel face observation records in the cloud storage 5. Since communication with the cloud storage 5 is performed via the Internet, the communication means may include a communication means compatible with the Internet. The input/output unit 12 also includes input means such as a keyboard and a mouse for inputting data such as the initial registration data for the tunnel construction work into the evaluation server 10.

記憶部13は、評価サーバ10が扱う各種データや、評価サーバ10自身を制御するためのプログラムなどを保存する。上記の説明では深層学習モデルを保存する画像変換処理手段内部の記憶部、学習した結果を保存する物体検知手段が備える記憶部、切羽観察記録原稿生成部19が受け付けたフォーマットを保存する記憶部などの記憶部が個別に備えられるように記載したが、実施形態ではこれらの記憶部はいずれも記憶部13の一部として構成される。記憶部13は、ハードディスク装置や半導体メモリ装置などで実現される。 The storage unit 13 stores various data handled by the evaluation server 10, programs for controlling the evaluation server 10 itself, and the like. In the above explanation, it has been described that the storage units, such as the storage unit within the image conversion processing means that stores the deep learning model, the storage unit provided in the object detection means that stores the learned results, and the storage unit that stores the format accepted by the face observation record manuscript generation unit 19, are provided separately, but in the embodiment, all of these storage units are configured as part of the storage unit 13. The storage unit 13 is realized by a hard disk device, a semiconductor memory device, or the like.

表示部14は、スケッチ用下地画像や切羽観察記録原稿などの各種データの表示の他、必要により画像処理のためのアプリケーションプログラムや、評価サーバ10を制御する制御プログラムなどのプログラムの表示を行う。表示部14は液晶ディスプレイなどの表示装置により実現化される。
制御部11は、記憶部13に保存された制御プログラムに従い、情報提供サーバ10の各構成要素が、上記で説明した機能を果たすように制御する。制御部11はマイクロコンピュータなどの半導体装置を含む制御回路により実現化される。
The display unit 14 displays various data such as a sketch base image and a face observation record manuscript, and also displays, if necessary, an application program for image processing and a program such as a control program for controlling the evaluation server 10. The display unit 14 is realized by a display device such as a liquid crystal display.
The control unit 11 controls each component of the information providing server 10 to perform the functions described above in accordance with a control program stored in the storage unit 13. The control unit 11 is realized by a control circuit including a semiconductor device such as a microcomputer.

作業者の携帯端末20は、切羽の画像を取得したり、クラウドストレージ5に保存された切羽観察記録原稿を取得後不足するデータを入力し、切羽観察記録を完成させてクラウドストレージ5に保存したりするのに使用される。
携帯端末20は、制御部21、入出力部22、記憶部23、表示部24、画像取得部25、及び編集データ入力部26を備える。
The worker's mobile terminal 20 is used to acquire images of the face, input missing data after acquiring the draft face observation record stored in cloud storage 5, complete the face observation record, and store it in cloud storage 5.
The mobile terminal 20 includes a control unit 21 , an input/output unit 22 , a storage unit 23 , a display unit 24 , an image acquisition unit 25 , and an edited data input unit 26 .

画像取得部25は、切羽を撮影して切羽の画像を取得し、記憶部23に保存する。このため、画像取得部25としてはスマ-トフォンやタブレット端末の備えるカメラなどで実現化される。切羽の画像は歪の無いように正面から撮影すれば十分であるが、毎回できるだけ同じ条件で撮影することが望ましい。そこで一実施形態では予め実装したアプリケーションにより切羽の画像の取得の際、携帯端末20の表示画面内で切羽の位置やサイズが同等となるようガイドラインを表示させる。 The image acquisition unit 25 photographs the face to acquire the image of the face and stores it in the memory unit 23. For this reason, the image acquisition unit 25 is realized by a camera equipped in a smartphone or tablet terminal. It is sufficient to take an image of the face from the front without distortion, but it is desirable to take an image under the same conditions as much as possible each time. Therefore, in one embodiment, when an image of the face is acquired using a pre-implemented application, guidelines are displayed on the display screen of the mobile terminal 20 so that the position and size of the face are consistent.

編集データ入力部26は、クラウドストレージ5に保存された切羽観察記録原稿を取得して切羽観察記録原稿に補足又は修正を加えるためのものである。切羽観察記録原稿にはコメントや評価点を入力するための記入欄が設けられており、評価サーバ10が生成して予め記入した欄以外は空白のままであるので、作業者は空白の記入欄に必要事項を入力する。 The edited data input unit 26 is used to retrieve the face observation record manuscript stored in the cloud storage 5 and add supplements or corrections to the face observation record manuscript. The face observation record manuscript has fields for inputting comments and evaluation points, and fields other than those generated and filled in in advance by the evaluation server 10 remain blank, so the worker inputs the necessary information into the blank fields.

また、切羽観察記録原稿にはスケッチ用下地画像が貼り付けられているので、作業者はスケッチ用下地画像にエリアを指定してコメントを書き込むなどの編集を行い、スケッチを完成させる。また必要により注意が必要な部分を切り出して拡大するなどしてスケッチの補足資料としてスケッチとは別に切羽観察記録原稿に貼り付けたりする。このような編集を行うように編集データ入力部26は、テキストの入力手段の他、エリアを指定するときなどの自由な図形の入力手段を備える。また図面の切出し、拡大、貼付け等の加工を行う図面編集手段を備える。
編集を終えて完成した切羽観察記録はクラウドストレージ5に保存される。
In addition, since a sketch base image is attached to the face observation record manuscript, the worker can edit the sketch base image by specifying an area and writing a comment, etc., to complete the sketch. If necessary, parts that require attention can be cut out, enlarged, etc., and pasted onto the face observation record manuscript separately from the sketch as supplementary material for the sketch. In order to perform such editing, the edit data input unit 26 is provided with a means for inputting text, as well as a means for inputting free figures, such as when specifying an area. It is also provided with a drawing editing means for processing drawings, such as cutting out, enlarging, and pasting.
Once edited and completed, the face observation record is stored in cloud storage 5.

入出力部22は、クラウドストレージ5に保存された切羽観察記録原稿を取得したり、完成した切羽観察記録をクラウドストレージ5に保存したりするためにクラウドストレージ5との間でデータを送受信する通信手段を備える。通信手段はインターネットに対応した通信手段を備えればよい。 The input/output unit 22 includes a communication means for transmitting and receiving data to and from the cloud storage 5 in order to obtain the draft face observation record stored in the cloud storage 5 and to store the completed face observation record in the cloud storage 5. The communication means may include any communication means compatible with the Internet.

記憶部23は、切羽の画像や切羽観察記録などのデータの他、携帯端末20上で動作するアプリケーションプログラムや携帯端末20の制御を行う制御プログラムなどを保存する。
表示部24は切羽の画像や切羽観察記録原稿などのデータの表示を行う。
制御部21は、記憶部23に保存された制御プログラムに従い、携帯端末20の各構成要素が、上記で説明した機能を果たすように制御する。
携帯端末20はカメラを備えるスマートフォンやタブレット端末で実現化され、編集データ入力部26の備えるテキストや図形の入力手段はスマートフォンやタブレット端末のタッチパネルにより実現化される。
The memory unit 23 stores data such as images of the face and face observation records, as well as application programs that run on the mobile terminal 20 and control programs that control the mobile terminal 20.
The display unit 24 displays data such as images of the face and draft face observation records.
The control unit 21 controls each component of the mobile terminal 20 to perform the functions described above in accordance with the control program stored in the storage unit 23 .
The mobile terminal 20 is realized by a smartphone or tablet terminal equipped with a camera, and the text and figure input means provided in the edit data input unit 26 is realized by a touch panel of the smartphone or tablet terminal.

図2は、本発明の実施形態によるトンネル切羽評価システムにおける処理の流れを概略的に示す図である。
図2を参照するとクラウドストレージ5を介しての携帯端末20と評価サーバ10とのデータの授受が(1)~(5)の数字で示され、評価サーバ10内の処理が(a)~(e)で示される。
FIG. 2 is a diagram showing a schematic flow of processing in a tunnel face evaluation system according to an embodiment of the present invention.
Referring to FIG. 2, data exchange between the mobile terminal 20 and the assessment server 10 via the cloud storage 5 is indicated by numbers (1) to (5), and processing within the assessment server 10 is indicated by (a) to (e).

まず、携帯端末20により切羽の画像が取得され、(1)の矢印で示すように、取得された画像はクラウドストレージ5に送信されて保存される。本発明の実施形態ではクラウドストレージ5はファイルの共有や通知機能があるものを使用するため、取得された画像は所定の名称で保存することにより、クラウドストレージ5から評価サーバ10に新たに切羽の画像が保存されたことが通知される。これにより、評価サーバ10は新たな切羽の画像のクラウドストレージ5への保存を感知して、(2)の矢印で示すように、保存された新たな切羽の画像をクラウドストレージ5から取得する。 First, an image of the face is acquired by the mobile device 20, and as indicated by the arrow (1), the acquired image is sent to and stored in cloud storage 5. In an embodiment of the present invention, cloud storage 5 is used that has file sharing and notification functions, so the acquired image is saved with a specified name, and the cloud storage 5 notifies the evaluation server 10 that a new image of the face has been saved. As a result, the evaluation server 10 detects that a new image of the face has been saved in cloud storage 5, and as indicated by the arrow (2), it acquires the newly saved image of the face from cloud storage 5.

評価サーバ10は、スケッチ用下地画像生成部15にて(a)の矢印のように、深層学習を使用した画像変換処理手段を作動させ、取得した切羽の画像を基に、スケッチ用下地画像の生成と切羽箇所の検出を行う。切羽箇所の検出では、検出した切羽箇所が適切であるか否かを判断して、適切でないと判断した場合は、生成したスケッチ用下地画像に基づき切羽箇所の検出を行うことを含む。生成したスケッチ用下地画像は、(b)の矢印のように、切羽観察記録原稿に使用するため切羽観察記録原稿生成部19に出力される。 The evaluation server 10 operates an image conversion processing means using deep learning in the sketch base image generation unit 15 as shown by the arrow (a), and generates a sketch base image and detects the face location based on the acquired face image. The detection of the face location includes judging whether the detected face location is appropriate or not, and if it is judged to be inappropriate, detecting the face location based on the generated sketch base image. The generated sketch base image is output to the face observation record manuscript generation unit 19 for use in the face observation record manuscript as shown by the arrow (b).

また生成したスケッチ用下地画像と検出した切羽箇所を重ね合わせ、(c)の矢印のように、切羽箇所を天端、左肩、右肩の各評価エリアに分解するために切羽箇所分解処理部17に送られる。分解した切羽箇所は、(d)の矢印のように、切羽評価部18にて評価され、それぞれの評価点が生成される。生成された評価点は、(e)の矢印のように、切羽観察記録原稿生成部19に引き渡され、先に出力されたスケッチ用下地画像と共に切羽観察記録原稿に纏められる。 The generated sketch base image and the detected face location are then superimposed, and as shown by the arrow in (c), the face location is sent to a face location decomposition processing unit 17 to decompose the face location into the top, left shoulder, and right shoulder evaluation areas. As shown by the arrow in (d), the decomposed face locations are evaluated by a face evaluation unit 18, and an evaluation score is generated for each area. As shown by the arrow in (e), the generated evaluation scores are passed to a face observation record manuscript generation unit 19, and are compiled into a face observation record manuscript together with the previously output sketch base image.

切羽観察記録原稿は、(3)の矢印で示すように、クラウドストレージ5に出力されて保存される。クラウドストレージ5に切羽観察記録原稿が保存されると、クラウドストレージ5の通知機能により携帯端末20に新たな切羽観察記録原稿が保存されたことが通知される。トンネルの工事が同時期に複数並行して行われ、それぞれの工事現場の携帯端末20から別々に切羽の画像が送られてくる場合もあり得る。そこで切羽観察記録原稿生成部19は、例えばファイル名称にトンネルの名称や工事ごとに個別に割り当てる識別コードなどを使用して、どの工事に関するものかを識別できるようにして切羽観察記録原稿を保存する。これにより切羽観察記録原稿が保存されたときに通知される携帯端末20を限定し、他の工事現場の携帯端末20には通知がいかないようにする。 The face observation record manuscript is output and stored in cloud storage 5, as indicated by the arrow (3). When the face observation record manuscript is saved in cloud storage 5, the notification function of cloud storage 5 notifies the mobile terminal 20 that a new face observation record manuscript has been saved. It is possible that multiple tunnel construction projects are carried out in parallel at the same time, and images of the face are sent separately from the mobile terminals 20 at each construction site. Therefore, the face observation record manuscript generation unit 19 saves the face observation record manuscript in such a way that it can be identified which construction it relates to, for example by using the name of the tunnel or an identification code assigned individually to each construction project in the file name. This limits the mobile terminals 20 that are notified when the face observation record manuscript is saved, and prevents notifications from being sent to mobile terminals 20 at other construction sites.

通知を受けた携帯端末20の作業者は、クラウドストレージ5から新たに保存された切羽観察記録原稿を取得し(矢印(4))、切羽観察記録原稿の中のスケッチ用下地画像に必要事項を追加してスケッチを完成させると共に、評価点やコメントなどを追加して切羽観察記録を完成させる。完成させた切羽観察記録は、矢印(5)のように、クラウドストレージ5に送信されて保存される。 The worker at the mobile terminal 20 who received the notification retrieves the newly saved draft face observation record from cloud storage 5 (arrow (4)), adds the necessary information to the sketch background image in the draft face observation record to complete the sketch, and adds evaluation points, comments, etc. to complete the face observation record. The completed face observation record is sent to and saved in cloud storage 5, as indicated by arrow (5).

図3は、取得された切羽の画像と切羽の画像から生成されたデフォルメされたスケッチ用下地画像の事例を示す図である。
図3を参照すると、(a)、(b)、(c)の3つの事例が示されており、それぞれの上段に示す図が基となる切羽の画像30であり、それぞれの下段に示す図が切羽の画像30を基に生成されたスケッチ用下地画像31である。図3の中では色調は表現できないが、カラー表示では(a)のスケッチ用下地画像31の色の濃い部分は灰色であり、(b)、(c)のスケッチ用下地画像31の色の濃い部分は褐色である。この色の違いは基の切羽の画像30の色調に基づくものである。
基となる切羽の画像30には、細部において色調の違う部分が散在する様子が認められるが、スケッチ用下地画像31は大局的に見た目の色調毎に色分けしてデフォルメされて表現されるため、大局的に見た色調の中の細部の色調の違いは取り除かれている。
FIG. 3 shows an example of an acquired image of a working face and a deformed sketch base image generated from the image of the working face.
Referring to Fig. 3, three examples (a), (b), and (c) are shown, and the top diagram of each example is the original face image 30, and the bottom diagram of each example is the sketch base image 31 generated based on the face image 30. Although color tones cannot be expressed in Fig. 3, in a color display, the dark parts of the sketch base image 31 in (a) are gray, and the dark parts of the sketch base image 31 in (b) and (c) are brown. This color difference is based on the color tone of the original face image 30.
In the original faceplate image 30, it can be seen that there are scattered areas of different color tones in the details, but since the sketch base image 31 is represented by being color-coded and deformed according to the overall appearance of the color tone, the differences in the color tones in the details within the overall color tone are eliminated.

図4は、取得された切羽の画像から直接またはスケッチ用下地画像を経由して切羽箇所を検出した結果の例を示す図である。
図4を参照すると、図4(a)に示す基の切羽の画像30から直接切羽箇所32-1を検出した場合(図4(c))と、基の切羽の画像30から図4(b)に示すスケッチ用下地画像31を生成した後、スケッチ用下地画像31に基づき切羽箇所32-2を検出した場合(図4(d))とが示される。図4(c)の切羽箇所32-1は本来の切羽箇所よりも幅広く検出されているのに対し、図4(d)の切羽箇所32-2は本来の切羽箇所を適切に検出している。図4の事例では図4(c)の切羽箇所32-1が本来の切羽箇所よりも幅広く検出されているため、切羽箇所32-1の縦横比が正しい切羽箇所の縦横比と異なるため不適切であると判断され、正しい切羽箇所の縦横比と同等の切羽箇所32-2が採用される。
FIG. 4 is a diagram showing an example of the result of detecting the face location directly from the acquired image of the face or via a sketch base image.
4, the case where the face location 32-1 is detected directly from the original face image 30 shown in FIG. 4(a) (FIG. 4(c)) and the case where the sketch base image 31 shown in FIG. 4(b) is generated from the original face image 30 and then the face location 32-2 is detected based on the sketch base image 31 (FIG. 4(d)) are shown. The face location 32-1 in FIG. 4(c) is detected wider than the actual face location, whereas the face location 32-2 in FIG. 4(d) properly detects the actual face location. In the example of FIG. 4, the face location 32-1 in FIG. 4(c) is detected wider than the actual face location, so the aspect ratio of the face location 32-1 is different from the aspect ratio of the correct face location and is therefore determined to be inappropriate, and the face location 32-2 having the same aspect ratio as the correct face location is adopted.

図5は、評価エリアごとに分解されたスケッチ用下地画像から切羽の風化変質評価点を生成した結果の例を示す図である。
図5を参照すると、天端、左肩、右肩の各評価エリアに分解した図5(a)、(b)の2つのスケッチ用下地画像の事例に於いて生成された評価点が示される。図5(a)のスケッチ用下地画像は、中間の濃さで示される部分がカラー表示では灰色で表示され、最も色の濃い部分がカラー表示では褐色で表示されるものである。また図5(b)のスケッチ用下地画像は、カラー表示ではほぼ全面が褐色で表示されるものである。
FIG. 5 is a diagram showing an example of the results of generating weathering and deterioration evaluation points for a face from a sketch base image decomposed into evaluation areas.
Referring to Figure 5, the evaluation points generated for the two example sketch base images of Figures 5(a) and (b) decomposed into the evaluation areas of the top, left shoulder, and right shoulder are shown. In the sketch base image of Figure 5(a), the parts shown with intermediate darkness are displayed in gray in the color display, and the darkest parts are displayed in brown in the color display. In the sketch base image of Figure 5(b), almost the entire surface is displayed in brown in the color display.

切羽評価部18は、風化変質評価点を生成する場合、予め指定された色の面積に基づき評価を行う。実施形態では指定される色は主に褐色であり、褐色の占める面積に応じて評価点を決定する。図5(a)の例では褐色部分が存在する天端部の評価点が2であり、褐色部分を含まない左肩と右肩の評価点は1としている。図5(b)の例ではほぼ全体が褐色であるのですべての評価エリアで評価点を4としている。 When generating a weathering evaluation score, the face evaluation unit 18 performs the evaluation based on the area of a pre-specified color. In this embodiment, the color specified is mainly brown, and the evaluation score is determined according to the area of the brown color. In the example of Figure 5(a), the top end where the brown part exists has an evaluation score of 2, and the left shoulder and right shoulder which do not include the brown part have an evaluation score of 1. In the example of Figure 5(b), almost the entire surface is brown, so the evaluation score is set to 4 for the entire evaluation area.

図6は、本発明の実施形態による切羽観察記録原稿の例を示す図である。
図6を参照すると、本発明の実施形態による切羽観察記録原稿40には、切羽基準情報欄41、切羽観察記録欄42が設けられ、切羽観察記録欄42には評価区分欄43とスケッチ欄44が含まれる。
FIG. 6 is a diagram showing an example of a working face observation record manuscript according to an embodiment of the present invention.
Referring to Figure 6, the face observation record manuscript 40 according to an embodiment of the present invention has a face reference information column 41 and a face observation record column 42, and the face observation record column 42 includes an evaluation category column 43 and a sketch column 44.

切羽基準情報欄41には、トンネル工事の開始時点で、トンネルの名称やトンネル工事の仕様などを登録した初期登録データの中から必要な情報が抽出されて記載される。
評価区分欄43には、例として(D)行の項目名である風化変質のみを記載しているが、これ以外にも割れ目の頻度や漏水などフォーマットとして指定される個別の評価項目について、それぞれ項目名と、その項目の評価基準(1・・・、2・・・等)が記載される。評価区分欄43の右端には評価基準に基づいて評価した結果が左肩、天端、右肩に区分けされて記載される。評価した結果は評価サーバ10で生成された結果については対応する評価項目欄に結果が記入され、評価サーバ10で生成されない項目については、作業者が後から入力できるように空欄で示される。
スケッチ欄44には評価サーバ10で生成されたスケッチ用下地画像45が貼り付けられる。
In the face reference information column 41, necessary information is extracted from the initial registration data that registers the name of the tunnel, specifications of the tunnel construction, etc. at the start of the tunnel construction and entered.
In the evaluation category column 43, only the item name of row (D), "weathering," is entered as an example, but for other individual evaluation items specified as a format, such as the frequency of cracks and water leakage, the item name and the evaluation criteria for that item (1..., 2..., etc.) are entered. At the right end of the evaluation category column 43, the results of evaluation based on the evaluation criteria are entered, categorized as left shoulder, top end, and right shoulder. For evaluation results generated by the evaluation server 10, the results are entered in the corresponding evaluation item column, and for items not generated by the evaluation server 10, the column is left blank so that the worker can enter the results later.
A sketch base image 45 generated by the evaluation server 10 is pasted in the sketch field 44.

図6に示す切羽観察記録原稿40は一つの事例であって、切羽観察記録原稿40に記載する内容はトンネル工事の発注者などの指定により様々な形態に変化し得る。しかし評価サーバ10で指定されたフォーマットに合わせて、予め評価サーバ10で生成されたか抽出された情報が記載されて切羽観察記録原稿40が生成されるため、作業者は切羽観察記録原稿40を利用して切羽観察記録を容易に完成させることができる。 The face observation record manuscript 40 shown in Figure 6 is just one example, and the contents to be recorded in the face observation record manuscript 40 can take various forms depending on the specifications of the client of the tunnel construction work, etc. However, since the face observation record manuscript 40 is generated by recording information that has been generated or extracted in advance by the evaluation server 10 according to the format specified by the evaluation server 10, workers can easily complete the face observation record using the face observation record manuscript 40.

図7は、本発明の実施形態によるトンネル切羽評価方法を説明するためのフローチャートである。
図7を参照すると、段階S700にて作業者は携帯端末20により、切羽の画像を取得しクラウドストレージ5に送信する。クラウドストレージ5は受信した切羽の画像を保存する(段階S710)。
FIG. 7 is a flowchart for explaining a tunnel face evaluation method according to an embodiment of the present invention.
7, in step S700, an operator acquires an image of a face using the mobile terminal 20 and transmits the image to the cloud storage 5. The cloud storage 5 stores the received image of the face (step S710).

評価サーバ10はクラウドストレージ5からの通知などにより、新たな切羽の画像がクラウドストレージ5に保存されたのを検知すると、段階S720にてクラウドストレージ5から新たに保存された切羽の画像を取得する。
切羽の画像を取得した評価サーバ10は、段階S730にて深層学習を使用した画像変換処理手段により、切羽の画像から大局的に見た目の色調毎に色分けしてデフォルメされたスケッチ用下地画像を生成する。
When the evaluation server 10 detects that a new face image has been saved in the cloud storage 5, for example through a notification from the cloud storage 5, it acquires the newly saved face image from the cloud storage 5 in step S720.
The evaluation server 10, which has acquired the image of the working face, generates a deformed base image for sketching from the image of the working face by color-coding it according to the overall appearance of the color tone, using an image conversion processing means using deep learning in step S730.

段階S740にて評価サーバ10は、生成されたスケッチ用下地画像に基づき切羽の評価点を生成する。評価点の生成の詳細については図8を参照して後述する。
評価サーバ10は、生成したスケッチ用下地画像と評価点に基づいて切羽観察記録原稿を生成する(段階S750)。切羽観察記録原稿のフォーマットは、予め指定され記憶部13に保存されたものを使用し、記憶部13に複数のフォーマットが保存されている場合は、トンネルの発注者名やトンネルの名称などの識別可能な情報に基づき、適切なフォーマットを抽出する。
評価サーバ10は、記載できる情報を書き込んで完成された切羽観察記録原稿を、クラウドストレージ5に送信し、クラウドストレージ5では、送信された切羽観察記録原稿を保存する(段階S760)。
In step S740, the evaluation server 10 generates an evaluation score for the face based on the generated sketch base image. The generation of the evaluation score will be described in detail later with reference to FIG.
The evaluation server 10 generates a face observation record manuscript based on the generated sketch base image and the evaluation points (step S750). The format of the face observation record manuscript is a format that is specified in advance and stored in the storage unit 13. If multiple formats are stored in the storage unit 13, an appropriate format is extracted based on identifiable information such as the tunnel client's name and the tunnel name.
The evaluation server 10 transmits the completed face observation record manuscript with the available information written therein to the cloud storage 5, and the cloud storage 5 stores the transmitted face observation record manuscript (step S760).

作業者は、クラウドストレージ5に切羽観察記録原稿が保存されると、クラウドストレージ5から保存された切羽観察記録原稿を取得して(段階S770)、不足している評価点を追加したり、スケッチ用下地画像にコメントを追加したりする編集を加えて切羽観察記録を完成させる(段階S780)。最後に携帯端末20から完成した切羽観察記録をクラウドストレージ5に送信し、クラウドストレージ5では、送信された切羽観察記録を保存する(段階S790)。 When the draft face observation record is saved in cloud storage 5, the worker retrieves the saved draft face observation record from cloud storage 5 (step S770) and completes the face observation record by editing it to add missing evaluation points and comments to the sketch base image (step S780). Finally, the worker transmits the completed face observation record from the mobile terminal 20 to cloud storage 5, and the transmitted face observation record is saved in cloud storage 5 (step S790).

基本的には、上記のフローに従い、完成された切羽観察記録がクラウドストレージ5内に蓄積されていくが、蓄積された切羽観察記録を時系列的に参照すると時間や工事の進展に伴う切羽の状況の変化も確認することが可能となる。そこで図中には示していないが、実施形態では評価サーバ10は、段階S790で新しい切羽観察記録が保存されると、最新の切羽観察記録と、蓄積されていたそれ以前の切羽観察記録とを読み出して対比し、例えば肌落ち等の災害の危険性が増したと判断された場合に、作業者の携帯端末20に、危険性が増したことを警告する警告情報を生成して送信する。災害の危険性の判断は、例えば切羽評価点が時系列的に見て直前の切羽観察記録の値より脆弱寄りの値に変化したか否か、或は切羽の掘削方向の走行が流れ盤の様相に変化したか否かなどを評価することで判断する。このように本発明の実施形態によるトンネル切羽評価システム1は、完成した切羽観察記録を有効に生かして警告を発することにより、切羽で作業する作業者が事故に合うリスクを低減することを可能とする。 Basically, the completed face observation records are accumulated in the cloud storage 5 according to the above flow, but by referring to the accumulated face observation records in chronological order, it is possible to confirm changes in the face condition over time and as the construction progresses. Although not shown in the figure, in the embodiment, when a new face observation record is saved in step S790, the evaluation server 10 reads out and compares the latest face observation record with the accumulated face observation records from before, and if it is determined that the risk of a disaster such as a skin fall has increased, it generates and transmits warning information to the mobile terminal 20 of the worker to warn of the increased risk. The risk of a disaster is determined, for example, by evaluating whether the face evaluation point has changed to a weaker value than the value of the immediately preceding face observation record in chronological order, or whether the running of the face in the excavation direction has changed to a dip plate appearance. In this way, the tunnel face evaluation system 1 according to the embodiment of the present invention makes it possible to reduce the risk of an accident for a worker working at the face by effectively utilizing the completed face observation records to issue a warning.

図8は、本発明の実施形態によるトンネル切羽評価方法における風化変質評価点を算出する切羽の評価点生成方法を説明するためのフローチャートである。
図8を参照すると、段階S800にて評価サーバ10は、図7の段階S720で取得した切羽の画像から切羽箇所を検出する。次に切羽箇所が正しく検出されたか否かを確認するため、段階S810にて切羽箇所が適切か否かを判断する。切羽箇所が適切であると判断した場合は、検出した切羽箇所をそのまま採用する。段階S810で切羽箇所が適切でないと判断した場合は、段階S820にて図7の段階S730で生成したスケッチ用下地画像を基に切羽箇所を検出する。
適切な切羽箇所が検出されると、評価サーバ10は、段階S830にてスケッチ用下地画像と切羽箇所を重ね合わせた上で、天端、左肩、右肩の評価エリアに分解する。
最後に分解した評価エリアごとに、予め指定された色によって、風化変質評価点を算出する(段階S840)。
FIG. 8 is a flowchart for explaining a tunnel face evaluation point generation method for calculating a weathering deterioration evaluation point in a tunnel face evaluation method according to an embodiment of the present invention.
8, in step S800, the evaluation server 10 detects the face location from the face image acquired in step S720 of FIG 7. Next, in order to check whether the face location has been correctly detected, in step S810, it is determined whether the face location is appropriate. If it is determined that the face location is appropriate, the detected face location is used as is. If it is determined that the face location is not appropriate in step S810, the face location is detected in step S820 based on the sketch base image generated in step S730 of FIG 7.
When a suitable face location is detected, the evaluation server 10 superimposes the sketch base image and the face location in step S830, and then decomposes it into evaluation areas of the top, left shoulder, and right shoulder.
Finally, a weathering evaluation score is calculated for each of the divided evaluation areas according to a pre-designated color (step S840).

以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更することが可能である。 The above describes in detail an embodiment of the present invention with reference to the drawings, but the present invention is not limited to the above-described embodiment and can be modified in various ways without departing from the technical scope of the present invention.

1 トンネル切羽評価システム
5 クラウドストレージ
10 評価サーバ
11、21 制御部
12、22 入出力部
13、23 記憶部
14、24 表示部
15 スケッチ用下地画像生成部
16 切羽箇所検出部
17 切羽箇所分解処理部
18 切羽評価部
19 切羽観察記録原稿生成部
20 携帯端末
25 画像取得部
26 編集データ入力部
30 切羽の画像
31、45 スケッチ用下地画像
32-1、32-2 切羽箇所
40 切羽観察記録原稿
41 切羽基準情報欄
42 切羽観察記録欄
43 評価区分欄
44 スケッチ欄

1 Tunnel face evaluation system 5 Cloud storage 10 Evaluation server 11, 21 Control unit 12, 22 Input/output unit 13, 23 Memory unit 14, 24 Display unit 15 Sketch base image generation unit 16 Face location detection unit 17 Face location decomposition processing unit 18 Face evaluation unit 19 Face observation record manuscript generation unit 20 Mobile terminal 25 Image acquisition unit 26 Edited data input unit 30 Face image 31, 45 Sketch base image 32-1, 32-2 Face location 40 Face observation record manuscript 41 Face reference information column 42 Face observation record column 43 Evaluation category column 44 Sketch column

Claims (6)

クラウドストレージを介して作業者の携帯端末とネットワークで接続される評価サーバを備えるトンネル切羽評価システムであって、
前記評価サーバは、
前記携帯端末により取得され前記クラウドストレージに保存された切羽の画像を取得して、深層学習を使用した画像変換処理手段により、前記切羽の画像から大局的に見た目の色調毎に色分けしてデフォルメされたスケッチ用下地画像を生成するスケッチ用下地画像生成部と、
生成された前記スケッチ用下地画像に基づき切羽の評価点を生成する切羽評価部と、
前記スケッチ用下地画像と前記評価点に基づき切羽観察記録原稿を生成して前記クラウドストレージに保存する切羽観察記録原稿生成部とを備えることを特徴とするトンネル切羽評価システム。
A tunnel face evaluation system including an evaluation server connected to a mobile terminal of a worker via a cloud storage network,
The evaluation server includes:
A sketch base image generating unit that acquires an image of a face acquired by the mobile device and stored in the cloud storage, and generates a sketch base image that is deformed by color-coding the image of the face according to the color tone of the appearance from a global perspective using an image conversion processing means using deep learning;
A face evaluation unit that generates an evaluation point of a face based on the generated sketch base image;
A tunnel face evaluation system characterized by comprising a face observation record manuscript generation unit that generates a face observation record manuscript based on the sketch base image and the evaluation points and stores it in the cloud storage.
前記評価サーバは、前記切羽の画像を取得して深層学習を使用した物体検知手段により切羽箇所を検出するか、前記スケッチ用下地画像を取得して前記スケッチ用下地画像の色調解析から切羽箇所を検出する切羽箇所検出部と、
前記切羽箇所を天端、左肩、右肩の各評価エリアに分解する切羽箇所分解処理部とをさらに備えることを特徴とする請求項1に記載のトンネル切羽評価システム。
The evaluation server includes a face location detection unit that acquires an image of the face and detects the face location by an object detection means using deep learning, or acquires the sketch base image and detects the face location from a color analysis of the sketch base image;
The tunnel face evaluation system according to claim 1, further comprising a face location decomposition processing unit that decomposes the face location into each evaluation area of the top, left shoulder, and right shoulder.
クラウドストレージを介してネットワークで接続される評価サーバと携帯端末とを備えるトンネル切羽評価システムによるトンネル切羽評価方法であって、
作業者の前記携帯端末で切羽の画像を取得して前記クラウドストレージに保存する段階と、
前記評価サーバが、
前記クラウドストレージに保存された前記切羽の画像を取得して、深層学習を使用した画像変換処理手段により、前記切羽の画像から大局的に見た目の色調毎に色分けしてデフォルメされたスケッチ用下地画像を生成する段階と、
生成された前記スケッチ用下地画像に基づき切羽の評価点を生成する段階と、
前記スケッチ用下地画像と前記評価点に基づき切羽観察記録原稿を生成する段階と、
前記切羽観察記録原稿を前記クラウドストレージに保存する段階とを有することを特徴とするトンネル切羽評価方法。
A tunnel face evaluation method using a tunnel face evaluation system including an evaluation server and a mobile terminal connected via a network via a cloud storage,
Acquiring an image of the face using the mobile terminal of the worker and storing it in the cloud storage;
The evaluation server,
A step of acquiring the image of the face stored in the cloud storage, and generating a deformed sketch base image by color-coding the image of the face according to the overall appearance color tone from the image of the face by an image conversion processing means using deep learning;
generating an evaluation point of the face based on the generated sketch base image;
generating a face observation record manuscript based on the sketch base image and the evaluation points;
A tunnel face evaluation method comprising a step of storing the face observation record manuscript in the cloud storage.
前記携帯端末により前記クラウドストレージに保存された切羽観察記録原稿を取得して前記切羽観察記録原稿に補足又は修正を加えて、完成された切羽観察記録としてクラウドストレージに保存する段階をさらに有することを特徴とする請求項3に記載のトンネル切羽評価方法。 The tunnel face evaluation method according to claim 3, further comprising a step of acquiring the face observation record manuscript stored in the cloud storage by the mobile terminal, adding supplements or corrections to the face observation record manuscript, and storing it in the cloud storage as a completed face observation record. 前記スケッチ用下地画像に基づき切羽の評価点を生成する段階は、
前記切羽の画像又は前記スケッチ用下地画像から切羽箇所を検出する段階と、
検出した切羽箇所を天端、左肩、右肩の各評価エリアに分解する段階と、
分解した評価エリアごとに予め設定した色の面積に基づき風化変質評価点を算出する段階とを含むことを特徴とする請求項3に記載のトンネル切羽評価方法。
The step of generating an evaluation point of a face based on the sketch base image includes:
detecting a face location from the face image or the sketch base image;
A step of decomposing the detected face location into evaluation areas of the top, left shoulder, and right shoulder;
A tunnel face evaluation method according to claim 3, further comprising a step of calculating a weathering deterioration evaluation point based on an area of a preset color for each of the decomposed evaluation areas.
前記切羽箇所を検出する段階は、
前記切羽の画像から、深層学習を使用した物体検知手段により切羽箇所を検出する段階と、
検出された前記切羽箇所が適切であるか否かを判断する段階と、
検出された前記切羽箇所が適切であると判断した場合、検出された前記切羽箇所を採用し、検出された前記切羽箇所が不適切であると判断した場合、前記スケッチ用下地画像から切羽箇所を検出して前記スケッチ用下地画像から検出された切羽箇所を採用する段階とを含むことを特徴とする請求項5に記載のトンネル切羽評価方法。

The step of detecting the face location includes:
Detecting a face location from the image of the face by an object detection means using deep learning;
determining whether the detected face location is appropriate;
The tunnel face evaluation method described in claim 5, characterized in that it includes a step of adopting the detected face location when it is determined that the detected face location is appropriate, and detecting the face location from the sketch base image and adopting the face location detected from the sketch base image when it is determined that the detected face location is inappropriate.

JP2022070007A 2022-04-21 Tunnel face evaluation system and tunnel face evaluation method Active JP7510459B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022070007A JP7510459B2 (en) 2022-04-21 Tunnel face evaluation system and tunnel face evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022070007A JP7510459B2 (en) 2022-04-21 Tunnel face evaluation system and tunnel face evaluation method

Publications (2)

Publication Number Publication Date
JP2023160012A JP2023160012A (en) 2023-11-02
JP7510459B2 true JP7510459B2 (en) 2024-07-03

Family

ID=

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099895A (en) 2000-09-21 2002-04-05 Univ Nihon Geologic information analyzer for bedrock
US20030145658A1 (en) 2002-01-11 2003-08-07 Gerhard Weithe Method and apparatus for surveying the geometry of tunnels
JP2010138568A (en) 2008-12-10 2010-06-24 Sato Kogyo Co Ltd Management method in tunnel construction area
JP2017115388A (en) 2015-12-24 2017-06-29 前田建設工業株式会社 Tunnel face plane displacement monitoring device
JP2018205062A (en) 2017-06-01 2018-12-27 鹿島建設株式会社 Method for evaluation and evaluation system
JP2019023392A (en) 2017-07-24 2019-02-14 株式会社大林組 Working face evaluation support system, working face evaluation support method and working face evaluation support program
JP2019184541A (en) 2018-04-17 2019-10-24 鹿島建設株式会社 Method for evaluating weathering alteration of bedrock and device for evaluating weathering alteration of bedrock
JP2019190062A (en) 2018-04-20 2019-10-31 鹿島建設株式会社 Evaluation system of working face, evaluation method of working face, and evaluation program of working face
JP2021183774A (en) 2020-05-21 2021-12-02 清水建設株式会社 Working face evaluation system, working face evaluation learning system, working face evaluation method, working face evaluation learning method, and computer program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099895A (en) 2000-09-21 2002-04-05 Univ Nihon Geologic information analyzer for bedrock
US20030145658A1 (en) 2002-01-11 2003-08-07 Gerhard Weithe Method and apparatus for surveying the geometry of tunnels
JP2010138568A (en) 2008-12-10 2010-06-24 Sato Kogyo Co Ltd Management method in tunnel construction area
JP2017115388A (en) 2015-12-24 2017-06-29 前田建設工業株式会社 Tunnel face plane displacement monitoring device
JP2018205062A (en) 2017-06-01 2018-12-27 鹿島建設株式会社 Method for evaluation and evaluation system
JP2019023392A (en) 2017-07-24 2019-02-14 株式会社大林組 Working face evaluation support system, working face evaluation support method and working face evaluation support program
JP2019184541A (en) 2018-04-17 2019-10-24 鹿島建設株式会社 Method for evaluating weathering alteration of bedrock and device for evaluating weathering alteration of bedrock
JP2019190062A (en) 2018-04-20 2019-10-31 鹿島建設株式会社 Evaluation system of working face, evaluation method of working face, and evaluation program of working face
JP2021183774A (en) 2020-05-21 2021-12-02 清水建設株式会社 Working face evaluation system, working face evaluation learning system, working face evaluation method, working face evaluation learning method, and computer program

Similar Documents

Publication Publication Date Title
CN111539923B (en) Digital ray detection method, system and server for weld defects
Jaselskis et al. Improving transportation projects using laser scanning
CN111091538B (en) Automatic identification and defect detection method and device for pipeline welding seams
JP6570039B2 (en) Forest resource information calculation method and forest resource information calculation device
KR101938402B1 (en) Drawing image compositing system for features in blind area
WO2011023247A1 (en) Generating raster image representing road existence probability based on probe measurements
JP2007044239A (en) Medical image diagnostic apparatus, medical image processing device and medical image processing program
JP2012151250A (en) Substrate inspection system
KR101954684B1 (en) System Forming Image Data Automatically
KR100539719B1 (en) Method and devices for assisting in the control of building operations
KR100976829B1 (en) The method and service system for reviewing design of shipbuilding and offshore plant
DE112020000410T5 (en) ORIENTATION OF EXTENDED REALITY MODELS
KR102388777B1 (en) System for providing adjacent building pre-survey service usign 360 degree virtual reality camera
JP7510459B2 (en) Tunnel face evaluation system and tunnel face evaluation method
KR101249825B1 (en) Visualizing system for marine geographic information and method thereof
JP6936828B2 (en) Construction drawing creation support system
JP2005310044A (en) Apparatus, method and program for data processing
JP2023160012A (en) Tunnel face evaluation system and tunnel face evaluation method
CN110689614A (en) Method, medium, device and system for collecting device information based on electronic map
CN110533714A (en) Method and system based on image processing techniques detection target object maximum inscribed circle
JP6350988B2 (en) Camera for diagnosing bridge damage
US6430583B1 (en) Scenario editing apparatus for performing editing of multimedia using figure feature points
KR101717597B1 (en) The dimensional control system based on mobile
JPH10246628A (en) Photographing control method
CN111340656A (en) Method, system and storage medium for checking legitimacy of land resource law enforcement site