KR102344741B1 - Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends - Google Patents

Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends Download PDF

Info

Publication number
KR102344741B1
KR102344741B1 KR1020200080394A KR20200080394A KR102344741B1 KR 102344741 B1 KR102344741 B1 KR 102344741B1 KR 1020200080394 A KR1020200080394 A KR 1020200080394A KR 20200080394 A KR20200080394 A KR 20200080394A KR 102344741 B1 KR102344741 B1 KR 102344741B1
Authority
KR
South Korea
Prior art keywords
scene
information
learning
analysis
point
Prior art date
Application number
KR1020200080394A
Other languages
Korean (ko)
Inventor
조인제
유상훈
Original Assignee
주식회사 대림
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 대림 filed Critical 주식회사 대림
Priority to KR1020200080394A priority Critical patent/KR102344741B1/en
Application granted granted Critical
Publication of KR102344741B1 publication Critical patent/KR102344741B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • EFIXED CONSTRUCTIONS
    • E21EARTH OR ROCK DRILLING; MINING
    • E21DSHAFTS; TUNNELS; GALLERIES; LARGE UNDERGROUND CHAMBERS
    • E21D9/00Tunnels or galleries, with or without linings; Methods or apparatus for making thereof; Layout of tunnels or galleries
    • E21D9/003Arrangement of measuring or indicating devices for use during driving of tunnels, e.g. for guiding machines
    • EFIXED CONSTRUCTIONS
    • E21EARTH OR ROCK DRILLING; MINING
    • E21DSHAFTS; TUNNELS; GALLERIES; LARGE UNDERGROUND CHAMBERS
    • E21D9/00Tunnels or galleries, with or without linings; Methods or apparatus for making thereof; Layout of tunnels or galleries
    • E21D9/006Tunnels or galleries, with or without linings; Methods or apparatus for making thereof; Layout of tunnels or galleries by making use of blasting methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mining & Mineral Resources (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Geology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geochemistry & Mineralogy (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Provided, in the present invention, is a method comprising: a step of allowing a blind end surface image information input part for learning (110) to load the blind end surface image information for learning prepared in advance for learning, allowing the analysis information input part (120) for learning to load the analysis information for learning corresponding to the blind end surface image information, and setting the learning information by mapping the loaded blind end surface image information for learning and the analysis information for learning; and a step of constructing a blind end surface automatic analysis system by repeatedly performing the above step for each of a plurality of pre-prepared blind end surface images for learning. Therefore, the present invention is capable of significantly shortening a construction time of the blind end surface automatic analysis system.

Description

인공지능을 이용한 터널의 막장면 자동분석방법 및 이를 이용한 전방 막장면 예측 방법{Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends}Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends using artificial intelligence

본 발명은 인공지능을 이용한 터널의 막장면 자동분석방법 및 이를 이용한 전방 막장면 예측 방법에 관한 것이다. The present invention relates to a method for automatically analyzing a tunnel scene using artificial intelligence and a method for predicting a front end scene using the same.

터널 공사의 시공은, 예를 들어, 장약 및 발파, 환기, 버럭처리, 막장(blind end)면 관찰 및 분석, 지보 및 굴착 패턴 결정, 지보재 설치 등의 순서로 이루어지고, 지보재 설치 이후 다시 장약 및 발파 단계로 회귀하여 다수 회 반복되면서 지정된 구간 동안 이루어진다. Construction of tunnel construction is, for example, made in the order of charging and blasting, ventilation, blocking treatment, observing and analyzing blind ends, determining support and excavation patterns, installing support materials, etc., and charging and It returns to the blasting stage and is repeated multiple times for a specified period.

여기에서 막장면 관찰 및 분석의 정확성은 매우 중요하다. 막장면에서 확인되는 암종, 암질, 절리, 지하수 여부 등에 대한 분석이 정확하게 수행되어야 안전하고 효과적인 후속 작업, 즉 해당 막장 안쪽의 다음 단계 굴착이 가능하다. Here, the accuracy of the scene observation and analysis is very important. A safe and effective follow-up operation, that is, the next stage of excavation inside the makjang, is possible only when the analysis of carcinoma, rock quality, joint, and groundwater identified in the makjang is accurately performed.

막장면 관찰 및 분석의 신속성 역시 중요하다. 발파 굴착에서 1일 2회 이상의 발파를 할 경우, 15분 이내에 막장면 분석이 완료되어야 한다. 장약, 발파, 환기, 버럭처리, 지보재 설치 등에 소요되는 시간이 많기 때문이다. The speed of observation and analysis of the scenes is also important. In case of blasting more than twice a day in blast excavation, the analysis of the scene must be completed within 15 minutes. This is because it takes a lot of time to charge, blast, ventilate, handle bugs, and install support materials.

종래 기술에서 이를 위한 다양한 방법이 제안된다. Various methods for this are proposed in the prior art.

일본공개특허 2019-023392A는 기계 학습을 이용하여 막장을 평가하는 시스템을 제안한다. 본 종래기술은 구체적인 기계 학습방법을 제시하지 않지만, 일반적인 기계 학습방법(Softmax classification, SVM 등)을 이용할 경우 막장 평가 결과의 정확도는 30 내지 40%이어서 정확성이 낮다는 큰 문제가 있다. 또한, 기계 학습에 따른 시스템 구축은 물론 현장에서의 막장면 이미지 분석에 따른 출력층 추론에 상당한 시간이 소요되어, 실재 현장 적용 가능성이 매우 낮다. Japanese Patent Application Laid-Open No. 2019-023392A proposes a system for evaluating the curtains using machine learning. Although the present prior art does not present a specific machine learning method, when a general machine learning method (Softmax classification, SVM, etc.) is used, the accuracy of the final evaluation result is 30 to 40%, so there is a big problem that the accuracy is low. In addition, it takes a considerable amount of time to construct the system according to machine learning and to infer the output layer according to the analysis of the scene image in the field, so the possibility of actual field application is very low.

일본등록특허 4094770B2호는 암반 판정 시스템을 제안한다. 퍼지 논리와 같은 인공 지능을 활용하나, 이미지 분석이 아니라 굴착기로 확인되는 실재 암반 데이터를 이용하기에, 암반 시료 추출이 필요하고 암반 분석 장비가 터널 시공 현장에 구비되어야 한다는 문제가 있다. Japanese Patent No. 4094770B2 proposes a bedrock determination system. Although artificial intelligence such as fuzzy logic is used, there is a problem that bedrock sample extraction is required and that bedrock analysis equipment must be provided at the tunnel construction site because it uses real bedrock data confirmed by an excavator rather than image analysis.

유럽등록특허 1176393B1호는 기계 학습을 이용한 막장 절리 예측 시스템을 제안한다. 3차원 카메라가 현장마다 구비될 필요가 있으며, 절리 이외의 암종, 암질 등은 판정할 수 없다는 문제가 있다. European Patent Registration No. 1176393B1 proposes a system for predicting the joint joint using machine learning. A three-dimensional camera needs to be provided for each site, and there is a problem in that it is not possible to determine carcinomas and types other than joints.

이와 같이, 종래 기술에서 인공 지능을 이용하여 막장면을 자동으로 분석하려는 시도가 있었으나, 낮은 정확도, 비교적 긴 추론 시간, 확인되는 데이터 종류의 제한, 현장에 필요한 고가의 장비 등의 문제가 있어서, 실재 터널 공사 현장에서 인공 지능을 이용한 막장면 분석이 적용되지 못하고 있다. As such, there have been attempts to automatically analyze the scene using artificial intelligence in the prior art. At the tunnel construction site, scene analysis using artificial intelligence is not applied.

현재에는, 인공 지능을 이용하지 않고, 카메라가 촬영한 이미지 상에서 사용자가 직접 영역을 구분하여 수동으로 분석을 지원하는 프로그램은 현재에도 종종 사용되긴 한다. 하지만, 이는 이미지를 불러온 후 수정 기능을 추가한 간략 프로그램 정도에 불과하며, 비전문가가 해당 프로그램을 이용할 경우 정확도가 낮아지므로 품질을 담보하기 어렵고 분석 시간 역시 증가하게 되는 문제가 있다. Currently, a program that does not use artificial intelligence and supports manual analysis by a user directly classifying an area on an image captured by a camera is often used even today. However, this is only a simple program in which a correction function is added after loading an image, and when a non-expert uses the program, the accuracy is lowered, so it is difficult to guarantee the quality and the analysis time is also increased.

또한, 인공 지능을 사용하기 위해서는, 미리 준비된 학습용 막장면 정보를 이용하여 자동분석 시스템의 구축이 전제되어야 한다. 다만, 이러한 자동분석 시스템을 구축하는 과정에서 사용되는 학습용 막장면 정보들은 전문가가 수동으로 준비하는 것이 필요한 바, 이러한 과정 역시 단축시킬 필요가 있다. In addition, in order to use artificial intelligence, it is necessary to build an automatic analysis system using the prepared learning scenes information. However, since it is necessary for an expert to manually prepare the learning scenes information used in the process of constructing such an automatic analysis system, it is also necessary to shorten this process.

(특허문헌 1) JP 2019-023392A(Patent Document 1) JP 2019-023392A

(특허문헌 2) JP 2018-071165A(Patent Document 2) JP 2018-071165A

(특허문헌 3) KR 10-2009-0020359A(Patent Document 3) KR 10-2009-0020359A

(특허문헌 4) JP 4094770B2(Patent Document 4) JP 4094770B2

(특허문헌 5) EP 1176393B1(Patent Document 5) EP 1176393B1

(특허문헌 6) JP 2019-065648A(Patent Document 6) JP 2019-065648A

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것이다.The present invention has been devised to solve the above problems.

막장면 이미지정보 분석에서 중요한 것은 정확성, 신속성 및 사용자에의한 수정 가능성이다. 종래 기술에 따르면, 인공 지능을 이용한 방식에서 정확도가 낮았으며 신속성에도 문제가 있었다. 추론 시간을 신속하게 할 수 있겠지만, 이 경우에는 정확성이 낮아질 것이다. 사용자 수정이 가능한 사용자 인터페이스를 제공한 경우가 있었으나, 비전문가의 접근이 어려웠다. 본 발명은 이러한 문제점을 해결하여, 정확성, 신속성 및 사용자의 수정 가능성이 모두 제공될 수 있는 방법을 제안하고자 한다. The important things in analyzing the scene image information are accuracy, speed, and possibility of modification by the user. According to the prior art, accuracy was low in the method using artificial intelligence, and there was also a problem in speed. It could speed up the inference time, but in this case the accuracy would be lower. In some cases, a user interface that can be modified by the user was provided, but it was difficult for non-experts to access it. The present invention is to solve these problems, and proposes a method in which accuracy, speed, and possibility of user's modification can all be provided.

또한, 종래에는 학습용 막장면 정보를 작업자(전문가)가 수동으로 직접 입력해야하는 번거로움이 있었으며, 이는 사람이 직접 입력하고, 직접 판단함에 따라 발생되는 오차가 발생되는 더 큰 문제로 이어진다. 본 발명은 이러한 문제점을 해결함으로써, 보다 간편하게 막장면 자동분석 시스템을 구축할 수 있는 방법을 제안하고자 한다. In addition, in the prior art, there was a inconvenience in that the operator (expert) manually input the scene information for learning, which leads to a bigger problem in that an error is generated when a person directly inputs and judges directly. The present invention intends to propose a method that can more easily build an automatic analysis system for scenes by solving these problems.

상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는, 막장면 이미지정보를 입력층으로 하고 상기 막장면 이미지정보에 디지털 페이스 매핑(DFM; digital face mapping)되는 분석정보를 출력층으로 하는 학습을 이용한 막장면 자동분석 시스템을 통해, 입력된 막장면 이미지정보에 대한 분석을 수행하는 방법으로서, -여기서, 분석정보는 암종에 대한 정보, 암질에 대한 정보 및 절리에 대한 정보를 포함함- (A-1) 학습용 막장면 이미지정보 입력부(110)가 학습용으로 미리 준비된 학습용 막장면 이미지정보를 로딩하며, 학습용 분석정보 입력부(120)가 상기 막장면 이미지정보에 대응되는 학습용 분석정보를 로딩하고, 상기 로딩된 학습용 막장면 이미지정보 및 학습용 분석정보를 매핑함으로써, 학습정보를 설정하는 단계(S110); 및 (B) 상기 (A-1) 단계를 상기 미리 준비된 복수의 학습용 막장면 이미지 각각에 대해 반복하여 수행함으로써, 막장면 자동분석 시스템을 구축하는 단계(S200); 를 포함하며, 상기 (A-1) 단계(S110)에서 설정되는 상기 학습정보는, 막장면에서 동일 대상의 군집 범위를 검출하여 대상영역을 표출함으로써, 생성되고, 상기 대상은 암종, 암질 및 절리를 포함하되, (T1) 상기 대상영역에 포함된 특정점을 잇는 기준선 및 상기 특정점 각각의 높이를 이용하여 상기 대상영역의 보정영역을 표출하고, 상기 막장면의 굴착 깊이 순으로 이전 보정영역들의 변화율을 이용하여 생성되는 제1 방식; (T2) 상기 막장면의 굴착 깊이 순으로 제1 및 제2 대상영역을 표출하고, 상기 제1 및 제2 대상영역 각각의 중심점 거리를 이용하여 생성되는 제2 방식; 또는 (T3) 상기 대상영역을 다등분하여 분할영역을 표출하고, 상기 막장면의 굴착 깊이 순으로 상기 분할영역에 포함된 특정점의 변화율을 이용하여 생성되는 제3 방식; 중 어느 하나를 이용하는, 방법을 제공한다. An embodiment of the present invention for solving the above problems, learning to use the scene image information as an input layer and digital face mapping (DFM) analysis information to the scene image information as an output layer A method of performing analysis on input image information of a scene through an automatic analysis system using the scene, - Here, the analysis information includes information about carcinoma, information about cancer quality, and information about joints- (A -1) The learning scene image information input unit 110 loads the learning scene image information prepared in advance for learning, and the learning analysis information input unit 120 loads the learning analysis information corresponding to the closing scene image information, and the By mapping the loaded scene image information for learning and the analysis information for learning, setting learning information (S110); And (B) by repeatedly performing the step (A-1) for each of the plurality of pre-prepared scenes for learning, building an automatic analysis system for scenes (S200); including, wherein the learning information set in step (S110) of (A-1) is generated by detecting a cluster range of the same target in a scene and expressing a target region, and the target is carcinoma, cancer, and joint Including, (T1) expressing the correction region of the target region using the reference line connecting the specific points included in the target region and the height of each specific point, and in the order of the excavation depth of the final correction region a first manner generated using a rate of change; (T2) a second method in which the first and second target areas are expressed in the order of the excavation depth of the makjang surface, and the first and second target areas are generated using a center point distance; or (T3) a third method in which the target region is divided into multiple equal parts to express the divided region, and is generated using the rate of change of a specific point included in the divided region in the order of the excavation depth of the final scene; A method is provided, using any one of them.

또한, 상기 제1 방식은, (T-11) 상기 대상영역(SZ)의 경계라인(b1)에서 첫째 높이의 제1점(P1)과, 둘째 높이의 제2점(P2)과, 셋째 높이의 제3점(P3)을 확인한 후, 상기 제2점(P2) 및 제3점(P3)을 잇는 기준선(SL)을 형성하는, 단계(S11); (T-12) 상기 제1점 내지 제3점(P1, P2, P3)을 모두 경유하는 경계라인(b1)과 상기 기준선(SL) 간의 제1높이(H1)와, 상기 대상영역의 제2높이(H2)의 비율이 임계값 이상이면, 상기 기준선(SL)을 경계로 상기 제1점(P1) 방향의 대상 범위를 삭제함으로써, 상기 대상영역의 보정영역을 표출하는, 단계(S12); 및 (T-13) 막장면의 굴착 깊이 순으로 이전 보정영역들의 변화율을 확인하고, 상기 변화율을 이용하여 전방의 막장면 이미지정보 및 분석정보를 예측함으로써, 상기 학습정보를 생성하는, 단계(S13); 를 포함할 수 있다. In addition, in the first method, (T-11) the first point P1 of the first height, the second point P2 of the second height, and the third height at the boundary line b1 of the target area SZ after confirming the third point P3 of , forming a reference line SL connecting the second point P2 and the third point P3 ( S11 ); (T-12) a first height H1 between the boundary line b1 passing through all of the first to third points P1, P2, and P3 and the reference line SL, and a second height of the target area When the ratio of the height H2 is equal to or greater than the threshold value, by deleting the target range in the direction of the first point P1 with respect to the reference line SL as a boundary, the correction area of the target area is expressed (S12); and (T-13) confirming the rate of change of previous correction areas in the order of the excavation depth of the final scene, and predicting the image information and analysis information of the final scene in front using the rate of change, thereby generating the learning information (S13) ); may include

또한, 상기 (T-13) 단계는, 굴착 깊이 순으로 각각의 상기 막장면의 중점을 경유하는 수직선을 배열하고, 상기 수직선에 보정영역의 고점 및 저점을 표시하되, 상기 고점 및 저점은 상기 보정영역의 상부 경계라인과 하부 경계라인이 상기 기준선과 각각 교차하는 교차점이며, 상기 보정영역의 변화를 이미지 트래킹으로 추적하도록 상기 수직선별 고점 및 저점을 각각 이어 종축도를 생성할 수 있다. In addition, in the step (T-13), vertical lines passing through the midpoint of each of the final scenes are arranged in the order of the excavation depth, and the high and low points of the correction region are displayed on the vertical lines, but the high and low points are the correction The upper boundary line and the lower boundary line of the region are intersection points where they intersect the reference line, respectively, and the vertical axis view may be generated by connecting the high and low points of each vertical line to track the change of the correction region by image tracking.

또한, 상기 (T-12) 단계에서, 상기 제1높이는 상기 막장면의 중점을 경유하는 수직선이, 경계라인 및 기준선과 각각 교차하는 교차점들 간의 길이이며, 상기 제2높이는 상기 수직선이 대상영역의 경계라인을 교차하는 교차점들 간의 길이일 수 있다. In addition, in the step (T-12), the first height is a length between intersection points where a vertical line passing through the midpoint of the film scene intersects a boundary line and a reference line, respectively, and the second height is the vertical line of the target area It may be the length between intersections crossing the boundary line.

또한, 상기 제2 방식은, (T-21) 상기 제1 대상영역의 제1 중심점 및 상기 제2 대상영역의 제2 중심점 간의 거리가 임계값 미만이면 상기 제1 및 제2 대상영역은 동질영역으로 설정하는 단계(S21); 및 (T-22) 상기 막장면의 굴착 깊이 순으로 이전 동질영역들의 변화율을 확인하고, 상기 변화율을 이용하여 전방 막장면의 대상영역을 예측하는 단계(S22); 를 포함할 수 있다. In addition, in the second method, (T-21) if the distance between the first central point of the first target region and the second central point of the second target region is less than a threshold value, the first and second target regions are homogeneous regions setting to (S21); and (T-22) confirming the rate of change of the previous homogeneous areas in the order of the excavation depth of the last scene, and predicting the target area of the front end face using the rate of change (S22); may include

또한, 상기 (T-22) 단계는, 상기 제1 중심점을 경유하는 제1 수직선에 상기 제1 대상영역의 고점 및 저점을 표시하고, 상기 제2 중심점을 경유하는 제2 수직선에 상기 제2 대상영역의 고점 및 저점을 표시하며, 굴착 깊이 순으로, 상기 제1 및 제2 수직선을 배열하여 상기 제1 및 제2 대상영역의 변화를 이미지 트래킹으로 추적하도록, 상기 제1 및 제2 수직선별로 동질영역의 고점과 저점을 각각 이어 종축도를 생성할 수 있다. In addition, in the step (T-22), the high and low points of the first target area are displayed on a first vertical line passing through the first center point, and the second target area is displayed on a second vertical line passing through the second center point. Displaying the high and low points of the area, arranging the first and second vertical lines in the order of the depth of excavation, so as to track the change of the first and second target area by image tracking, homogeneous for each of the first and second vertical lines A vertical axis can be created by connecting the high and low points of the region, respectively.

또한, 상기 제3 방식은, (T-31) 상기 분할영역의 일단점 및 타단점을 각각 추출하는 단계(S31); 및 (T-32) 굴착 깊이 순으로, 동질의 이전 대상영역들의 분할영역별 일단점 및 타단점 각각의 변화율을 확인하고, 전방 막장면의 대상영역의 분할영역별 일단점 및 타단점을 예측하여 전방 막장면의 대상영역을 예측하는 단계(S32); 를 포함할 수 있다. In addition, the third method includes: (T-31) extracting one end point and the other end point of the divided region, respectively (S31); and (T-32) in the order of excavation depth, by confirming the rate of change of one end point and the other end point for each division area of the previous target areas of the same quality, and predicting the one end point and the other end point for each division area of the target area of the front end scene. Predicting the target area of the front scene (S32); may include

또한, 상기 분할영역은, 상기 대상영역을 횡방향으로 분할하고, 상기 (T-32) 단계에서, 상기 일단점 및 타단점은 각각의 분할영역의 최고점 및 최저점이며, 상기 일단점 및 타단점 각각의 변화율은, 상기 일단점 및 타단점 간의 거리 변화율을 포함할 수 있다. In addition, the division region divides the target region in the horizontal direction, and in step (T-32), the one end and the other end point are the highest and lowest points of each divided region, and the one and the other end points, respectively The rate of change of may include a rate of change of the distance between the one end point and the other end point.

또한, (T-30) 상기 대상영역을 다등분하여 분할영역을 표출하기 이전에, 굴착 깊이 순으로, 이전 대상영역들의 중심점을 검출하고, 상기 이전 대상영역들의 중심점 간의 거리가 임계값 미만이면, 해당되는 이전 대상영역들은 서로 동질영역인 것으로 설정하는 단계(S30); 를 더 포함할 수 있다. In addition, (T-30) before expressing the divided area by dividing the target area into multiple equal parts, the center points of the previous target areas are detected in the order of the excavation depth, and if the distance between the center points of the previous target areas is less than the threshold value, setting the corresponding previous target areas to be homogeneous with each other (S30); may further include.

또한, 본 발명은 전술한 방법에 있어서, 상기 (A-1) 단계 이후, (A-2) 학습정보 분할부(130)가, 상기 학습정보를 기설정된 단위로서 분할(cropping)하여 하나의 학습정보마다 다수의 분할 학습정보를 생성하는 단계(S120); (A-3) 포맷 변환부(210)가 상기 다수의 분할 학습정보를 로딩하여 학습용 포맷으로 변환하는 단계(S130); 및 (A-4) 학습수행부(230)가, 상기 포맷 변환된 다수의 분할 학습정보를 이용하여 하나의 막장면 이미지정보마다 다수 회의 학습을 수행하는 단계(S140); 를 더 포함하고, 상기 (B) 단계 이후, (C) 입력부(310)에 막장면 이미지정보가 입력되면, 추론부(330)가 상기 막장면 자동분석 시스템을 이용하여 분석정보를 추론하고, 출력부(350)가 이를 출력하는 단계(S300); 를 더 포함할 수 있다. In addition, in the present invention, in the above-described method, after step (A-1), (A-2) the learning information dividing unit 130 crops the learning information as a preset unit to learn one learning. Generating a plurality of divided learning information for each information (S120); (A-3) converting the format conversion unit 210 into a learning format by loading the plurality of divided learning information (S130); and (A-4) performing, by the learning performing unit 230, a plurality of learning times for each single scene image information using the format-converted plurality of divided learning information (S140); Further comprising, after the (B) step, (C) when the scene image information is input to the input unit 310, the inference unit 330 infers the analysis information using the automatic analysis system for the scene scene, and outputs The unit 350 outputs it (S300); may further include.

또한, 상기 (B) 단계 이후, (B-1) 유효성 검증부(240)가, 다수의 다른 학습용 막장면 이미지정보를 이용하여 상기 (B) 단계에서 구축된 막장면 자동분석 시스템의 유효성 검증을 수행하는 단계(S210); 를 더 포함하며, 상기 학습용 막장면 이미지정보 및 이에 대응하는 분석정보가 N개 준비되되, 상기 (B) 단계에서 수행되는 학습용 막장면 이미지정보는 A개이며(N>A), 상기 (B-1) 단계에서 수행되는 다른 학습용 막장면 이미지정보는 N-A개일 수 있다. In addition, after the step (B), (B-1) the validation unit 240, using a plurality of other learning scenes image information to verify the validity of the automatic scene analysis system built in the step (B) performing (S210); Further comprising, the learning end scene image information and analysis information corresponding thereto are prepared N pieces, the learning end scene image information performed in the step (B) is A (N>A), the (B- Other learning scenes image information performed in step 1) may be NA pieces.

또한, 상기 (C) 단계는, (C-11) 상기 입력부(310)에 막장면 이미지정보가 입력되는 단계(S311); (C-12) 이미지 수정부(320)에 상기 입력된 막장면 이미지정보 상에서 터널 경계면 노드가 입력되고, 입력된 터널 경계면 노드가 연결되고, 연결된 면적만 추출됨으로써, 막장면 이미지정보가 수정되는 단계(S312); 및 (C-13) 추론부(330)가 상기 수정된 막장면 자동분석 시스템을 이용하여 분석정보를 추론하고, 출력부(350)가 이를 출력하는 단계(S313); 를 포함할 수 있다. In addition, the step (C) includes: (C-11) inputting the scene image information to the input unit 310 (S311); (C-12) A step in which a tunnel boundary node is input on the inputted scene image information to the image correction unit 320, the input tunnel boundary node is connected, and only the connected area is extracted, thereby modifying the closing scene image information (S312); and (C-13) the inference unit 330 infers the analysis information using the modified automatic scene analysis system, and the output unit 350 outputs it (S313); may include

또한, 상기 (C) 단계는, (C-21) 상기 입력부(310)에 막장면 이미지정보가 입력되는 단계(S321); (C-22) 이미지 수정부(320)가 워터쉐드(watershed) 기법을 이용하여 상기 입력된 막장면 이미지정보를 다수의 영역으로 분할하는 단계(S322); (C-23) 상기 추론부(330)가, 상기 입력된 막장면 이미지정보의 다수의 영역 각각을 입력층으로 하여, 상기 막장면 자동분석 시스템을 통해 영역별 분석정보를 추론하는 단계(S323); 및 (C-24) 상기 추론부(330)가 상기 영역별 분석정보를 통합하여 상기 입력된 막장면 이미지정보에 대한 상기 디지털 페이스 매핑된 분석정보를 추론하고, 상기 출력부(350)가 이를 출력하는 단계(S324); 를 포함할 수 있다. In addition, the step (C), (C-21) the step of inputting the scene image information to the input unit 310 (S321); (C-22) the image correction unit 320 dividing the input scene image information into a plurality of regions using a watershed technique (S322); (C-23) Inferring, by the inference unit 330, analysis information for each region through the automatic scene analysis system by using each of a plurality of regions of the input scene image information as an input layer (S323) ; and (C-24) the inference unit 330 integrates the analysis information for each region to infer the digital face-mapped analysis information for the input scene image information, and the output unit 350 outputs it to (S324); may include

한편, 본 발명은 전술한 방법을 이용하고, 예측시스템(10)을 통해 전방 막장면을 예측하는 방법으로서, 상기 (C) 단계 이후, (C-1) 상기 추론부(330)에 의해 추론되어 상기 출력부(350)로부터 출력된 막장면의 상기 분석정보가 상기 예측시스템(10)에 입력되는 단계(S410); (C-2) 막장면의 상기 분석정보가 상기 예측시스템(10)에 구비된 막장면 분석모듈(12)로 입력되어 대상영역 이미지를 생성하는 단계(S420); (C-3) 상기 예측시스템(10)에 구비된 막장면 처리모듈(13)에 의해, 상기 막장면 분석모듈(12)이 표출한 대상영역 이미지를 기설정된 방식으로 처리하는 단계(S430); 및 (C-4) 상기 예측시스템(10)에 구비된 막장면 예측모듈(14)을 통해, 상기 막장면 처리모듈(13)에 의해 처리된 이미지를 이용하여 전방 막장면을 예측하되, 상기 제1 내지 제3 방식 중 어느 하나를 이용하여 전방 막장면을 예측하는 단계(S440); 를 더 포함하는, 전방 막장면 예측 방법을 제공한다. On the other hand, the present invention is a method for predicting a front curtain scene through the prediction system 10 using the above-described method, and after step (C), (C-1) inferred by the inference unit 330 The analysis information of the scene output from the output unit 350 is input to the prediction system 10 (S410); (C-2) generating a target region image by inputting the analysis information of the scene scene to the scene scene analysis module 12 provided in the prediction system 10 (S420); (C-3) processing, by the scene processing module 13 provided in the prediction system 10, the target region image expressed by the scene analysis module 12 in a preset manner (S430); and (C-4) predicting the front scene using the image processed by the scene processing module 13 through the scene prediction module 14 provided in the prediction system 10, but Predicting the front curtain scene using any one of the first to third methods (S440); It provides a forward curtain scene prediction method further comprising a.

본 발명에 따른 토대를 이용할 경우, 다음과 같은 장점이 있다. The use of the foundation according to the present invention has the following advantages.

본 발명은 다음과 같은 장점이 갖는다. The present invention has the following advantages.

첫째, 막장면 자동분석 시스템의 구축이 매우 용이하다. 본 발명에 따라 구축되는 막장면 자동분석 시스템은 인공지능을 이용하는 바, 학습을 통해 구축된다. 상기 시스템이 구축된 상태에서는 자동으로 막장면이 분석되나, 구축하는 과정에서는 작업자가 학습정보를 직접 입력하는 것이 필요하며, 이러한 학습정보는 작업자에의해 수동으로 판단된다. 그러나, 본 발명에 따르면, 학습정보가 특정한 방식에의해 자동으로 생성되는 바, 작업자에의한 실수, 주관적 판단기준 등의 리스크가 제거됨으로써, 보다 신뢰도를 향상시킬 수 있다. 또한, 작업자의 직접 입력 및 직접 판단 과정이 생략됨으로써, 막장면 자동분석 시스템의 구축 시간을 현저하게 앞당길 수 있다. First, it is very easy to construct an automatic analysis system for scenes. The automatic scene analysis system constructed according to the present invention uses artificial intelligence and is built through learning. In the state in which the system is built, the scene is automatically analyzed, but in the process of building, it is necessary for the operator to directly input learning information, and this learning information is determined manually by the operator. However, according to the present invention, since the learning information is automatically generated by a specific method, risks such as mistakes made by the operator and subjective judgment criteria are removed, so that reliability can be further improved. In addition, since the operator's direct input and direct judgment process is omitted, the construction time of the automatic scene analysis system can be significantly accelerated.

둘째, 비전문가에의해서도 높은 정확도의 분석정보 확인이 가능하다. 학습을 통해 높은 정확도로 막장 정보가 분석된다. 후술하겠지만, 인공 지능을 이용한 종래 기술에 따른 정확도는 30 내지 40%에 불과하였으나, 본 발명에 따라 실재 구현된 실시예에서 70% 이상의 정확도를 검증하였다. 전문가에의해 검증된 다수의 훈련 세트를 활용하고, 실재 사용자 사용시 확인 결과가 학습정보로서 재활용되어 해당 정확도를 더욱 상승시킬 수도 있다. Second, high-accuracy analysis information can be checked even by non-experts. Through learning, the last information is analyzed with high accuracy. As will be described later, the accuracy according to the prior art using artificial intelligence was only 30 to 40%, but the accuracy of 70% or more was verified in the embodiment actually implemented according to the present invention. A number of training sets verified by experts are used, and when real users are used, the verification results are recycled as learning information to further increase the accuracy.

셋째, 분석이 신속하다. 다음 단계의 장약, 발파, 환기 등을 진행하기 위해 15분 안에 막장면 분석이 완료되어야 함은 전술한 바와 같다. 인공 지능을 이용한 이유 중 하나도 이러한 신속한 분석을 위함이나, 종래 기술에서는 인공 지능 및 추론 자체의 연산량이 많아 이를 구현하기 어려웠다. 본 발명은 다양한 방식으로 신속한 분석이 가능하도록 구현하였다. 이미지를 분할하여 학습하고, 워터쉐드 기법을 활용하고, 인셉션 알고리즘을 수정하여 활용하고, 최적의 파라미터 설정함으로써 신속한 연산을 구현하였다. Third, the analysis is quick. In order to proceed with the next stage of charging, blasting, and ventilation, the analysis of the scene must be completed within 15 minutes as described above. One of the reasons for using artificial intelligence is for such a rapid analysis, but in the prior art, it was difficult to implement due to the large amount of computation of artificial intelligence and reasoning itself. The present invention was implemented to enable rapid analysis in various ways. By dividing and learning the image, using the watershed technique, modifying and using the inception algorithm, and setting the optimal parameters, rapid calculation was implemented.

넷째, 사용자 수정이 자유롭다. 인공 지능에의해 1차 분석 결과가 제공되지만, 현장에 있는 전문가는 이를 확인하면서 자유롭게 수정할 수 있다. 다각형으로 표현되는 암종 및 암질과 선분으로 표현되는 절리의 자유로운 이동을 위해 노드 방식을 채택하여, 사용자가 직관적으로 수정이 가능하게 하였으며, 이는 최종 분석 결과 도출에 소요되는 시간을 더욱 감소시킨다. Fourth, user modification is free. Although the results of the primary analysis are provided by artificial intelligence, experts in the field can freely modify them while checking them. By adopting the node method for the free movement of cancer types expressed in polygons and joints expressed in rock quality and line segments, users can intuitively edit, which further reduces the time required to derive final analysis results.

추가로, RQD(암질지수)가 자동으로 연산되고, 레포트 형식의 출력이 가능하며, 절리 주향 경사 및 절리 보정 점수를 입력할 수 있는 사용자 인터페이스를 제공한다. In addition, the RQD (rock quality index) is automatically calculated, a report format is available, and a user interface is provided to input the joint strike slope and joint correction score.

대형이거나 고가이거나 유지 관리가 어려운 별도의 장비를 현장에 준비시킬 필요가 없다. 카메라와 통신 기능이 있는 정보처리기기(예를 들어, 핸드폰, 태블릿, 노특북 등) 1대만 현장에 구비되면 충분히 본 발명에 따른 방법 수행이 가능하다.There is no need to prepare separate equipment on site that is large, expensive, or difficult to maintain. If only one information processing device (eg, cell phone, tablet, notebook, etc.) having a camera and communication function is provided in the field, the method according to the present invention can be sufficiently performed.

도 1은 본 발명에 따른 방법을 수행하기 위한 시스템을 개략적으로 도시한다.
도 2는 본 발명에 따른 방법을 수행하는 순서도를 도시한다.
도 3은 학습용 막장면 이미지정보와 학습용 분석정보의 예를 도시한다.
도 4 및 도 5는 학습정보의 분할 방법의 예시를 도시한다.
도 6은 본 발명에 사용된 학습방법의 네트워크를 예시적으로 도시한다.
도 7은 본 발명에서 막장면 이미지정보의 수정 방법의 예시를 도시한다.
도 8은 본 발명에서 막장면 이미지정보의 수정에 사용되는 워터쉐드 기법의 예시를 도시한다.
도 9a 내지 도 9c는 본 발명에 사용되는 캐니 엣지 디텍션 기법의 예시를 도시한다.
도 10은 본 발명에 따라 추론된 결과물인 분석정보가 출력되는 예시를 도시한다.
도 11은 본 발명에서 사용되는 다양한 RQD 조사선 중심 수정 방법의 예시를 도시한다.
도 12는 본 발명에서 사용자에의한 절리 수정 방법의 예시를 도시한다.
도 13은 본 발명에서 사용자에의한 절리 주향 경사와 절리 보정 점수가 입력되는 예시를 도시한다.
도 14는 본 발명에서 사용자에의한 다각형 수정 방법의 예시를 도시한다.
도 15는 본 발명에 따른 예측시스템의 출력수단을 통해 출력되는 이미지창의 모습을 보인 이미지이다.
도 16은 본 발명에 따른 전방 예측 방법에 따라 암질영역의 속성값을 확인하는 모습을 개략적으로 도시한 도면이다.
도 17은 본 발명에 따른 전방 예측 방법에 따라 암질영역에서 보정영역을 표출하는 모습을 도시한 도면이다.
도 18은 본 발명에 따른 전방 예측 방법에 따라 표출된 보정영역의 종축도를 보인 이미지이다.
도 19는 본 발명에 따른 전방 예측 방법을 통해 예측하기 위한 암질영역을 개략적으로 도시한 도면이다.
도 20은 도 19의 암질영역의 전방 암질영역을 예측하기 위한 일 예를 보인 이미지이다.
도 21은 본 발명에 따른 전방 예측 방법에 따라 암질영역의 속성값을 확인하는 모습을 개략적으로 도시한 도면이다.
도 22 내지 도 24는 본 발명에 따른 전방 예측 방법에 따라 암질영역의 수직선이 표시되는 모습을 개략적으로 도시한 도면이다.
도 25는 본 발명에 따른 전방 예측 방법에 따라 굴착 깊이별 막장면에 대응하는 종축도를 보인 이미지이다.
도 26은 본 발명에 따른 전방 예측 방법에 따라 암질영역의 속성값을 확인하는 모습을 개략적으로 도시한 도면이다.
도 27은 본 발명에 따른 전방 예측 방법에 따라 이전 분할영역들의 일단점의 위치 변화를 보인 도면이다.
1 schematically shows a system for carrying out a method according to the invention;
2 shows a flow chart for carrying out the method according to the invention;
3 shows an example of the scene image information for learning and the analysis information for learning.
4 and 5 show examples of a method of dividing learning information.
6 exemplarily shows a network of the learning method used in the present invention.
7 shows an example of a method of modifying the scene image information in the present invention.
8 shows an example of a watershed technique used to correct the scene image information in the present invention.
9A to 9C show examples of canny edge detection techniques used in the present invention.
10 shows an example in which analysis information, which is a result inferred according to the present invention, is output.
11 shows an example of various RQD radiation center correction methods used in the present invention.
12 shows an example of a joint correction method by a user in the present invention.
13 shows an example in which the joint strike slope and joint joint correction score are input by the user in the present invention.
14 shows an example of a polygon modification method by a user in the present invention.
15 is an image showing an image window output through the output means of the prediction system according to the present invention.
16 is a diagram schematically illustrating a state in which an attribute value of a dark region is checked according to the forward prediction method according to the present invention.
17 is a diagram illustrating a state in which a correction area is expressed in a dark area according to the forward prediction method according to the present invention.
18 is an image showing the vertical axis of the correction region expressed according to the forward prediction method according to the present invention.
19 is a diagram schematically illustrating a dark area for prediction through the forward prediction method according to the present invention.
FIG. 20 is an image showing an example for predicting an anterior dark mass of the dark mass of FIG. 19 .
21 is a diagram schematically illustrating a state in which an attribute value of a dark region is checked according to the forward prediction method according to the present invention.
22 to 24 are diagrams schematically illustrating a state in which a vertical line of a dark area is displayed according to the forward prediction method according to the present invention.
25 is an image showing a vertical axis view corresponding to the surface of each excavation depth according to the forward prediction method according to the present invention.
26 is a diagram schematically illustrating a state in which an attribute value of a dark area is checked according to the forward prediction method according to the present invention.
27 is a view showing a change in the position of one end point of the previous divided regions according to the forward prediction method according to the present invention.

이하에서, "학습(learning)"은 컴퓨터 등의 정보처리기기가 입력 정보를 입력층으로 인가하면 소정의 훈련을 거쳐 이에 해당하는 출력 정보를 자동으로 추론하여 출력층으로 이를 출력하는 알고리즘을 구축하기 위해 수행되는 데이터 처리 기법을의미하며 인공 지능의 일종이다. 기계 학습(machine learning)이 포함될 수 있다. 학습은 입력층과 출력층이 결정된 다수의 훈련 세트(training set)를 이용한 훈련(train)으로 이루어진다. 학습은 소정의 알고리즘을 이용하여 정보처리기기가 주체가 되어 수행되는 것이며, 다수의 학습수행이 이루어져서 알고리즘이 구축되면, 이후 사용자에의해 입력된 정보에 따라 정해진 방식으로 추론을 자동으로 수행할 수 있게 된다. 여기에 사용되는 알고리즘은 다양할 수 있다. 아래에서는 사용되는 학습알고리즘으로서 인셉션(inception)이 예시적으로 제안된다. Hereinafter, "learning" refers to when an information processing device such as a computer applies input information to the input layer, it undergoes predetermined training to automatically infer the corresponding output information to build an algorithm that outputs it to the output layer. It refers to the data processing technique that is performed and is a kind of artificial intelligence. Machine learning may be included. Learning consists of training using a plurality of training sets in which an input layer and an output layer are determined. Learning is performed by using a predetermined algorithm as the subject of the information processing device, and when the algorithm is built after performing a number of learning, it is possible to automatically perform inference in a predetermined manner according to the information input by the user. do. The algorithm used here may vary. Below, as a learning algorithm to be used, inception is proposed as an example.

이하에서, "디지털 페이스 매핑(DFM; digital face mapping)"은 촬영된 이미지 상에 디지털화된 정보를 매핑함을의미한다. 본 발명에 따른 DFM에의해, 카메라 등으로 사용자가 촬영한 막장면 이미지 상에 암종, 암질, 절리 등에 대한 정보가 디지털 매핑된다. 다시 말해, 사용자가 본 발명에 따른 방법을 이용하여 막장면 이미지를 입력하면 분석정보가 자동으로 추론되고 이미지에 중첩되어 출력되는데, 이러한 분석 결과가 DFM 결과이다. 도 10 상단과 같이 절리가 선분으로 도시되거나, 도 10 하단과 같이 암종(예를 들어, 화강암 등)과 암질(예를 들어, 심한 풍화 등)의 구역이 구분되어 도시될 수 있다. Hereinafter, "digital face mapping (DFM)" means mapping digitized information on a photographed image. By the DFM according to the present invention, information on carcinoma, cancer quality, joint, etc. is digitally mapped on a scene image taken by a user with a camera or the like. In other words, when a user inputs an image of a scene using the method according to the present invention, analysis information is automatically inferred and output is superimposed on the image, and this analysis result is a DFM result. As shown in the upper part of FIG. 10 , the joints are shown as line segments, or as shown in the lower part of FIG. 10 , regions of carcinoma (eg, granite, etc.) and rock quality (eg, severe weathering, etc.) may be separated and shown.

시스템의 설명Description of the system

본 방법은, 막장면 이미지정보를 입력층으로 하고 상기 막장면 이미지정보에 디지털 페이스 매핑되는 분석정보를 출력층으로 하는 학습을 이용한 막장면 자동분석 시스템을 통해, 입력된 막장면 이미지정보에 대한 분석정보를 자동으로 출력하는 방법에 관한 것이다. 여기서, 분석정보는 암종에 대한 정보, 암질에 대한 정보 및 절리에 대한 정보를 포함한다.In this method, analysis information on the inputted scene image information through an automatic analysis system using the learning that uses the scene image information as an input layer and the analysis information digital face mapped to the scene image information as an output layer It relates to a method of automatically outputting . Here, the analysis information includes information on carcinoma, information on cancer quality, and information on joints.

도 1을 참조하여 본 발명에 따른 방법을 수행하기 위한 막장면 자동분석 시스템을 설명한다.An automatic scene analysis system for performing the method according to the present invention will be described with reference to FIG. 1 .

본 발명에 따른 방법이 수행되는 시스템은, 학습정보를 생성하는 학습정보 생성모듈(100); 학습정보를 기반으로 학습을 수행하여 막장면 자동분석 시스템을 구축하는 학습모듈(200); 구축된 막장면 자동분석 시스템을 기반으로 사용자에의해 입력된 막장면 이미지를 분석하여 암종, 암질, 절리 등의 정보를 자동으로 추론하여 출력하는 DFM 모듈(300); 추론된 분석정보를 기반으로 사용자가 수정할 수 있는 기능을 제공하는 사용자 수정 모듈(400); 및 최종 수정된 분석정보와 막장면 이미지정보를 다시 학습정보로 변환하여 학습이 가능하도록 하는 학습정보 추가 모듈(500)을 포함한다. A system in which the method according to the present invention is performed includes: a learning information generating module 100 for generating learning information; a learning module 200 for constructing an automatic scene analysis system by performing learning based on learning information; DFM module 300 for automatically inferring and outputting information such as carcinoma, cancer quality, joint, etc. by analyzing the image of the scene input by the user based on the built-up automatic analysis system; a user modification module 400 that provides a function that a user can modify based on the inferred analysis information; and a learning information addition module 500 that converts the final modified analysis information and the scene image information back into learning information to enable learning.

학습정보 생성모듈(100)은, 학습용 막장면 이미지정보 입력부(110), 학습용 분석정보 입력부(120), 학습정보 분할부(130) 및 학습정보 데이터베이스(190)를 포함한다. 여기서, 학습정보 생성모듈(100)은, 예측시스템(10)으로부터 학습정보를 제공받도록 구성된다. 예측시스템(10)은 후술하는 방식으로, 자동으로 학습용 막장면 이미지정보 및 학습용 분석정보를 매핑하며, 이에 대해서는 별도로 후술하도록 한다. The learning information generation module 100 includes a scene image information input unit 110 for learning, an analysis information input unit 120 for learning, a learning information division unit 130 , and a learning information database 190 . Here, the learning information generating module 100 is configured to receive learning information from the prediction system 10 . The prediction system 10 automatically maps the learning scene image information and the learning analysis information in a manner to be described later, which will be described separately later.

학습모듈(200)은, 포맷 변환부(210), 학습파라미터 설정부(220), 학습수행부(230), 및 유효성 검증부(240)을 포함한다. The learning module 200 includes a format conversion unit 210 , a learning parameter setting unit 220 , a learning execution unit 230 , and a validity verification unit 240 .

DFM 모듈(300)은 입력부(310), 이미지 수정부(320). 추론부(330), 절리 추출부(340), 출력부(350), RQD 계산부(360), 및 DFM 데이터베이스(390)를 포함한다.The DFM module 300 includes an input unit 310 and an image correction unit 320 . It includes an inference unit 330 , a joint extraction unit 340 , an output unit 350 , an RQD calculation unit 360 , and a DFM database 390 .

각각의 기능은 아래에서 보다 상세히 설명한다. Each function is described in more detail below.

학습정보 준비Preparation of learning information

도 2를 더 참조하여 본 발명에 따른 방법을 수행하기 위해 학습정보를 준비하는 방법을 설명한다. A method of preparing learning information for performing the method according to the present invention will be described with further reference to FIG. 2 .

입력층인 학습용 막장면 이미지정보와 이를 분석한 출력층인 학습용 분석정보를 준비한다. 학습용 분석정보는 전문가에 의해 검증된 정보인 것이 바람직하다. 학습용 막장면 이미지정보와 학습용 분석정보는 서로 매핑되어 있다. Prepare the image information of the scene for learning as the input layer and the analysis information for learning as the output layer that analyzes it. It is preferable that the analysis information for learning is information verified by an expert. The scene image information for learning and the analysis information for learning are mapped to each other.

학습용 막장면 이미지정보와 이에 대응하는 학습용 분석정보가 N개 준비되어 있다면, 그 중 일부(A개)는 학습에 사용하고 나머지(N-A개)는 검증에 사용한다(N>A). If there are N pieces of image information for learning scenes and corresponding analysis information for learning, some of them (A pieces) are used for learning and the rest (N-A pieces) are used for verification (N>A).

실재 구현 시스템에서 1000개의 학습용 막장면 이미지정보 중 900개를 학습에 사용하였고, 나머지 100개가 검증에 사용하였다. In the real implementation system, 900 out of 1000 learning scenes image information was used for learning, and the remaining 100 were used for verification.

학습용 막장면 이미지정보 입력부(110)가 학습용으로 미리 준비된 학습용 막장면 이미지정보를 로딩하고, 학습용 분석정보 입력부(120)가 상기 막장면 이미지정보에 대응되는 학습용 분석정보를 로딩한다. 이와 같이 준비된 학습용 막장면 이미지정보와 학습용 분석정보를 학습정보로 지칭한다(도 3). The learning scene image information input unit 110 loads the learning scene image information prepared in advance for learning, and the learning analysis information input unit 120 loads the learning analysis information corresponding to the closing scene image information. The prepared scene image information for learning and the analysis information for learning are referred to as learning information (FIG. 3).

이를 그대로 학습하는 것이 아니라 분할하여 학습하는 것이 중요하다. 연산량을 감소시켜 많은 학습정보를 신속하게 학습하기 위함이다. 이를 위해, 학습정보 분할부(130)가, 준비된 학습정보를 기설정된 단위로서 분할(cropping)하여 하나의 막장면 이미지정보마다 다수의 분할 학습정보를 생성한다. It is important not to learn it as it is, but to learn it by dividing it. This is to learn a lot of learning information quickly by reducing the amount of computation. To this end, the learning information dividing unit 130 generates a plurality of divided learning information for each single scene image information by cropping the prepared learning information as a preset unit.

실재 구현 시스템에서 픽셀 단위 30X30으로 분할하여 저장하였다(도 4). 학습정보로서 다수의 막장면 이미지정보와 이에 대응된 분석정보를 매핑히여 획득하고 분할된 정보는 개별 파일로 학습정보 데이터베이스(190)에 저장된다(도 5). In the actual implementation system, it was divided into pixel units of 30X30 and stored (FIG. 4). As learning information, a plurality of scene image information and corresponding analysis information are mapped and acquired, and the divided information is stored in the learning information database 190 as an individual file (FIG. 5).

한편, 본 발명에 따른 학습정보 준비는 별도로 후술하도록 한다. Meanwhile, the preparation of learning information according to the present invention will be separately described later.

학습방법Learning method

학습모듈(200)은 학습정보 생성모듈(100)에서 준비된 분할 학습정보를 이용하여 학습을 수행한다. The learning module 200 performs learning using the divided learning information prepared in the learning information generation module 100 .

먼저, 포맷 변환부(210)가 다수의 분할 학습정보를 로딩하여 학습용 포맷으로 변환한다. First, the format conversion unit 210 loads a plurality of divided learning information and converts it into a learning format.

실재 구현 실시예에서, 텐서플로우(tensorflow)의 TF-Slim을 이용하여 학습을 진행할 수 있도록 학습정보를 .tfrecord로 변환하였으며, 여기에는 막장면 이미지정보에서 확인되는 이미지의 넓이, 높이, 깊이, 라벨(label), 로 이미지(image raw) 등이 포함된다. In the actual implementation embodiment, the learning information was converted to .tfrecord so that learning can proceed using TF-Slim of tensorflow, which includes the width, height, depth, and label of the image identified in the scene image information. (label), raw image (image raw), etc. are included.

다음, 학습수행부(230)가, 상기 포맷 변환된 다수의 분할 학습정보를 이용하되 학습률(learning rate)과 훈련 단계(train step)를 기설정된 수회 동안 변환하면서 하나의 분할 학습정보마다 다수 회의 학습을 수행한다. 이 과정에서 학습파라미터 설정부(220)는 연산량이 최소가 되도록 최적의 파라미터를 설정할 수 있다. 최적의 파라미터는 아래에서 후술한다. Next, the learning performing unit 230 uses the format-converted plurality of divided learning information, but while converting a learning rate and a training step for a predetermined number of times, learning a plurality of times for each divided learning information carry out In this process, the learning parameter setting unit 220 may set the optimal parameter so that the amount of calculation is minimized. The optimal parameters will be described below.

이러한 과정으로 하나의 분할 학습정보마다 수 회의 학습이 수행되고, 분할 학습정보 다수 개가 모인 학습정보 각각에 대하여서도 수 회의 학습이 수행된다. Through this process, learning is performed several times for each piece of divided learning information, and learning is performed several times for each piece of learning information in which a plurality of divided learning information are gathered.

실재 구현 실시예에서 학습수행부(230)가 이용한 학습방법은 인셉션(Inception)이다. 딥러닝(deep learning) 네트워크는 깊고 층(layer)이 넓을수록 성능이 좋아지지만 연산량 역시 지수적으로 증가하기에 본 발명과 같은 막장면 부석을 위한 학습진행에 적합하지 않다. 인셉션은 연산량 감소를 위하여 노드 사이의 연결은 줄이고 행렬 연산은 dense 연산이 되도록 한다. 본 발명과 같은 막장면 이미지 분석의 특수성(이미지 자체의 크기는 넓고, 암종 및 암질의 경계 파악이 중요하며, 절리와 같은 선분 구분이 중요한 특성)을 고려하여 인셉션 알고리즘을 채택한 것이다. In the actual implementation embodiment, the learning method used by the learning performing unit 230 is Inception. In a deep learning network, the deeper and the wider the layer, the better the performance, but the amount of computation also increases exponentially, so it is not suitable for learning progress for pumice scenes such as the present invention. Inception reduces the number of connections between nodes in order to reduce the amount of computation, and makes the matrix operation a dense operation. The inception algorithm is adopted in consideration of the specificity of the image analysis of the scene as in the present invention (the size of the image itself is wide, the identification of the boundary between carcinoma and rock quality is important, and the segmentation of line segments such as joints is important).

인셉션은 1X1 컨벌루션 연산으로 이미지 채널을 줄여 3X3 및 5X5 컨벌루션 층의 파라미터 개수를 줄이는 방식이다. 이에 따라 CNN(Convolutional Neural Networks)보다 깊은 네트워크를 구성하면서도 파라미터가 줄어들어 연산량이 감소하게 된다. Inception is a method of reducing the number of parameters in 3X3 and 5X5 convolutional layers by reducing the image channel by 1X1 convolution operation. Accordingly, while configuring a network deeper than CNN (Convolutional Neural Networks), the number of parameters is reduced and the amount of computation is reduced.

구체적으로, 일반적인 인셉션에서는, 이전 층(previous layer)에 대하여(1) 1X1 컨벌루션,(2) 1X1 컨벌루션과 3X3 컨벌루션,(3) 1X1 컨벌루션과 5X5 컨벌루션 및(4) 3X3 맥스풀링(max pooling)과 1X1 컨불루션의 4가지 종류의 연산을 수행하고 하나로 합쳐 학습을 진행한다. Specifically, in general inception, (1) 1X1 convolution for the previous layer, (2) 1X1 convolution and 3X3 convolution, (3) 1X1 convolution and 5X5 convolution, and (4) 3X3 max pooling and 1X1 convolution perform 4 types of operations and combine them into one to proceed with learning.

본 발명은 인셉션을 사용하면서도, 첫번째 층(stem layer)에서 7X7 컨벌루션 연산을 수행하여야 하는 것을 3x3 컨벌루션 3회 연산으로 대체하였고, 옵티마이저(Optimizer)를 RMSProp으로 설정하였고, 마지막 층(fully connected layer)에 batch normalization(BN)을 적용하였다. 여기에 추가하여 커널을 개선하여 연산량 및 시간을 더욱 감소시키고자 Factorization을 적용하여, 5X5 컨벌루션 연산 1회 대신 3X3 컨벌루션 연산을 2회 수행하고, 3X3 컨벌루션 1회 대신 3X1 컨벌루션 연산 2회 수행함으로써 커널을 개선하였다. 그 결과 약 2.78배의 연산량 감소를 이루어진 것을 확인하였다. 도 6은 이러한 방식으로 사용된 네트워크를 개략적으로 도시한다. In the present invention, while using inception, the need to perform 7X7 convolution operation in the first layer (stem layer) is replaced with 3x3 convolution operation 3 times, the optimizer is set to RMSProp, and the last layer (fully connected layer) ), batch normalization (BN) was applied. In addition to this, factorization is applied to further reduce the amount of computation and time by improving the kernel, performing 2 3X3 convolution operations instead of 1 5X5 convolution operation, and 2 3X1 convolution operations instead of 1 3X3 convolution. improved. As a result, it was confirmed that the calculation amount was reduced by about 2.78 times. 6 schematically shows a network used in this way.

한편, 학습률과 훈련 단계를 변환하면서 학습을 수행한 결과에 따라 학습파라미터 설정부(220)가 최종 파라미터를 설정한다. 여기서 설정되는 파라미터는 최적화 파라미터와 학습파라미터로 구분할 수 있다. Meanwhile, the learning parameter setting unit 220 sets the final parameter according to the result of performing learning while changing the learning rate and the training stage. The parameters set here can be divided into optimization parameters and learning parameters.

최적화 파라미터(optimizer parameter)로 weight_decay, Optimizer, opt_epsilon, rmsprop_momentum, rmsprop_decay 등을 들 수 있다. As an optimizer parameter, weight_decay, Optimizer, opt_epsilon, rmsprop_momentum, rmsprop_decay, etc. may be mentioned.

weight_decay는 모델의 손실 함수를 최적화하기 위한 가중치를의미한다. 여기에서 최적화 결과에 따라 0.00004로 설정하였다. weight_decay means the weight for optimizing the loss function of the model. Here, it was set to 0.00004 according to the optimization result.

opt_epsilon은 계산 값이 0이 되는 경우를 방지하기 위한 가장 작은 값이다. 여기에서 최적화 결과에 따라 1로 설정하였다. opt_epsilon is the smallest value to prevent the case where the calculated value becomes 0. Here, it was set to 1 according to the optimization result.

rmsprop_momentum는 RMSPropOptimizer의 momentum(운동량) 값이다. 여기에서 최적화 결과에 따라 0.9로 설정하였다. rmsprop_momentum is the momentum value of the RMSPropOptimizer. Here, it was set to 0.9 according to the optimization result.

rmsprop_decay은 업데이트 마다 적용되는 확률의 감소율이다. 여기에서 최적화 결과에 따라 0.9로 설정하였다. rmsprop_decay is the rate of decrease of the probability applied for each update. Here, it was set to 0.9 according to the optimization result.

학습파라미터(learning parameter)로 learning_rate, max_number_of_steps, learning_rate_decay_type, end_learning_rate, learning_rate_decay_factor, num_epochs_per_decay, replicas_to_aggregate, moving_average_decay 등을 들 수 있다. As a learning parameter, learning_rate, max_number_of_steps, learning_rate_decay_type, end_learning_rate, learning_rate_decay_factor, num_epochs_per_decay, replicas_to_aggregate, moving_average_decay, etc. may be mentioned.

learning_rate는 초기 학습속도이다. 여기에서 최적화 결과에 따라 0.0001로 설정하였다. learning_rate is the initial learning rate. Here, it was set to 0.0001 according to the optimization result.

max_number_of_steps는 최대 훈련 단계 수이다. 여기에서 최적화 결과에 따라 1000로 설정하였다. max_number_of_steps is the maximum number of training steps. Here, it was set to 1000 according to the optimization result.

learning_rate_decay_type는 학습속도를 감소하는 방법을 지정하는 파라미터이다. fixed, exponential, polynomial 등을 들 수 있다. 여기에서 최적화 결과에 따라 fixed로 설정하였다. learning_rate_decay_type is a parameter that specifies how to decrease the learning rate. These include fixed, exponential, and polynomial. Here, it was set to fixed according to the optimization result.

end_learning_rate는 학습속도 감소 방법에서 polynomial 설정 시 사용되는 최소 학습진행률이다. 여기에서 최적화 결과에 따라 0.0001로 설정하였다. end_learning_rate is the minimum learning progress rate used when polynomial is set in the learning rate reduction method. Here, it was set to 0.0001 according to the optimization result.

learning_rate_decay_factor는 학습속도 감소 방법에서 exponential 설정 시 학습감소율이다. 여기에서 최적화 결과에 따라 0.94로 설정하였다. learning_rate_decay_factor is the learning decay rate when exponential is set in the learning rate reduction method. Here, it was set to 0.94 according to the optimization result.

num_epochs_per_decay는 학습속도가 감소한 이후의 에포크 수이다. 여기에서 최적화 결과에 따라 2로 설정하였다. num_epochs_per_decay is the number of epochs after the learning rate is reduced. Here, it was set to 2 according to the optimization result.

replicas_to_aggregate는 매개 변수를 업데이트하기 전에 수집할 그라디언트 수이다. 여기에서 최적화 결과에 따라 1로 설정하였다. replicas_to_aggregate is the number of gradients to collect before updating the parameter. Here, it was set to 1 according to the optimization result.

moving_average_decay는 이동 평균에 사용되는 감소 속도이다. 여기에서 최적화 결과에 따라 None으로 설정하였다. moving_average_decay is the decay rate used for the moving average. Here, it is set to None according to the optimization result.

이러한 방식으로 하나의 학습용 막장면 이미지정보에서의 분할 학습정보마다 수 회의 학습이 수행되고, 이러한 학습을 다수의 학습용 막장면 이미지정보에 대하여 수행함으로써 막장면 자동분석 시스템을 구축하게 된다. In this way, learning is performed several times for each divided learning information in one cut-scene image information for learning, and this learning is performed on a plurality of cut-scene image information for learning, thereby constructing an automatic final scene analysis system.

유효성 검증부(240)가 준비된 학습정보 중 사용하지 않은 다른 막장면 이미지정보를 이용하여 유효성을 검증(validation)함으로써 구축된 시스템을 확인한다. The validation unit 240 confirms the built system by validating the validity by using other unused scene image information among the prepared learning information.

실재 구현 실시예에서 확인한 결과 70% 이상의 정확도를 확인하여 비교적 정확도가 높음을 확인하였다. 인셉션이 아닌 다른 학습알고리즘을 사용한 경우와 비교하여 큰 차이를 나타냈다. As a result of checking in the actual implementation example, it was confirmed that the accuracy was 70% or more, and thus the accuracy was relatively high. It showed a big difference compared to the case where a learning algorithm other than Inception was used.

Figure 112020067901649-pat00001
Figure 112020067901649-pat00001

[표 1][Table 1]

DFM를 이용한 분석정보 획득 Acquisition of analysis information using DFM

이제 사용자는 구축된 막장면 자동분석 시스템을 이용하여, 막장면 이미지정보를 입력함으로써 암종, 암질, 절리 등 분석정보를 자동으로 획득할 수 있다. Now, the user can automatically acquire analysis information such as carcinoma, rock quality, joint, etc. by inputting the image information of the scene using the built-up automatic analysis system for the scene.

먼저, 입력부(310)에 막장면 이미지정보가 입력된다. 사용자는 통신 기능과 카메라가 구비된 정보처리기기를 사용하면서, 직접 카메라로 촬영하여 막장면 이미지정보를 획득하고 입력할 수도 있으며, 또는 정보처리기기 내 메모리에 저장된 이미지를 선택하여 입력부(310)를 통해 입력할 수도 있다. 현장에서는 정보처리기기만 있으면 족한 것이며, 별도의 장비가 필요하지 않다. First, makjangmyeon image information is input to the input unit 310 . The user can directly obtain and input the scene image information by shooting with a camera while using an information processing device equipped with a communication function and a camera, or select an image stored in the memory in the information processing device and use the input unit 310 It can also be entered through In the field, only information processing equipment is sufficient, and no separate equipment is required.

이미지 수정부(320)는 입력될 이미지를 몇 가지 방법으로 수정한다.The image correction unit 320 corrects the image to be input in several ways.

사용자가 직접 촬영한 입력 이미지는 막장면 뿐만 아니라 주변 벽체 등 경계오브젝트에 대한 정보를 더 포함하게 되는데(도 7의 좌하단 참조), 본 발명은 막장면에 대한 이미지를 추출하는 수정 기능을 제공한다. 즉, 이미지가 입력되고(도 7의 상단) 이미지 수정부(320)에의해 입력된 막장면 이미지정보 상에서 터널 경계면 노드가 입력될 수 있으며(도 7의 좌하단), 입력된 터널 경계면 노드가 연결되고, 연결된 면적만 추출됨으로써(도 7의 우하단), 막장면 이미지정보가 수정된다. 종래 기술에서 대부분 이미지에서 일부를 선택하는 방식이 아닌 이미지를 수정하는 방식을 선택하는데, 이 경우 이미지에 왜곡이 발생할 수 있으며, 막장면 분석에서의 왜곡은 다음 발파 공정에서 심각한 영향을 줄 수 있기에, 본 발명은 노드에의한 면적 추출 방식을 선택한 것이다. The input image taken by the user further includes information about boundary objects such as surrounding walls as well as the curtain screen (see the lower left of FIG. 7), and the present invention provides a correction function for extracting the image for the curtain screen . That is, an image is input (top of FIG. 7 ) and a tunnel interface node may be input on the scene image information input by the image correction unit 320 (bottom left of FIG. 7 ), and the input tunnel interface node is connected and only the connected area is extracted (bottom right of FIG. 7), so that the scene image information is modified. Most of the prior art selects the method of correcting the image rather than the method of selecting a part from the image. In this case, distortion may occur in the image, and the distortion in the scene analysis can seriously affect the next blasting process, The present invention selects an area extraction method by node.

또한, 도 8과 같이 이미지 수정부(320)가 워터쉐드(watershed) 기법을 이용하여 입력된 막장면 이미지정보를 다수의 영역으로 분할할 수 있다. 이는 입력층으로서 입력된 막장면 이미지정보 입력시 연산량을 줄여서 후술하는 추론부(330)에서 신속한 연산 및 추론이 가능하게 한다. 종래 기술에서 설명한 바와 같이, 막장면 이미지 분석에 있어서 신속성은 매우 중요하다. In addition, as shown in FIG. 8 , the image correction unit 320 may divide the input scene image information into a plurality of regions by using a watershed technique. This reduces the amount of computation when inputting the scene image information input as the input layer, thereby enabling rapid computation and inference in the reasoning unit 330 to be described later. As described in the prior art, speed is very important in image analysis of a scene.

다음, 추론부(330)가 분할된 영역별로 구축된 시스템을 이용해서 분석정보를 추론하고, 분석정보를 통합하여 입력된 막장면 이미지정보에 대한 상기 디지털 페이스 매핑된 분석정보를 추론한다. 즉, 추론부(330)는 막장면 이미지정보를 구축된 막장면 자동분석 시스템의 입력층으로 입력하고, 인공 지능에의한 출력층을 확인하면 이를 분석정보로 추론하는 것이다. Next, the inference unit 330 infers the analysis information using a system constructed for each divided area, and infers the digital face-mapped analysis information for the input scene image information by integrating the analysis information. That is, the inference unit 330 inputs the scene image information to the input layer of the built-up automatic scene analysis system, and when checking the output layer by artificial intelligence, it is inferred as analysis information.

한편, 본 발명의 다른 실시예에서, 절리 추출이 별도로 이루어질 수 있다. 절리 추출부(340)가 캐니 엣지 디텍션(canny edge detection) 기법을 이용하여 입력된 막장면 이미지정보에서 선분을 추출한다(도 9a). 다음, 절리 추출부(340)가, 추출된 선분마다 기설정된 소정의 테스트를 수행하여 노이즈를 제거할 수 있으며(도 9b), 또한, 선분의 길이가 기설정된 픽셀값 이하인 경우 추출 결과에서 제거할 수도 있다(도 9c). 이제, 남은 선분들이 절리로서 출력될 것이다. On the other hand, in another embodiment of the present invention, the joint extraction may be made separately. The joint extraction unit 340 extracts a line segment from the input scene image information using a canny edge detection technique (FIG. 9a). Next, the joint extraction unit 340 may remove noise by performing a predetermined test for each extracted line segment (FIG. 9B). Also, if the length of the line segment is less than or equal to a predetermined pixel value, it can be removed from the extraction result. It may also be (Fig. 9c). Now, the remaining line segments will be output as joints.

이와 같은 과정으로 모든 분석정보가 정리되면, 출력부(350)는 분석정보를 결과물로서 출력한다(도 10). 이와 같은 방식의 결과물은 DFM 데이터베이스(390)에 저장될 수 있으며, 후술하는 사용자 수정 과정을 거칠 수 있고, 학습정보로서 다시 활용되어 정확도를 상승시킬 수 있다. 도 10의 우하단과 같이 레포트 형식으로 출력될 수도 있다. When all the analysis information is arranged through this process, the output unit 350 outputs the analysis information as a result (FIG. 10). The result of this method may be stored in the DFM database 390, may undergo a user modification process to be described later, and may be used again as learning information to increase accuracy. It may be output in the form of a report as shown in the lower right of FIG. 10 .

본 발명의 다른 실시예에서, RQD(rock quality designation; 암질지수)가 계산되어 더 출력될 수 있다. RQD 계산은 널리 알려진 어떠한 방법을 수행하여도 가능하나, 중요한 것은 RQD 조사선 중심을 자동으로 설정하는 것이다. 즉, RQD 계산부(360)가 RQD 조사선 중심을 설정하는 단계와, RQD 조사선 중심을 이용하여 RQD를 계산하여 출력하는 단계를 포함하게 된다. In another embodiment of the present invention, the RQD (rock quality designation; rock quality index) may be calculated and further output. The RQD calculation can be performed by any well-known method, but the important thing is to automatically set the RQD radiation center. That is, the RQD calculation unit 360 includes the steps of setting the center of the RQD radiation line, and calculating and outputting the RQD using the center of the RQD radiation line.

RQD 계산부(360)가, RQD 조사선 중심을 설정하는 방법으로, 본 발명은 네 개의 방법을 제공한다. 첫째, 분석정보 중 절리를 구성하는 점들의 중심으로 RQD 조사선 중심을 설정할 수 있다(도 11의 좌상단). 둘째, 분석정보 중 절리를 구성하는 선분들의 중심점의 중심으로 RQD 조사선 중심을 설정할 수 있다(도 11의 우상단). 즉, 밀집 지역을 중심으로 설정하는 것이다. 셋째, 분석정보 중 절리를 구성하는 선분들 중에서 길이가 가장 긴 선분의 중심으로 RQD 조사선 중심을 설정할 수 있다(도 11의 좌하단). 넷째, 막장면 이미지정보 상에서 설정된 다수의 수평 조사선 중에서, 분석정보 중 절리와 가장 많이 교차하는 수평 조사선의 중심으로 RQD 조사선 중심을 설정할 수 있다(도 11의 우하단). As a method for the RQD calculation unit 360 to set the center of the RQD radiation, the present invention provides four methods. First, it is possible to set the center of the RQD radiation line as the center of the points constituting the joint among the analysis information (top left of FIG. 11 ). Second, the center of the RQD radiation line may be set as the center of the center point of the line segments constituting the joint in the analysis information (top right of FIG. 11 ). That is, it is set based on the densely populated area. Third, the center of the RQD radiation line can be set as the center of the longest line segment among the line segments constituting the joint among the analysis information (lower left of FIG. 11 ). Fourth, the center of the RQD radiation line can be set as the center of the horizontal radiation line that intersects the joint most in the analysis information among a plurality of horizontal radiation lines set on the scene image information (bottom right of FIG. 11 ).

각각의 방법들은 막장면 상태와 현장 상황에 따라 필요할 수 있다. 따라서, 본 발명에서는, 이와 같은 방법들 모두가 자동으로 수행되거나, 또는 사용자가 특정 방법을 선택하여 수행될 수 있다. Each method may be necessary depending on the scene situation and the site situation. Accordingly, in the present invention, all of these methods may be performed automatically or may be performed by a user selecting a specific method.

사용자 수정 모듈user edit module

본 발명은 학습에의한 분석정보가 자동으로 출력된 이후, 이를 확인한 전문가가 암종, 암질, 절리 등을 수정할 수 있는 기능을 제공한다. 특히, 편의성 높은 직관적 방식을 채택하여 전문가가 신속하게 수정하고 분석정보를 확정할 수 있도록 한다. 이를 위해, 사용자 수정 모듈(400)이, 출력부(350)가 자동으로 추론한 분석정보를 토대로 사용자가 수정할 수 있는 기능을 제공한다. The present invention provides a function that allows an expert who has confirmed the analysis information to be automatically output by learning to correct carcinoma, cancer quality, joint, and the like. In particular, by adopting a convenient and intuitive method, experts can quickly make corrections and confirm analysis information. To this end, the user modification module 400 provides a function that the user can modify based on the analysis information automatically inferred by the output unit 350 .

출력부(350)는 절리를 선분으로서 출력하는데, 사용자 수정 모듈(400)이 상기 절리 상에 절리 노드를 추가하여 출력할 수 있다. 출력된 절리는 사용자 수정 모듈(400)에의해 추가, 이동 및 삭제 가능하며, 출력된 절리 노드 역시 사용자 수정 모듈(400)에의해 추가, 이동 및 삭제 가능하다. 절리 노드의 이동시 이동된 절리 노드가 포함된 절리 형태가 이에 따라 변경된다(도 12). 절리 주향 경사(도 13의(A))와 절리 보정 점수가 추가로 입력될 수 있다(도 13의(B)).The output unit 350 outputs the joint as a line segment, and the user correction module 400 may output the joint by adding a joint node on the joint. The output joint can be added, moved, and deleted by the user correction module 400 , and the output joint node can also be added, moved, and deleted by the user correction module 400 . When the joint node is moved, the joint shape including the moved joint node is changed accordingly (FIG. 12). A joint strike slope (FIG. 13(A)) and a joint correction score may be additionally input (FIG. 13(B)).

또한, 출력부(350)는 암종 및 암질이 구분되는 영역을 다각형으로 출력하고 필요시 지하수 역시 다각형으로 구분하여 출력하는데, 사용자 수정 모듈(400)이 다각형의 모서리를 다각형 노드로서 추가하여 출력할 수 있다. 출력된 다각형 노드는 사용자 수정 모듈(400)에의해 추가, 이동 및 삭제 가능하고, 다각형 노드의 이동시 이동된 다각형 노드가 포함된 다각형 형태가 이에 따라 변경된다(도 14).In addition, the output unit 350 outputs the area where the carcinoma and the rock quality are distinguished as a polygon and, if necessary, also divides the groundwater into a polygon and outputs it. have. The output polygonal node can be added, moved, and deleted by the user modification module 400, and when the polygonal node is moved, the polygonal shape including the moved polygonal node is changed accordingly (FIG. 14).

학습정보 추가Add learning information

사용자 수정 과정을 걸쳐 전문가에의해 보다 확실하게 수정된 분석정보는 최초 학습시 활용된 학습용 막장면 이미지정보와 함께 학습정보로 활용될 수 있다. 특히, 사용자 수정 과정을 거친 것이므로 데이터 정확도가 우수한 훈련 세트가 이용되는 것이다. 이를 통해 분석 정확도가 상승한다.The analysis information that has been more reliably corrected by the experts through the user modification process can be used as learning information together with the learning scene image information used in the initial learning. In particular, since it has undergone a user modification process, a training set with excellent data accuracy is used. This increases the analysis accuracy.

학습정보 추가 모듈(500)이 사용자에의해 수정된 분석정보와 이에 해당하는 막장면 이미지정보를 학습용 분석정보 입력부(120) 및 학습용 막장면 이미지정보 입력부(110)에 각각 입력할 수 있으며, 입력된 정보는 전술한 단계를 거쳐 학습정보로서 활용된다. The learning information addition module 500 may input the analysis information modified by the user and the corresponding scene image information into the analysis information input unit 120 for learning and the scene image information input unit 110 for learning, respectively, and the input The information is utilized as learning information through the above-described steps.

예측시스템을 통한 학습정보 생성Creation of learning information through the prediction system

이하에서는 전술한 학습정보 생성모듈(100)에 제공되는 학습정보가 예측시스템(10)을 이용하여 자동으로 생성되는 과정을 설명한다. Hereinafter, a process in which the learning information provided to the above-described learning information generating module 100 is automatically generated using the prediction system 10 will be described.

도 l을 참조하면, 본 실시의 예측시스템(10)은, 굴착 깊이별 실측 막장면의 암질영역 정보를 저장 관리하는 실측 막장면정보 DB(11); 상기 막장면의 지반정보를 분석해서 암질영역을 정의하는 막장면 분석모듈(12); 막장면 분석모듈(12)이 표출한 암질영역 이미지를 설정값에 따라 연산해서 속성값을 확인하고 프로세싱하는 막장면 처리모듈(13); 상기 암질영역 이미지와 속성값을 실측 막장면정보 DB(11)에서 검색된 실측 막장면의 암질영역 정보와 연산해서 전방 막장면의 암질영역을 예측하는 막장면 예측모듈(14); 을 포함한다. 예측시스템(10)의 편집 상황은 각각의 모듈(11, 12, 13)이 프로세싱하면서 출력수단(20)을 통해 디스플레이된다.Referring to FIG. 1 , the prediction system 10 according to the present embodiment includes: an actual measured scene information DB 11 for storing and managing information about a dark area of an actual measured scene by excavation depth; a mak scene analysis module 12 for defining a rocky region by analyzing the ground information of the mak scene; a mak scene processing module 13 that calculates the dark region image expressed by the mak scene analysis module 12 according to the set value to check the attribute value and process; a scene prediction module 14 for predicting the dark area of the front scene by calculating the dark area image and attribute values with the dark quality area information of the actual scene found in the actual scene information DB 11; includes The editing status of the prediction system 10 is displayed through the output means 20 while the respective modules 11, 12, 13 are processing.

실측 막장면정보 DB(11)는, 굴착 터널의 깊이별로 실측된 막장면의 암질영역 정보를 저장하고 관리한다. 일반적으로 굴착 터널은 지정된 간격으로 굴착된 후에 절개면에 해당하는 막장면을 실측 및 분석한다. 이때 확인되는 막장면에 대한 정보는 지반을 분석할 수 있는 주요한 정보인 절리, 암종, 암질 등 다양하다.The measured scene information DB 11 stores and manages the information on the dark area of the scene measured for each depth of the excavation tunnel. In general, after the excavation tunnel is excavated at a specified interval, the makjang surface corresponding to the incision is measured and analyzed. The information on the Makjangmyeon confirmed at this time is diverse, such as joints, carcinomas, and rock quality, which are key information that can be used to analyze the ground.

이하의 설명에서는 막장면에 대한 정보 대상을 '암질'로 대표해 표기한다. 하지만, 막장면에 대해 작업자가 실측하는 대상은 암질에 한정하지 않으며 암종과 절리 및 기타 지반 분석을 위해 필요한 조사 대상을 모두 포함한다. 이외에도 실측 막장면정보 DB(11)는 암질영역 정보의 기초 자료인 페이스 매핑, 암판정 결과 정보, 암반 등급(RMR) 등의 보고서 등을 저장 관리한다.In the following description, the target of information about the makjangmyeon is represented by 'rock quality'. However, the target measured by the operator for Makjangmyeon is not limited to the rock quality, and includes all types of investigations necessary for the analysis of carcinomas, joints, and other ground. In addition, the actual measurement scene information DB 11 stores and manages reports such as face mapping, cancer determination result information, and rock grade (RMR), which are basic data of rock quality area information.

막장면 분석모듈(12)은, 상기 막장면의 지반정보를 분석해서 암질영역을 정의한다. 현장에서 굴착 후에 확인된 막장면의 지반은 전문 작업자에 의해 자체 분석하고, 아울러 디지털 카메라 빛 레이저 스캐닝 등의 장비를 활용해서 매핑을 위한 상세 정보를 수집한다.The makjang scene analysis module 12 defines a rocky region by analyzing the ground information of the makjang scene. The ground of the final scene confirmed after excavation at the site is analyzed by a professional worker, and detailed information for mapping is collected using equipment such as digital camera light laser scanning.

이렇게 수집된 지반정보는 막장면 분석모듈(12)의 설정 프로세스를 통해 분석되고 해당 막장면 내에서 구체적인 암질영역을 파악해 검출한다. 본 발명에 따른 암질영역은 지정된 대상의 범위를 시각적으로 확인하기 위한 위치값을 포함한다. 여기서, 상기 위치값은 2D 이미지 처리를 위한 코드이며, 상기 코드에 따라 픽셀 화표가 설정된다. 또한 동일한 암질영역에 해당하는 코드는 군집해서 일괄적으로 프로세싱 되므로, 상기 코드에 해당하는 출력수단(20)의 픽셀이 실행되어서 해당하는 암질영역이 그래픽 이미지로 시각화된다.The ground information collected in this way is analyzed through the setting process of the mak scene analysis module 12, and a specific rocky area is identified and detected within the mak scene. The dark zone according to the present invention includes a position value for visually confirming the range of the designated target. Here, the position value is a code for 2D image processing, and a pixel coordinate is set according to the code. In addition, since codes corresponding to the same dark areas are grouped and processed collectively, the pixels of the output means 20 corresponding to the codes are executed and the corresponding dark areas are visualized as graphic images.

그러므로 막장면 분석모듈(12)은 상기 위치값을 기준으로 암질영역 이미지를 생성해서 출력수단(20)을 통해 디스플레이한다. 또한, 디지털 페이스 매핑 자료의 분석을 통해(XML) 절리면 및 암종 등의 포인트 정보를 추출하여 웹화면 그래프로 표현한다. 이외에도 상기 암질영역은 자체 암질의 사양 정보도 포함할 수 있다.Therefore, the scene analysis module 12 generates a dark area image based on the position value and displays it through the output means 20 . In addition, through the analysis of digital face mapping data (XML), point information such as joint and carcinoma is extracted and expressed as a web screen graph. In addition, the dark quality region may also include specification information of its own rock quality.

막장면 처리모듈(13)은, 막장면 분석모듈(12)이 표출한 암질영역 이미지를 설정값에 따라 연산해서 속성값을 확인하고 프로세싱한다. 전술한 바와 같이 암질영역은 위치값을 포함하므로, 암질영역 이미지가 갖는 경계라인의 위치와 길이, 상기 암질영역 이미지의 중점 등에 대한 속성값을 파악할 수 있다. 또한, 상기 속성값을 기반으로 암질영역 이미지에 속하는 각종 점과 선 등을 추가로 도화할 수 있다. 막장면 처리모듈(13)에 대한 보다 구체적인 설명은 하기 실시예를 설명하면서 상세히한다. The mak scene processing module 13 calculates the dark area image expressed by the mak scene analysis module 12 according to the set value to check the attribute value and process it. As described above, since the dark region includes the position value, it is possible to determine attribute values for the position and length of the boundary line of the dark region image, the midpoint of the dark region image, and the like. In addition, various points and lines belonging to the dark region image may be additionally drawn based on the attribute value. A more detailed description of the scene processing module 13 will be described in detail while describing the following examples.

막장면 예측모듈(14)은, 상기 암질영역 이미지와 속성값을 실측 막장면정보 DB(11)에서 검색된 실측 막장면의 암질영역 정보와 연산해서 전방 막장면의 암질영역을 예측한다. 상기 전방 막장면은 미굴착된 터널의 일 구간이나, 현재까지 수집된 실측 막장면의 암질영역 정보를 기초로 예측할 수 있다. 전방 막장면의 예측은 하기 실시예를 설명하면서 상세히 한다.The final scene prediction module 14 calculates the dark quality region image and the attribute value with the dark quality region information of the actual final scene retrieved from the actual measured scene information DB 11 to predict the dark region of the front scene. The front makjangmyeon can be predicted based on a section of an unexcavated tunnel, or on the basis of the information on the rocky area of the actual makjangmyeon collected so far. Prediction of the front end scene will be described in detail by explaining the following examples.

전술한 예측시스템(10)의 구체적인 동작은 본 실시의 전방 예측 방법의 설명과 더불어 상세히 한다.The specific operation of the above-described prediction system 10 will be described in detail along with the description of the forward prediction method of the present embodiment.

도 15는 본 발명에 따른 예측시스템의 출력수단을 통해 출력되는 이미지창의 모습을 보인 이미지이고, 도 16은 본 발명에 따른 전방 예측 방법에 따라 암질영역의 속성값을 확인하는 모습을 개략적으로 도시한 도면이다.15 is an image showing an image window output through the output means of the prediction system according to the present invention, and FIG. 16 is a schematic diagram showing a state of confirming the attribute value of the dark area according to the forward prediction method according to the present invention. It is a drawing.

도 15 및 도 16을 참조하면, 본 실시의 터널 막장면의 계측자료에 따른 지반 트랜드 기반의 전방 예측 방법은, 굴착 터널의 막장면(TZ)에서 동일 암질의 군집 범위를 검출하여 암질영역(SZ)을 표출하는 제1단계; 암질영역(SZ)의 경계라인(b1)에서 첫째 높이의 제1점(Pl)과, 둘째 높이의 제2점(PZ)과, 셋째 높이의 제3점(P3)을 확인하는 제2단계; 제2점(P2)과 제3점(P3)을 잇는 기준선(SL)을 형성하는 제3단계; 제1점(Pl) 내지 제3점(P3)을 경유하는 경계라인(BL1, BL2) 및 기준선(SL) 간의 제1높이(Hl, H3)와, 암질영역(SZ)의 제2높이(TH, H2)의 비율이 임계값 이상이면, 기준선(SL)을 정계로 제1점(Pl) 방향의 암질 범위를 삭제해서 암질영역(SZ)의 보정영역(SZ')을 표출하는 제4단계; 막장면(TZ)의 굴착 깊이 순으로 이전 보정영역들의 변화율을 확인하고, 전방 막장면의 암질영역을 예측하는 제5단계; 를 포함한다.15 and 16, the ground trend-based forward prediction method according to the measurement data of the final scene of the tunnel according to this embodiment detects the grouping range of the same rock quality in the last scene (TZ) of the excavation tunnel and detects the rocky region (SZ). ) a first step of expressing; a second step of confirming the first point Pl of the first height, the second point PZ of the second height, and the third point P3 of the third height at the boundary line b1 of the rocky region SZ; a third step of forming a reference line SL connecting the second point P2 and the third point P3; The first height Hl and H3 between the boundary lines BL1 and BL2 and the reference line SL passing through the first point Pl to the third point P3, and the second height TH of the dark area SZ , H2) is greater than or equal to the threshold value, a fourth step of expressing the correction region SZ' of the dark matter region SZ by deleting the dark quality range in the direction of the first point Pl with the reference line SL as a static system; a fifth step of confirming the rate of change of the previous correction areas in the order of the excavation depth of the makjangmyeon (TZ), and predicting the dark area of the front makjangmyeon; includes

각 단계를 좀 더 구체적으로 설명한다.Each step is described in more detail.

제1단계, 암질영역 표출 단계1st stage, dark area expression stage

막장면 분석모듈(12)은 굴착 터널의 막장면(TZ)에서 동일 암질의 군집 범위를 검출하여 암질영역(SZ)을 표출한다. 전술한 바와 같이, 현장에서 전문작업자가 자체 분석한 정보와 각총 장비를 활용해서 매핑을 위해 수집한 각종 상세정보를 토대로 막장면 분석모듈(12)이 막장면(TZ) 내에 암질을 검출한다.The makjang scene analysis module 12 detects the grouping range of the same rock quality in the makjang face TZ of the excavation tunnel to express the dark quality region SZ. As described above, the makjangmyeon analysis module 12 detects the rocks in the makjangmyeon TZ based on the detailed information collected for mapping using the information analyzed by the professional worker in the field and each gun equipment.

계속해서 막장면 분석모듈(12)은 검출된 암질들 중 동일 암질의 군집 범위를 검출해서 암질의 영역, 즉 암질영역(SZ)을 정의한다. 본 발명에 따른 암질영역은 지정된 대상의 범위를 시각적으로 확인하기 위한 위치값을 포함한다. 그러므로 막장면 분석모듈(12)은 상기 위치값을 기준으로 암질영역 이미지를 생성해서 출력수단(20)을 통해 디스플레이할 수 있다. 일 예를 들면, 막장면 분석모듈(12)은 도 15에 보인 바와 같이, 제1창(Wl)의 그래픽 이미지(SZMl), 제2창(W2)의 실사 합성 이미지(SZM2), 제3창(W3)의 속성값 표시 이미지(SZM3) 둥으로 출력수단(20)을 통해 디스플레이한다.Subsequently, the makjang scene analysis module 12 detects a cluster range of the same dark quality among the detected dark materials to define a dark area, that is, a dark area (SZ). The dark zone according to the present invention includes a position value for visually confirming the range of the designated target. Therefore, the scene analysis module 12 may generate a dark area image based on the position value and display it through the output means 20 . For example, as shown in FIG. 15 , the scene analysis module 12 includes a graphic image SZMl of the first window Wl, a live-action composite image SZM2 of the second window W2, and a third window. The attribute value display image SZM3 of (W3) is displayed through the output means 20 .

제2단계, 속성값 검출 단계2nd step, attribute value detection step

막장면 처리모듈(13)은 막장면 분석모듈(12)이 표출한 암질영역 이미지를 설정값에 따라 연산해서 속성값을 확인하고 프로세싱한다.The mak scene processing module 13 calculates the dark area image expressed by the mak scene analysis module 12 according to the set value to check the attribute value and process it.

전술한 바와 같이, 암질영역(SZ)은 위치값을 포함하므로, 도 16의(a) 도면과 같이 막장면(TZ) 이미지 내에 암질영역(SZ) 이미지를 경계라인(b1)으로 표시할 수 있다. 따라서 도 16의 (b) 도면과 같이 암질영역(SZ) 이미지의 경계라인(b1)에서 첫째 높이의 제1점(Pl)과, 둘째 높이의 제2점(PZ)과, 셋째 높이의 제3점(P3)을 확인할 수 있고, 도 16의(c) 도면과 같이 막장면(TZ) 이미지의 중점(CP)을 기준으로 수직선(c1)을 생성할 수 있다.As described above, since the dark area SZ includes a position value, the dark area SZ image can be displayed as a boundary line b1 in the film scene TZ image as shown in Fig. 16(a). . Therefore, as shown in (b) of FIG. 16 , on the boundary line b1 of the dark area (SZ) image, the first point (Pl) of the first height, the second point (PZ) of the second height, and the third point of the third height The point P3 may be identified, and a vertical line c1 may be generated based on the midpoint CP of the image of the scene TZ as shown in FIG. 16( c ).

이외에도 막장면 처리모듈(13)은 암질영역(SZ) 이미지의 속성값을 기반으로 각종 점과 선 등을 추가로 도화할 수 있다.In addition, the makjang scene processing module 13 may additionally draw various points and lines based on the attribute values of the dark region (SZ) image.

참고로, 제1점(Pl) 내지 제3점(P3)은 암질영역(SZ) 이미지에서 최고높이순 또는 최저 높이순 또는 최좌측순 또는 최우측순으로 선택될 수 있는데, 본 실시예에서는 최고 높이순으로 해서 제1점(Pl) 내지 제3점(P3)을 확인한다.For reference, the first point Pl to the third point P3 may be selected in the order of highest or lowest height, or leftmost or rightmost in the dark matter region SZ image. In this embodiment, the highest In the order of height, the first point Pl to the third point P3 are checked.

제3단계, 기준선 형성 단계Step 3, Baseline Formation Step

막장면 처리모듈(13)은 도 16의(b) 도면과 같이 암질영역(SZ) 이미지의 제2점(P2)과 제3점(P3)을 잇는 기준선(SL)을 형성한다. 여기서 기준선(SL)은 보정영역(SZ'; 도 17 참조)을 표출하기 위한 기준이다.The scene processing module 13 forms a reference line SL connecting the second point P2 and the third point P3 of the dark region SZ image as shown in FIG. 16B . Here, the reference line SL is a reference for expressing the correction region SZ' (refer to FIG. 17).

기준선(SL)을 형성하면, 막장면 처리모듈(13)은 도 16의(c) 도면과 같이 경계라인(b1)이 수직선(c1)과 교차하는 교차점(CPl, CP3)과, 기준선(SL)과 교차하는 교차점(CP2)을 확인할 수 있다. 하지만, 교차점(CPl 내지 CP3)은 보정영역 생성 방식에 따라 선택적으로 활용되므로, 제4단계에서 상세히 설명한다.When the reference line SL is formed, the scene processing module 13 is configured to intersect the boundary line b1 with the vertical line c1 at intersections CP1 and CP3 as shown in FIG. You can check the intersection (CP2) that intersects with . However, since the intersection points CP1 to CP3 are selectively used according to the method of generating the correction region, it will be described in detail in the fourth step.

도 17은 본 발명에 따른 전방 예측 방법에 따라 암질영역에서 보정영역을 표출하는 모습을 도시한 도면이다.17 is a diagram illustrating a state in which a correction area is expressed in a dark area according to the forward prediction method according to the present invention.

제4단계, 보정 영역 표출 단계4th step, correction area expression step

막장면 처리모듈(13)은, 제1점(Pl) 내지 제3점(P3)을 경유하는 경계라인(BL1, BL2) 및 기준선(SL) 간의 제1높이(Hl, H3)와, 암질영역(SZ)의 제2높이(TH, H2)의 비율이 임계값 이상이면, 기준선(SL)을 경계로 제1점(Pl) 방향의 암질영역(SZ")을 삭제해서 암질영역(SZ)의 보정영역(SZ')을 표출한다. 여기서 상기 임계값은 1/4일 수 있고, 이외에도 임계값은 굴착 터널 및 암질영역의 규모와 기타 지반 상태에 따라 다양하게 변경될 수 있다.The scene processing module 13 has a first height Hl and H3 between the boundary lines BL1 and BL2 passing through the first point Pl to the third point P3 and the reference line SL, and a dark area If the ratio of the second height (TH, H2) of (SZ) is equal to or greater than the threshold value, the dark area (SZ") in the direction of the first point Pl is deleted with the reference line SL as the boundary, and the dark area SZ is The correction area SZ' is expressed, where the threshold value may be 1/4, and in addition, the threshold value may be variously changed according to the scale of the excavated tunnel and the rocky area and other ground conditions.

제1 실시예는, 제1점(Pl) 내지 제3점(P3)을 경유하는 경계라인(BL1) 및 기준선(SL) 간의 제1높이(Hl) 가, 도 5의(a)도면과 같이, 경계라인(BL1)과 기준선(SL)이 수직선(c1)과 각각 교차하는 교차점(CPI, CPZ) 간의 거리이다. 또한, 암질영역(SZ)의 제2높이(HZ)가, 경계라인(BL1, BL3)이 수직선(c1)과 각각 교차하는 교차점(CPI, CP3) 간의 거리이다. 즉, 제1 실시예의 제1높이(Hl)와 제2높이(HZ) 는 수직선(c1)을 기준으로 정의되는 것이다.In the first embodiment, the first height Hl between the boundary line BL1 and the reference line SL passing through the first point Pl to the third point P3 is, as shown in FIG. , is the distance between the intersection points CPI and CPZ where the boundary line BL1 and the reference line SL intersect the vertical line c1, respectively. In addition, the second height HZ of the dark zone SZ is the distance between the intersection points CPI and CP3 where the boundary lines BL1 and BL3 intersect the vertical line c1, respectively. That is, the first height Hl and the second height HZ of the first embodiment are defined based on the vertical line c1.

이렇게 확인된 제2높이(HZ) 대비 제1높이(Hl)를 임계값과 비교해서, 해당 비율이 임계값 이상이면 기준선(SL)을 경계로 제1점(Pl) 방향의 암질영역(SZ")이 불균일한 것으로 간주하고 삭제한다. 따라서 삭제된 영역(SZ")을 제외한 암질영역(SZ) 이미지의 영역을 보정영역(SZ')을 표출한다. 그러나 상기 비율이 임계값 미만이면, 암질영역(SZ) 이미지 전체를 그대로 유지한다. The second height (HZ) compared to the first height (Hl) confirmed in this way is compared with the threshold value, and if the ratio is equal to or greater than the threshold value, the dark area SZ in the direction of the first point (Pl) with the reference line (SL) as the boundary. ) is considered to be non-uniform and is deleted. Therefore, the correction area SZ' is expressed in the dark area SZ image except for the deleted area SZ". However, if the ratio is less than the threshold value, the entire dark matter region (SZ) image is maintained as it is.

보정영역(SZ') 표출을 위한 제2 실시예는, 제1점(Pl) 내지 제3점(P3)을 경유하는 정계라인(BL1) 및 기준선(SL) 간의 제1높이(H3)가, 도 5의(b) 도면과 같이, 정계라인(BL1, BLZ)과 기준선(SL)으로 둘러싸인 영역(SZ")의 높이이다.In the second embodiment for expressing the correction region SZ', the first height H3 between the static boundary line BL1 and the reference line SL via the first point Pl to the third point P3 is, As shown in FIG. 5B , it is the height of the region SZ″ surrounded by the boundary lines BL1 and BLZ and the reference line SL.

또한 암질영역(SZ)의 제2높이(TH)가, 암질영역(SZ) 이미지의 높이이다. 즉, 막장면(TZ) 이미지 내에 암질영역(SZ) 이미지의 자세에서, 경계라언(BL1, BLZ)과 기준선(SL)으로 둘러싸인 영역(SZ")과 암질영역(SZ) 이미지의 높이인 것이다.In addition, the second height TH of the dark area SZ is the height of the dark area SZ image. That is, in the posture of the dark area (SZ) image in the scene (TZ) image, it is the height of the area (SZ") surrounded by the boundary lines BL1 and BLZ and the reference line SL and the dark area SZ image.

이렇게 확인된 제2높이(TH) 대비 제3높이(H3)를 임계값과 비교해서, 해당 비율이 임계값 이상이면, 기준선(SL)을 경계로 제1점(Pl) 방향의 암질영역(SZ")이 불균일한 것으로 간주하고 삭제한다. 따라서 삭제된 영역(SZ")을 제외한 암질영역(SZ) 이미지의 영역을 보정영역(SZ')을 표출한다. 그러나 상기 비율이 임계값 미만이면, 암질영역(SZ) 이미지 전체를 그대로 유지한다.The third height H3 compared to the second height TH confirmed in this way is compared with a threshold value, and if the ratio is equal to or greater than the threshold value, the dark area SZ in the direction of the first point Pl with the reference line SL as the boundary ") is regarded as non-uniform and is deleted. Therefore, the correction area SZ' is expressed in the area of the image of the dark area SZ except for the deleted area SZ". However, if the ratio is less than the threshold value, the entire dark matter region (SZ) image is maintained as it is.

도 18은 본 발명에 따른 전방 예측 방법에 따라 표출된 보정영역의 종축도를 보인 이미지이고, 도 19는 본 발명에 따른 전방 예측 방법을 통해 예측하기 위한 암질영역을 개략적으로 도시한 도면이고, 도 20은 도 19의 암질영역의 전방 암질영역을 예측하기 위한 일 예를 보인 이미지이다.18 is an image showing the vertical axis of the correction area expressed according to the forward prediction method according to the present invention, and FIG. 19 is a diagram schematically showing the dark area for prediction through the forward prediction method according to the present invention, FIG. 20 is an image showing an example for predicting the dark area in front of the dark area of FIG. 19 .

제 5단계, 암질영역 예측 단계Step 5, Prediction of Cancerous Areas

막장면 예측모듈(14)은, 암질영역(SZ) 이미지와 속성값을 실측 막장면정보 DB(11)에서 검색된 실측 막장면의 암질영역 정보와 연산해서 전방 막장면의 암질영역을 예측한다.The dark scene prediction module 14 calculates the dark quality region (SZ) image and attribute values with the dark quality region information of the actually measured final scene retrieved from the actual measured scene information DB 11 to predict the dark region of the front scene.

좀 더 구체적으로 설명하면, 막장면(TZ)의 굴착 깊이 순으로 이전 보정영역들의 변화율을 확인하고 전방 막장면의 암질영역(SZ)을 예측한다. 여기서 실측 막장면정보 DB(11)는 굴착 깊이별 실측 막장면의 암질영역 정보를 저장 관리한다. 상기 실측 막장면의 암질영역 정보는 막장면(TZ) 이미지의 정면 모습과 더불어 막장면(TZ) 이미지의 종축도를 포함하며, 막장면(TZ) 이미지는 터널의 굴착 깊이별로 분류된다. 따라서 종축도는 도 20과 같이 굴착 깊이를 따라 배열되어 파노라마 형태의 이미지로 그래픽된다.More specifically, the rate of change of the previous correction areas is confirmed in the order of the excavation depth of the makjang face (TZ), and the dark area (SZ) of the front face is predicted. Here, the actual measured scene information DB 11 stores and manages the information on the rock quality of the actual measured scene by excavation depth. The information on the dark area of the actual makjangmyeon includes a longitudinal view of the makjangmyeon (TZ) image along with the frontal view of the makjangmyeon (TZ) image, and the makjangmyeon (TZ) image is classified according to the excavation depth of the tunnel. Therefore, the vertical view is arranged along the excavation depth as shown in FIG. 20 and is graphically displayed as a panoramic image.

상기 종축도에 대해 좀 더 상세히 설명한다.The vertical axis will be described in more detail.

도 18의(a) 도면에 도시된 바와 같이, 막장면(TZ) 이미지의 수직선(c1)을 기준으로 제1높이(Hl)가 확인되고, 수직선(c1) 구간만을 1차원의 선 형태로 표시하되, 상기 l차원의 선 형태의 막장면(TZ) 구간 안에는 암질영역(SZ)에 해당하는 제2높이(H2) 구간과, 삭제 가능성이 있는 영역(SZ")에 해당하는 제1높이(Hl) 구간이 설정된다.As shown in the drawing of FIG. 18(a), the first height Hl is confirmed based on the vertical line c1 of the makjangmyeon TZ image, and only the vertical line c1 section is displayed in the form of a one-dimensional line. However, in the l-dimensional line-shaped makjangmyeon TZ section, the second height H2 section corresponding to the dark zone SZ and the first height Hl corresponding to the area with possibility of deletion (SZ") ) section is set.

제1높이(Hl) 구간파 제2높이(H2) 구간이 설정된 1차원의 선 형태인 막장면(TZ) 구간은 도 18의 종축도와 도 20의(b) 도면과 같이 굴착 깊이별로 배열되고, 막장면(TZ) 내 암질영역(SZ)의 굴착 깊이별 변화를 보이는 종축도를 형성한다.The first height (Hl) section wave and the second height (H2) section are set in the form of a one-dimensional line, the makjangmyeon (TZ) section is arranged by excavation depth as shown in the vertical axis view of Fig. 18 and Fig. 20 (b), A vertical view showing the change according to the excavation depth of the rocky region SZ in the Makjang plane TZ is formed.

즉, 암질영역(SZ)의 변화를 이미지 트래킹으로 추적하도록, 상기 1차원의 선 형태인 수직선들의 고점(HP)과 저점(LP)을 각각 이어서 종축도를 생생하는 것이다. That is, the vertical axis diagram is created by connecting the high point (HP) and the low point (LP) of the vertical lines, which are in the form of one-dimensional lines, respectively, so as to track the change of the dark matter region (SZ) by image tracking.

한편, 도 18의(b) 도면은, 제2높이(H2) 대비 제1높이(Hl)가 임계값 이상이면, 제1높이(Hl)에 해당하는 영역을 삭제해서 보정영역(SZ')만을 보인 막장면(TZ) 이미지와 그 종축도이다. 상기 종축도에서 확인할 수 있듯이 삭제된 영역(SZ") 만큼의 제1높이(Hl)가 삭제된다. 결국, 도 18의(a) 도면의 종축도의 형태와 도 18의(b) 도면의 종축도의 형태에 차이가 확인된다. 참고로, 도 18의(b) 도면의 종축도인 경우, 보정영역(SZ')의 변화를 이미지 트래킹으로 추적하도록, 상기 1차원의 선 형태인 수직선별 고점(HP)과 저점(LP)을 각각 이어서 종축도를 형성한다.On the other hand, in the diagram of FIG. 18(b), if the first height Hl compared to the second height H2 is equal to or greater than the threshold value, only the correction region SZ' is deleted by deleting the region corresponding to the first height Hl. Shown are the TZ images and their vertical axis. As can be seen from the vertical view, the first height Hl as much as the deleted area SZ" is deleted. As a result, the shape of the vertical view of FIG. 18(a) and the vertical axis of the drawing of FIG. 18(b) For reference, in the case of the vertical axis of the drawing of Fig. 18(b), the high point of each vertical line in the one-dimensional line form is to track the change of the correction region SZ' by image tracking. (HP) and trough (LP) are respectively connected to form a ordinate.

결국, 막장면 예측모듈(14)은 종축도를 형성해서 굴착 깊이별 암질영역(SZ) 또는 보정영역(SZ')의 변화 트렌드를 추적 및 확인할 수 있다.As a result, the scene prediction module 14 can track and confirm the change trend of the rocky area SZ or the correction area SZ' by excavation depth by forming a vertical view.

도 19에 도시된 바와 같이, 막장면 예측모듈(14)은 다음의 실시예를 통해 1차원의 선 형태인 수직선(c1) 구간 내에 보정영역(SZl, SZ2) 구간을 설정한다.As shown in FIG. 19 , the scene prediction module 14 sets the correction regions SZl and SZ2 in the section of the vertical line c1 in the form of a one-dimensional line through the following embodiment.

우선, 제1 실시예는 도 19의(a)도면과 같이, 고점(HP)은 보정영역(SZl, SZ2)의 상부 경계라인(L1)에서 최고점(MH1)과 최저점(MLl)의 평균 위치이고, 저점(LP)은 보정영역(SZl, SZ2)의 하부 경계라인(L2)에서 최고점(MH2)과 최저점(ML2)의 평균 위치이다. 이렇게 확인된 평균 위치들을 수직선(c1) 구간의 해당 위치에 고점(HP)과 저점(LP)으로 설정하고, 종축도 형성을 위해 활용한다.First, in the first embodiment, as shown in Fig. 19(a), the high point HP is the average position of the highest point MH1 and the lowest point ML1 in the upper boundary line L1 of the correction regions SZl and SZ2. , the low point LP is the average position of the highest point MH2 and the lowest point ML2 on the lower boundary line L2 of the correction regions SZl and SZ2. The average positions identified in this way are set as the high point (HP) and the low point (LP) at the corresponding positions of the vertical line (c1) section, and are used to form the vertical axis.

다음으로 제2 실시예는 도 19의(b)도면과 같이, 고점(HP)과 저점(LP)이 각각 보정영역의 상부 경계라인(L1)과 하부 경계라인(L2)이 수직선(c1)과 각각 교차하는 교차점(Cl, C2)이다. 이렇게 확인된 평균 위치들을 상기 1차원의 선형태인 수직선(c1) 구간의 해당 위치에 고점(HP)과 저점(LP)으로 설정하고, 종축도 형성을 위해 활용한다.Next, in the second embodiment, as shown in the diagram of FIG. 19(b), the upper boundary line L1 and the lower boundary line L2 of the correction region respectively have a high point HP and a low point LP and a vertical line c1 and a vertical line c1. These are the intersections (Cl, C2) that intersect respectively. The average positions identified in this way are set as a high point (HP) and a low point (LP) at the corresponding positions of the section of the vertical line c1, which is a one-dimensional line, and used to form the vertical axis.

계속해서, 막장면 예측모듈(14)은 막장면(TZ)의 굴착 깊이 순으로 이전 보정영역들의 변화율을 확인하고, 전방 막장면의 암질영역을 예측한다.Subsequently, the makjangmyeon prediction module 14 checks the rate of change of the previous correction regions in the order of the excavation depth of the makjangmyeon TZ, and predicts the dark area of the front makjangmyeon.

상기 종축도는 굴착 깊이에 따라 암질영역의 변화 트렌드를 확인할 수 있으므로, 이를 기반으로 미굴착된 전방 막장면의 암질영역을 예측할 수 있다. Since the vertical axis view can confirm the change trend of the rocky area according to the excavation depth, the rocky area of the unexcavated front end face can be predicted based on this.

제1 실시예는 최근 굴착 깊이 막장면의 변화율과 동일한 변화율을 반영해서 전방막장면의 암질영역을 예측한다. 따라서, 도 20의(b) 도면의 종축도에서 최근 굴착깊이 최근 막장면의 고점과 저점을 각각 잇는 제1연결라인(LL1)을 설계된 굴착 깊이만큼 제2연결라인(LL2)을 이용해 그대로 연장해서, 미굴착된 전방 막장면의 암질영역을 예측한다.The first embodiment predicts the dark area of the front end face by reflecting the same rate of change as the rate of change of the recent excavation depth end face. Therefore, in the vertical view of the drawing of FIG. 20(b), the first connection line LL1 connecting the high and low points of the recent depth of excavation, respectively, is extended as much as the designed excavation depth using the second connection line LL2. , predict the rocky area of the unexcavated front end face.

제2 실시예는 종축도에서 막장면들 각각의 고점과 저점을 잇는 연결라인들의 변화도를 굴착 깊이에 따라 가중치를 두어서 최종 변화율을 산출한다.The second embodiment calculates the final rate of change by weighting the degree of change of the connecting lines connecting the high and low points of each of the scenes in the vertical view according to the excavation depth.

이를 좀 더 상세히 설명하면, 도 20의(b) 도면의 종축도와 같이, 굴착 깊이에 따라 막장면에 해당하는 1차원의 선 형태인 수직선(c1) 구간이 형성되고, 수직선(c1) 구간에는 고점(HP)과 저점(LP)이 각각 구성된다. 또한 이렇게 형성된 수직선(c1) 내에 고점(HP)과 저점(LP)은 각각 제1연결라인(LL1)으로 이어진다. 그런데 굴착 깊이에 따라 제1연결라인(LL1)의 변화도는 차이가 발생한다. 그러므로 해당 변화도별로 가중치를 달리해서 제2연결라인(LL2)의 예측을 위한 최종 변화율을 산출한다. 본 실시예는 전방 막장면에 근접할수록 가중치를 크게 해서, 최근 막장면의 제1연결라인(LL1)의 변화도가 제2연결라인(LL2)의 변화율에 상대적으로 큰 가중치를 줄 수 있도록 한다. 본 실시예는 전방 막장면에 근접한 변화도 순으로 상기 가중치가 0.4, 0.3, 0.2, 0.1이 되도록 했다.To explain this in more detail, as shown in the vertical axis of the drawing of FIG. 20(b) , a vertical line (c1) section, which is a one-dimensional line shape corresponding to the makjang surface, is formed according to the excavation depth, and a high point is in the vertical line (c1) section (HP) and trough (LP) are respectively constituted. Also, the high point HP and the low point LP in the vertical line c1 formed in this way lead to the first connection line LL1, respectively. However, a difference occurs in the degree of change of the first connection line LL1 according to the excavation depth. Therefore, the final change rate for prediction of the second connection line LL2 is calculated by changing the weight for each corresponding gradient. The present embodiment increases the weight as it approaches the front end scene, so that the degree of change of the first connection line LL1 in the recent last scene can give a relatively large weight to the rate of change of the second connection line LL2. In this embodiment, the weights were set to 0.4, 0.3, 0.2, and 0.1 in the order of the degree of change close to the front end scene.

이후, 전방 굴착을 통해 전방 막장면이 실측되면, 신규 막장면 내에 합질영역을 표출하고 실측 막장면 정보 DB(11)에 저장한다.After that, when the front makjangmyeon is actually measured through the forward excavation, a composite area is expressed in the new makjangmyeon and stored in the measured makjang scene information DB 11 .

도 21은 본 발명에 따른 전방 예측 방법에 따라 암질영역의 속성값을 확인하는 모습을 개략적으로 도시한 도면이다.21 is a diagram schematically illustrating a state in which an attribute value of a dark region is checked according to the forward prediction method according to the present invention.

굴착 터널의 제1막장면(TZ1)에서 동일 암질의 군집 범위를 검출하여 제1암질영역(SZ1)을 표출하고, 제1암질영역(SZ1)의 제1중심점(21)을 설정하는 제1단계; 제1막장면(TZ1)의 다음 굴착 깊이의 막장면인 제2막장면(SZ2)에서 동일 암질의 군집 범위를 검출하여 제2암질영역(SZZ)을 표출하고, 제2암질영역(SZZ)의 제2중심점(22)을 설정하는 제2단계; 제1중심점(21)과 제2중심점(22) 간의 거리가 임계값 미만이면 제1암질영역(SZ1)과 제2암질영역(SZ2)은 동질 영역인 것으로 셜정하는 제3단계; 막장면의 굴착 깊이 순으로 이전 동질 영역들의 변화율을 확인하고, 전방 막장면의 암질영역을 예측하는 제4단계; 를 포함한다.The first step of detecting the cluster range of the same dark quality in the first scene TZ1 of the excavation tunnel to express the first dark area SZ1 and setting the first central point 21 of the first dark area SZ1 ; In the second film scene (SZ2), which is the last scene of the excavation depth next to the first film scene (TZ1), a cluster range of the same dark material is detected to express the second dark mass region (SZZ), and the second dark mass region (SZZ) is a second step of setting a second central point (22); a third step of determining that the first dark quality region SZ1 and the second dark quality region SZ2 are homogeneous regions when the distance between the first central point 21 and the second central point 22 is less than a threshold value; A fourth step of confirming the change rate of the previous homogeneous areas in the order of the excavation depth of the Makjangmyeon, and predicting the dark area of the front Makjangmyeon; includes

각 단계를 좀 더 구체적으로 설명한다.Each step is described in more detail.

제1단계, 제1암질영역 속성값 검출 단계Step 1, first dark matter region attribute value detection step

막장면 분석모듈(12)은 굴착 터널의 제1막장면(TZ1)에서 동일 암질의 군집 범위를 검출하여 제1암질영역(SZ1)을 표출하고, 막장면 처리모듈(13)은 제1암질영역(SZ1)의 제1중심점(21)을 설정한다.The mak scene analysis module 12 detects the cluster range of the same dark quality in the first mak scene TZ1 of the excavation tunnel to express the first dark mass region SZ1, and the mak scene processing module 13 is the first dark mass region A first central point 21 of (SZ1) is set.

막장면 분석모듈(12)이 굴착 터널의 제1막장면(TZ1)에서 동일 암질의 군집 범위를 검출하고 제1암질영역(SZ1)을 표출하는 구체적인 설명은 전술한 바 있으므로, 여기서는 그 설명을 생략한다.Since the detailed description in which the mak scene analysis module 12 detects the cluster range of the same rock quality in the first mak scene TZ1 of the excavation tunnel and displays the first murky region SZ1 has been described above, the description thereof will be omitted here. do.

제1막장면(TZ1)과 제1암질영역(SZ1)이 표출되면, 막장면 처리모듈(13) 은 막장면 분석모듈(12)이 표출한 제1암질영역(SZ1) 이미지를 설정값에 따라 연산해서 속성값인 제1중심점(21)을 확인하고 프로세싱한다. 제1암질영역(SZ1)은 위치값을 포함하므로, 도 21의(a) 도면과 같이 제1막장면(TZ1) 이미지 내에 제1암질영역(SZ1) 이미지를 제1정계라인(BL21)으로 표시할 수 있다.When the first scene TZ1 and the first dark region SZ1 are displayed, the scene processing module 13 converts the image of the first dark region SZ1 expressed by the scene analysis module 12 according to the set value. The operation is performed to check and process the first central point 21, which is an attribute value. Since the first dark area SZ1 includes a position value, the image of the first dark area SZ1 is displayed as the first boundary line BL21 in the first scene TZ1 image as shown in FIG. 21(a). can do.

이외에도 막장면 처리모듈(13)은 제1암질영역(SZ1) 이미지의 속성값을 기반으로 각종 점과 선 등을 추가로 도화할 수 있다. 본 발명에서는 제1암질영역(SZ1)의 제1중심점(21)을 경유하는 제1수직선(CL1, 도 22 참조)을 생성할 수 있다.In addition, the makjang surface processing module 13 may additionally draw various points and lines based on the attribute values of the first dark region SZ1 image. In the present invention, a first vertical line CL1 (refer to FIG. 22 ) passing through the first central point 21 of the first dark matter region SZ1 may be generated.

제2단계, 제2암질영역 속성값 검출 단계2nd step, 2nd dark matter region attribute value detection step

막장면 분석모듈(12)은 굴착 터널의 제2막장면(TZ2)에서 동일 암질의 군집 범위를 검출하여 제2암질영역(SZ2)을 표출하고, 막장면 처리모듈(13)은 제2암질영역(SZ2)의 제2중심점(22)을 설정한다.The mak scene analysis module 12 detects the cluster range of the same dark quality in the second mak scene TZ2 of the excavation tunnel to express the second dark quality region SZ2, and the mak scene processing module 13 is the second dark quality region A second central point 22 of (SZ2) is set.

막장면 분석모듈(12)이 굴착 터널의 제2막장면(TZ2)에서 동일 암질의 군집 범위를 검출하고 제2암질영역(SZ2)을 표출하는 구체적인 설명은 전술한 바 있으므로, 여기서는 그 설명을 생략한다.Since the detailed description in which the mak scene analysis module 12 detects the cluster range of the same rock quality in the second mak scene TZ2 of the excavation tunnel and displays the second murky region SZ2 has been described above, the description thereof will be omitted here. do.

제2막장면(TZ2)과 제2암질영역(SZ2)이 표출되면, 막장면 처리모듈(13) 은 막장면 분석모듈(12)이 표출한 제2암질영역(SZ2) 이미지를 설정값에 따라 연산해서 속성값인 제2중심점(22)을 확인하고 프로세싱한다. 제2암질영역(SZ2)은 위치값을 포함하므로, 도 21의(b) 도면과 같이 제2막장면(TZ2) 이미지 내에 제2암질영역(SZ2) 이미지를 제2경계라인(BL22)으로 표시할 수 있다.When the second scene TZ2 and the second dark region SZ2 are displayed, the scene processing module 13 converts the image of the second dark region SZ2 expressed by the scene analysis module 12 according to the set value. The operation is performed to check and process the second central point 22, which is an attribute value. Since the second dark area SZ2 includes a position value, the image of the second dark area SZ2 is displayed as a second boundary line BL22 in the image of the second scene TZ2 as shown in FIG. 21(b). can do.

이외에도 막장면 처리모듈(13)은 암질영역(SZ) 이미지의 속성값을 기반으로 각종 점과 선 등을 추가로 도화할 수 있다. 본 발명에서는 제2암질영역(SZ2)의 제2중심점(22)을 경유하는 제2수직선(CL2, 도 22 참조)을 생성할 수 있다.In addition, the makjang scene processing module 13 may additionally draw various points and lines based on the attribute values of the dark region (SZ) image. In the present invention, a second vertical line CL2 (refer to FIG. 22 ) passing through the second central point 22 of the second dark matter region SZ2 may be generated.

제1단계와 제2단계의 과정과 동일하게, 막장면 분석모듈(12)은 굴착 터널의 제3,4막장면(TZ3, TZ4)에서 동일 암질의 군집 범위를 검출하여, 도 21의(c) 도면 및 (d)도면과 같이 후속 암질영역(SZ31, SZ32, SZ33, SZ41, SZ42)을 표출한다. 또한, 막장면 처리모듈(13)은 암질영역(SZ31, SZ32, SZ33, SZ41, SZ42)의 중심점(231 내지 233, 241, 242)을 각각 설정한다.In the same manner as in the process of the first and second steps, the final scene analysis module 12 detects the grouping range of the same rock quality in the third and fourth scenes (TZ3, TZ4) of the excavation tunnel, as shown in Fig. 21(c). ) and (d), the subsequent dark regions (SZ31, SZ32, SZ33, SZ41, SZ42) are expressed. In addition, the scene processing module 13 sets the center points 231 to 233, 241, and 242 of the dark regions SZ31, SZ32, SZ33, SZ41, and SZ42, respectively.

제3단계, 암질영역의 동질 확인 단계Step 3, confirmation of homogeneity of dark areas

막장면 처리모듈(13)은, 제1중심점(21)과 제2중심점(22) 간의 거리(dt; 도 11 참조)를 측정하고, 거리(dt)가 임계값 미만이면 제1암질영역(SZ1)과 제2암질영역(SZ2)은 동질 영역인 것으로 설정한다. 여기서 상기 임계값은 굴착 터널 및 암질영역의 규모와 기타 지반 상태에 따라 다양하게 변경될 수 있다. 본 실시예의 임계값은, 비교대상인 두 암질영역 간 거리의 최고치와 최저치의 차에서 1/4이다. 즉, 제1암질영역(SZ1) 곳곳과 제2암질영역(SZ2) 곳곳 간의 거리를 확인해서 최고치와 최저치를 확인하고, 이렇게 확인된 최고치와 최저치의 차에서 1/4의 값이 임계값인 것이다. 따라서, 제1암질영역(SZ1)과 제2암질영역(SZ2) 칸 거리의 최고치가 12이고 최저치가 4이면, 그 차인 8의 1/4인 '2'가 곧 제1암질영역(SZ1)과 제2암질영역(SZ2)의 동질 영역 여부를 판단하는 기준이 된다.The scene processing module 13 measures the distance dt between the first central point 21 and the second central point 22 (see FIG. 11 ), and if the distance dt is less than a threshold value, the first dark zone SZ1 ) and the second dark region SZ2 are set to be homogeneous regions. Here, the threshold value may be variously changed according to the scale of the excavated tunnel and the rocky area and other ground conditions. The threshold value of this embodiment is 1/4 of the difference between the maximum and minimum values of the distances between two dark areas to be compared. That is, the maximum and minimum values are checked by checking the distances between the first and second dark areas SZ1 and SZ2, and 1/4 of the difference between the confirmed maximum and minimum values is the threshold value. . Therefore, if the maximum value of the distance between the first dark matter region (SZ1) and the second dark matter region (SZ2) is 12 and the minimum value is 4, '2', which is 1/4 of the difference, is the first dark matter region (SZ1) and It serves as a criterion for determining whether the second dark region SZ2 is a homogeneous region.

한편, 막장면 처리모듈(13)은, 굴착 깊이에 따라 확인되는 도 21의(c) 도면에 후속 암질영역(SZ31, SZ32, SZ33) 각각의 중심점(231 내지 233)과 제2암질영역(SZ2) 간의 거리를 측정해서 상기 임계값의 미만 여부를 확인한다. 또한 도 21의(d) 도면에 후속 암질영역(SZ41, SZ42) 각각의 중심점(241, 242)과 암질영역(SZ31, SZ32, SZ33) 각각의 중심점(231 내지 233) 간의 거리를 측정해서 상기 임계값의 미만 여부를 확인한다.On the other hand, the makjang surface processing module 13 is the center point 231 to 233 of each of the subsequent dark areas (SZ31, SZ32, SZ33) and the second dark area (SZ2) in the drawing of FIG. ) to determine whether the distance between them is less than the threshold value. In addition, in the diagram of (d) of FIG. 21 , the distance between the center points 241 and 242 of each of the subsequent dark areas SZ41 and SZ42 and the center points 231 to 233 of each of the dark areas SZ31, SZ32, SZ33 is measured and the threshold Check whether the value is less than or not.

이상과 같이 막장면 처리모듈(13)은, 굴착 깊이에 따른 막장면(TZl 내지 TZ4) 내에 암질영 역 간 동질 여부를 확인하고, 후속 절차를 진행한다. As described above, the makjangmyeon processing module 13 checks whether there is homogeneity between the dark areas in the makjangmyeon (TZl to TZ4) according to the excavation depth, and proceeds with the subsequent procedure.

도 22 내지 도 24는 본 발명에 따른 전방 예측 방법에 따라 암질영역의 수직선이 표시되는 모습을 개략적으로 도시한 도면이고, 도 25는 본 발명에 따른 전방 예측 방법에 따라 굴착 깊이별 막장면에 대응하는 종축도를 보인 이미지이다.22 to 24 are diagrams schematically showing a state in which a vertical line of a rocky area is displayed according to the forward prediction method according to the present invention, and FIG. It is an image showing the vertical axis.

제4단계, 암질영역 예측 단계Step 4, Prediction of Cancerous Areas

막장면 예측모듈(13)은 막장면(TZl 내지 TZ4)의 굴착 깊이 순으로 이전 동질 영역들의 변화율을 확인하고 전방 막장면의 암질영역을 예측한다.The last scene prediction module 13 checks the rate of change of the previous homogeneous regions in the order of the excavation depth of the last scenes (TZl to TZ4) and predicts the dark regions of the front scenes.

이를 위해서 막장면 처리모듈(12)은, 실측 막장면정보 DB(11)에서 이전 암질영역(SZl, SZ2, SZ31, SZ32, SZ33, SZ41, SZ42)을 검색하고, 동질 영역으로 확인된 암질영역(SZl, SZ2, SZ31, SZ32, SZ33, SZ41, SZ42)의 고점과 저점을 각각 확인한다.To this end, the scene processing module 12 searches for the previous dark regions (SZl, SZ2, SZ31, SZ32, SZ33, SZ41, SZ42) in the actual scene scene information DB 11, and the dark regions identified as homogeneous regions ( Check the high and low points of SZl, SZ2, SZ31, SZ32, SZ33, SZ41, SZ42) respectively.

우선, 도 22를 참조하여 수직선(CL1)과 고점(a1, b1) 및 저점(a2, b2)을 설명한다.First, the vertical line CL1 and the high points a1 and b1 and the low points a2 and b2 will be described with reference to FIG. 22 .

막장면 처리모듈(12)은 서로 동질 영역으로 확인된 제1암질영역(SZ1)과 제2암질영역(SZ2) 중에서 굴착 깊이가 상대적으로 작아 우선 검출된 제1암질영역(SZ1) 이미지에, 제1암질영역(SZ1) 이미지의 제1중심점(21)을 경유하는 제1수직선(CL1)을 표시한다. 이때 제1암질영역(SZ1)의 경계라인(BL21)과 제1수직선(CL1) 간의 교차점 중에서 고 위치의 점은 고점(a1) 이라 칭하고, 저 위치는 점은 저점(a2) 이라 칭한다.The mak scene processing module 12 is first detected in the image of the first dark area (SZ1) because the excavation depth is relatively small among the first dark area (SZ1) and the second dark area (SZ2), which are confirmed to be homogeneous with each other. The first vertical line CL1 passing through the first central point 21 of the image of the first dark matter region SZ1 is displayed. At this time, among the intersections between the boundary line BL21 of the first dark zone SZ1 and the first vertical line CL1, a point at a high position is called a high point a1, and a point at a low position is called a low point a2.

한편, 제2암질영역(SZ2)은 제1암질영역(SZ1)과 동질 영역이므로, 막장면 처리모듈(12)은 제1수직선(CL1)을 제2암질영역(SZ2)에 그대로 반영해서 제2암질영역(SZ2)의 경계라인(BL21)과 제1수직선(CL1) 간의 교차점을 확인한다. 상기 교차점 중에서 고 위치의 점은 고점(b1) 이라 칭하고, 저 위치는 점은 저점(b2) 이라 칭한다.On the other hand, since the second dark area SZ2 is the same as the first dark area SZ1, the mak scene processing module 12 reflects the first vertical line CL1 to the second dark area SZ2 as it is, and the second An intersection point between the boundary line BL21 of the dark region SZ2 and the first vertical line CL1 is identified. Among the intersection points, a high point is called a high point b1, and a low point is called a low point b2.

도 23을 참조하여 제1 내지 제3수직선(CL1, CL2, CL3)과 고점(b1, c1, d1, e1) 및 저점(b2, c2, d2, e2)을 각각 셜명한다.Referring to FIG. 23 , the first to third vertical lines CL1 , CL2 , CL3 , the high points b1 , c1 , d1 , and e1 , and the low points b2 , c2 , d2 and e2 are respectively described.

막장면 처리모듈(12)은 제31암질영역(SZ31)이 제2암질영역(SZ2)과 서로 동질 영역인 것으로 확인되므로, 제1수직선(CL1)을 제31암질영역(SZ31)에 그대로 반영해서 제31암질영역(SZ31)의 경계라인(BL231)과 제1수직선(CL1) 간의 교차점을 확인한다. 상기 교차점 중에서 고 위치의 점은 고점(c1) 이라 칭하고, 저 위치는 점은 저점(c2) 이라 칭한다.Since it is confirmed that the 31st dark region SZ31 and the second dark region SZ2 are homogeneous with each other, the Makscene processing module 12 reflects the first vertical line CL1 to the 31st dark region SZ31 as it is. An intersection point between the boundary line BL231 and the first vertical line CL1 of the 31st dark region SZ31 is checked. Among the intersection points, a high point is called a high point c1, and a low point is called a low point c2.

한편, 막장면 처리모듈(12)은 제31암질영역(SZ31)과 제32암질영역(SZ32)이 서로 다른 암질인 것으로 확인되므로, 제32암질영역(SZ32) 이미지의 중심점(232)을 경유하는 제2수직선(CL2)을 표시한다. 이때 제32암질영역(SZ32)의 경계라인(BL232)과 제2수직선(CL2) 간의 교차점 중에서 고 위치의 점은 고점(d1) 이라 칭하고, 저 위치는 점은 저점(d2) 이라 칭한다.On the other hand, the makjang scene processing module 12 confirms that the 31st dark area (SZ31) and the 32nd dark area (SZ32) are of different dark quality, so that the 32nd dark area (SZ32) passes through the center point 232 of the image. A second vertical line CL2 is indicated. At this time, among the intersections between the boundary line BL232 and the second vertical line CL2 of the 32nd dark zone SZ32, a point with a high position is called a high point d1, and a point with a low position is called a low point d2.

또한, 막장면 처리모듈(12)은 제31암질영역(SZ31)과 제32암질영역(SZ32)과 제33암질영역(SZ33)이 각각 서로 다른 암질인 것으로 확인되므로, 제33암질영역(SZ33) 이미지의 중심점(233)을 경유하는 제3수직선(CL3)을 표시한다. 이때 제33암질영역(SZ33)의 경계라인(BL233)과 제3수직선(CL3) 간의 교차점 중에서 고위치의 점은 고점(e1) 이라 칭하고, 저 위치는 점은 저점(e2) 이라 칭한다. In addition, in the makjang scene processing module 12, it is confirmed that the 31st dark region SZ31, the 32nd dark region SZ32, and the 33rd dark region SZ33 are different from each other, so that the 33rd dark region SZ33 A third vertical line CL3 passing through the center point 233 of the image is displayed. At this time, among the intersections between the boundary line BL233 of the 33rd dark region SZ33 and the third vertical line CL3, a point at a high position is called a high point e1, and a point at a low position is called a low point e2.

도 13을 참조하여 제2 내지 제3수직선(CL2, CL3)과 고점(d1, e1, f1, g1) 및 저점(d1, e1, f1, g1)을 각각 설명한다.The second to third vertical lines CL2 and CL3, the high points d1, e1, f1, and g1, and the low points d1, e1, f1, and g1 will be described with reference to FIG. 13, respectively.

막장면 처리모듈(12)은, 제32암질영역(SZ32)이 제 41암질영역(SZ41)과 서로 동질 영역인 것으로 확인되므로, 제2수직선(CL2)을 제41암질영역(SZ41)에 그대로 반영해서 제41암질영역(SZ31)의 경계라인(BL241)과 제2수직선(CL2) 간의 교차점을 확인한다. 상기 교차점 중에서 고 위치의 점은 고점(d1) 이라 청하고, 저 위치는 점은 저점(d2)이라 칭한다.Since it is confirmed that the 32nd dark area SZ32 is the same as the 41st dark area SZ41, the Makscene processing module 12 reflects the second vertical line CL2 to the 41st dark area SZ41 as it is. Thus, an intersection point between the boundary line BL241 of the 41st dark region SZ31 and the second vertical line CL2 is checked. Among the intersection points, a point with a high position is called a high point d1, and a point with a low position is called a low point d2.

계속해서 막장면 처리모듈(12)은, 제33암질영역(SZ33)이 제42암질영역(SZ42)과 서로 동질 영역인 것으로 확인되므로, 제3수직선(CL3)을 제42암질영역(SZ42)에 그대로 반영해서 제42암질영역(SZ42)의 정계라인(BL242)과 제3수직선(CL3) 간의 교차점을 확인한다. 상기 교차점 중에서 고 위치의 점은 고점(e1) 이라 칭하고, 저 위치는 점은 저점(e2) 이라 칭한다.Subsequently, the makjang scene processing module 12 confirms that the 33rd dark region SZ33 and the 42nd dark region SZ42 are homogeneous with each other, so the third vertical line CL3 is drawn to the 42nd dark region SZ42. By reflecting as it is, the intersection point between the static boundary line BL242 and the third vertical line CL3 of the 42nd dark zone SZ42 is checked. Among the intersection points, a point at a high position is called a high point (e1), and a point at a low position is called a low point (e2).

전술한 대로 암질영역별 고점과 저점이 모두 확인되면, 막장면 예측모듈(14)은, 굴착 터널의 굴착 깊이 순으로 제1수직선(CL1)과 제2수직선(CL2)을 배열해서 제1암질영역(SZ1)과 제2암질영역(SZ2)의 변화를 이미지 트래킹으로 추적한다. 이를 위해 막장면 예측모듈(14)은 도 25에 도시한 바와 같이, 제1,2수직선(CL1, CL2)별로 동질 영역의 고점(a1, b1, c1, d1, e1, f1, g1)과 저점(a2, b2, c2, d2, e2, f2, g2)을 각각 이어 종축도를 생성한다. As described above, when both the high and low points are confirmed for each dark area, the mak scene prediction module 14 arranges the first vertical line CL1 and the second vertical line CL2 in the order of the excavation depth of the excavation tunnel to form the first dark area. Changes in (SZ1) and the second dark matter region (SZ2) are tracked by image tracking. To this end, as shown in FIG. 25 , the scene prediction module 14 performs the high points (a1, b1, c1, d1, e1, f1, g1) and low points of the homogeneous region for each of the first and second vertical lines (CL1, CL2). (a2, b2, c2, d2, e2, f2, g2) are respectively connected to create a ordinate.

본 실시의 종축도에 대해 좀 더 구체적으로 설명한다.The vertical axis of the present embodiment will be described in more detail.

도 22에 도시된 바와 같이 막장면 예측모듈(14)은, 제1암질영역(SZ1)의 제1중심점(21)을 경유하는 제1수직선(CL1)에 제1암질영역(SZ1)의 고점(a1)과 저점(a2)을 표시하고, 제2암질영역(SZ2)의 제2중심점(22)을 경유하는 제2수직선(CL2)에 제2암질영역(SZ2)의 고점(b1)과 저점(b2)을 표시한다. 계속해서, 막장면 예측모듈(14)은 도 25에 도시된 바와 같이, 상기 굴착 터널의 굴착 깊이 순으로 제1수직선(CL1)과 제2수직선(Cl2)을 배열하고, 제1,2수직선(CL1, CL2) 별로 동질 영역의 고점(al, bl)과 저점(a2, b2)을 각각 제1연결라언(LL1)으로 이어서 종축도를 생성한다. 그런데, 제2수직선(CL2) 및 제3수직선(CL3)과 같이 서로 다른 수직선이 동일 막장면에 구성되며 이질의 암질영역의 수직선인 경우에는, 도 25의 'TZ3' 및 'TZ4' 막장면 구간과 같이 제2수직선(CL2)과 제3수직선(CL3)을 중첩하게 배치할 수 있다.As shown in Fig. 22, the scene prediction module 14 is located on the first vertical line CL1 passing through the first central point 21 of the first dark region SZ1, the high point of the first dark region SZ1 ( a1) and the low point a2 are marked, and the high point b1 and the low point ( b2) is indicated. Subsequently, the scene prediction module 14 arranges the first vertical line CL1 and the second vertical line Cl2 in the order of the excavation depth of the excavation tunnel, as shown in FIG. 25 , and the first and second vertical lines ( For each CL1 and CL2, a vertical view is generated by connecting the high points al and bl and the low points a2 and b2 of the homogeneous region to the first connecting line LL1, respectively. However, in the case where different vertical lines, such as the second vertical line CL2 and the third vertical line CL3, are configured on the same makjang plane and are vertical lines of a heterogeneous dark region, the 'TZ3' and 'TZ4' makjangmyeon sections of FIG. As shown, the second vertical line CL2 and the third vertical line CL3 may be disposed to overlap each other.

도 25에 도시된 종축도의 구조를 좀 더 설명한다.The structure of the vertical axis view shown in FIG. 25 will be further described.

'TZl' 막장면 구간은 제1수직선(CL1)을 경유하는 1 종류의 암질영역이 확인된다. 따라서 제1수직선(CL1)이 경유하는 고점(a1)과 저점(a2)은 각각 1 개씩임을 확인할 수 있다.In the Makjangmyeon section of 'TZl', one type of rocky region passing through the first vertical line CL1 is identified. Accordingly, it can be confirmed that there is one high point a1 and one low point a2 through which the first vertical line CL1 passes.

또한 'TZ2' 막장면 구간은 제1수직선(CL1)을 경유하는 1 종류의 암질영역이 확인된다. 따라서 제1수직선(CL1)이 경유하는 고점(b1)과 저점(b2)은 각각 1 개씩임을 확인할 수 있다. 이때,'TZ2' 막장면 구간의 수직선은'TZl' 막장면 구간의 수직선과 동일한 제1수직선(CL1) 이므로,'TZl' 막장면 구간의 암질영역과 'TZ2' 막장면 구칸의 암질영역은 동질이다. Also, in the section of 'TZ2' Makjangmyeon, one type of dark region passing through the first vertical line CL1 is identified. Accordingly, it can be confirmed that there is one high point b1 and one low point b2 through which the first vertical line CL1 passes. At this time, since the vertical line of the 'TZ2' Makjangmyeon section is the same first vertical line (CL1) as the vertical line of the 'TZl' Makjangmyeon section, the dark area of the 'TZl' Makjangmyeon section and the dark area of the 'TZ2' Makjangmyeon section are the same. to be.

그런데'TZ3' 막장면 구간은 제1수직선(CL1)과 제2수직선(CL2)과 제3수직선(CL3)을 각각 경유하는 3 종류의 암질영역이 확인된다. 따라서 제1 내지 제3 수직선(CL1 내지 CL3)이 각각 경유하는 고점(c1, d1, e1)과 저점(c2, d2, e2)은 각각 1 개씩임을 확인할 수 있다. 이때, 'TZ3' 막장면 구간의 수직선은 'TZ2' 막장면 구간의 수직선파 동일한 제1수직선(CL1) 이므로 'TZ3' 막장면 구간의 암질영역 중 일부가 'TZ2' 막장면 구간의 암질영역과 동질이다. 한편,'TZ3' 막장면 구간에는 새로운 암질영역이 2개 더 확인된다.However, in the Makjangmyeon section of 'TZ3', three types of dark regions are identified that pass through the first vertical line CL1, the second vertical line CL2, and the third vertical line CL3, respectively. Accordingly, it can be confirmed that there is one high point c1, d1, e1 and one low point c2, d2, e2 through which the first to third vertical lines CL1 to CL3 respectively pass. At this time, since the vertical line of the 'TZ3' Makjangmyeon section is the same first vertical line (CL1) as the vertical wave of the 'TZ2' Makjangmyeon section, some of the dark areas of the 'TZ3' Makjangmyeon section are the same as the dark areas of the 'TZ2' Makjangmyeon section. is homogeneous Meanwhile, in the 'TZ3' Makjangmyeon section, two more new dark areas are identified.

또한 'TZ4' 막장면 구칸은 제2수직선(CL2)과 제3수직선(CL3)을 각각 경유하는 2 종류의 암질영역이 확인된다. 따라서 제2 내지 제3수직선(CL2 내지 CL3)이 각각 경유하는 고점(f1, g1)과 저점(f2, g2)은 각각 1 개씩임을 확인할 수 있다. 이때, 'TZ4' 막장면 구간의 수직선은 'TZ3' 막장면 구간의 수직선파 동일한 제2수직선(CL2)과 제3수직선(CL3) 이므로, 'TZ4' 막장면 구간의 암질영역과 'TZ3'막장면 구간의 암질영역 일부는 동질이다.In addition, two types of dark areas are identified in the 'TZ4' Makjangmyeon Gukan passing through the second vertical line CL2 and the third vertical line CL3, respectively. Accordingly, it can be confirmed that the high points f1 and g1 and the low points f2 and g2 through which the second to third vertical lines CL2 to CL3 pass are one each. At this time, since the vertical line of the 'TZ4' makjangmyeon section is the same second vertical line (CL2) and the third vertical line (CL3) as the vertical wave of the 'TZ3' makjangmyeon section, the dark area of the 'TZ4' makjangmyeon section and the 'TZ3' makjang A part of the rocky area of the Myon section is homogeneous.

이상 설명한 본 실시의 종축도는 굴착 깊이별 막장면(TZl 내지 TZ4)의 암질영역 분포 등을 명시하고, 아울러 해당 막장면(TZl 내지 TZ4)의 암질영역 변화 트렌드를 보인다. 그러므로, 상기 변화 트랜드를 기반으로 전방 막장면에 구성되는 암질영역의 종류와 형태 및 분포 등에 대한 예측을 할 수 있다. The vertical axis diagram of this embodiment described above specifies the distribution of dark areas of the mak scenes (TZl to TZ4) for each depth of excavation, and also shows the change trend of the dark regions of the mak scenes (TZl to TZ4). Therefore, based on the change trend, it is possible to predict the type, shape, distribution, and the like of the rocky area constituted in the front makjang surface.

막장면 예측모듈(14)은, 종축도에 명시된 변화 트렌드, 즉 암질영역의 막장면(TZl 내지 TZ4) 별 동질의 암질영역의 고점과 저점을 각각 제1연결라인(LL1)으로 이어서, 후속으로 연결될 제2연결라인(LL2)의 변화도를 예측한다.The scene prediction module 14 connects the high and low points of the homogeneous dark region for each dark scene (TZl to TZ4) of the change trend specified in the vertical diagram, respectively, with the first connection line LL1, followed by The degree of change of the second connection line LL2 to be connected is predicted.

제1 실시예는 최근 굴착 깊이 막장면의 변화율파 동일한 변화율을 반영해서 전방 막장면의 암질영역을 예측한다. 따라서, 도 25의 종축도에서 최근 굴착 깊이 최근 막장면의 고점과 저점을 각각 잇는 제1연결라인(LL1)을 설계된 굴착 깊이만큼 제2연결라인(LL2)을 이용해 그대로 연장해서, 미 굴착된 전방 막장면의 암질영 역을 예측한다.The first embodiment predicts the rocky area of the front end face by reflecting the same rate of change as the rate of change wave of the recent excavation depth face. Accordingly, in the vertical view of FIG. 25, the first connection line LL1 connecting the high and low points of the recent excavation depth of the recent excavation surface is extended as much as the designed excavation depth using the second connection line LL2, and the unexcavated front Predict the dark area of the makjangmyeon.

제2 실시예는 종축도에서 막장면들 각각의 고점과 저점을 잇는 연결라인들의 변화도를 굴착 깊이에 따라 가중치를 두어서 최종 변화율을 산출한다.The second embodiment calculates the final rate of change by weighting the degree of change of the connecting lines connecting the high and low points of each of the scenes in the vertical view according to the excavation depth.

이를 좀 더 상세히 설명하면 도 25의 종축도와 같이 굴착 깊이에 따라 막장면에 해당하는 1차원의 선 형태인 제1 내지 제4수직선(CL1 내지 CL4) 구간이 형성되고 제1 내지 제4수직선(CL1 내지 CL4) 구간에는 고점(a1, b1, c1, d1, e1, f1, g1)과 저점(a2, b2, c2, d2, e2, f2, g2)이 각각 구성된다. 또한 이렇게 형성된 제1 내지 제4 수직선(CL1 내지 CL4) 내에 고점(a1, b1, c1, d1, e1, f1, g1)과 저점(a2, b2, c2, d2, e2, f2, g2)은 각각 연결라인으로 이어진다. 그런데 굴착 깊이에 따라 연결라인의 변화도는 차이가 발생한다. 그러므로 해당 변화도별로 가중치를 달리해서 제2연결라인(LL2)의 예측을 위한 최종 변화율을 산출한다. 본 실시예는 전방 막장면에 근접할수록 가중치를 크게 해서, 최근 막장면의 제1연결라인(LL1)의 변화도가 제2연결라인(LL2)의 변화율에 상대적으로 큰 가중치를 줄 수 있도록 한다. 본 실시예는 전방 막장면에 근접한 변화도 순으로 상기 가중치가 0.4, 0.3, 0.2, 0.1이 되도록 했다.To explain this in more detail, as shown in the vertical axis view of FIG. 25 , a section of first to fourth vertical lines CL1 to CL4 that is a one-dimensional line corresponding to the makjang surface is formed according to the depth of excavation, and the first to fourth vertical lines CL1 are formed. to CL4), the high points a1, b1, c1, d1, e1, f1, g1 and the low points a2, b2, c2, d2, e2, f2, g2 are respectively configured. In addition, the high points a1, b1, c1, d1, e1, f1, g1 and the low points a2, b2, c2, d2, e2, f2, g2 within the first to fourth vertical lines CL1 to CL4 formed in this way are respectively leads to the connecting line. However, depending on the depth of excavation, there is a difference in the degree of change of the connecting line. Therefore, the final change rate for prediction of the second connection line LL2 is calculated by changing the weight for each corresponding gradient. The present embodiment increases the weight as it approaches the front end scene, so that the degree of change of the first connection line LL1 in the recent last scene can give a relatively large weight to the rate of change of the second connection line LL2. In this embodiment, the weights were set to 0.4, 0.3, 0.2, and 0.1 in the order of the degree of change close to the front end scene.

이후, 전방 굴착을 통해 전방 막장면이 실측되면, 신규 막장면 내에 암질영역을 표출하고 실측 막장면 정보 DB(11)에 저장한다.Thereafter, when the front makjangmyeon is actually measured through the forward excavation, the dark area is expressed in the new makjangmyeon and stored in the measured makjang scene information DB 11 .

도 27은 본 발명에 따른 전방 예측 방법에 따라 암질영역의 속성값을 확인하는 모습을 개략적으로 도시한 도면이다.27 is a diagram schematically illustrating a state in which an attribute value of a dark region is checked according to the forward prediction method according to the present invention.

굴착 터널의 막장면에서 동일 암질의 군집 범위를 검출하여 암질영역(SZ)을 표출하고, 이전 굴착 깊이 막장면의 암질영역과 동질 여부를 확인하는 제1단계; 암질영역(SZ)을 일정 간격으로 다등분해서 분할영역을 표출하는 제2단계; 분할영역의 일단점과 타단점을 각각 추출하는 제3단계; 막장면의 굴착 깊이 순으로 동질의 이전 암질영역들의 분할영역(DZ)별 일단점(SP)과 타단점(FP) 각각의 변화율을 확인하고, 전방 막장면의 암질영역의 분할영역별 일단점과 타단점을 예측해서 전방 막장면의 암질영역을 예측하는 제4단계를 포함한다.A first step of detecting a grouping range of the same rock quality in the makjang surface of the excavation tunnel, expressing the dark zone (SZ), and confirming whether it is the same as the dark zone of the previous excavation depth makjang surface; a second step of dividing the dark zone (SZ) into multiple equal parts at regular intervals to express the divided zone; a third step of extracting one end point and the other end point of the divided region, respectively; Check the rate of change of each end point (SP) and other end point (FP) for each division (DZ) of the previous rocky areas of the same homogeneity in the order of the excavation depth of the Makjangmyeon, and It includes a fourth step of predicting the rocky area of the front makjang surface by predicting the other end point.

각 단계를 좀 더 구체적으로 설명한다.Each step is described in more detail.

제1단계, 암질영역 표출 단계1st stage, dark area expression stage

막장면 분석모듈(12)은 굴착 터널의 막장면에서 동일 암질의 군집 범위를 검출하여 암질영역(SZ)을 표출한다. 전술한 바와 같이, 현장에서 전문 작업자가 자체 분석한 정보와 각총 장비를 활용해서 매핑을 위해 수집한 각종 상세 정보를 토대로 막장면 분석모듈(12)이 막장면(TZ) 내에 암질을 검출한다. 또한, 막장면 분석모듈(12)은 암질영역(SZ)의 중심점(21)을 설정한다.The mak scene analysis module 12 detects the grouping range of the same rock quality on the makjang face of the excavation tunnel and displays the dark zone SZ. As described above, the makjangmyeon analysis module 12 detects the rocks in the makjangmyeon TZ based on the detailed information collected for mapping by using the information analyzed by the professional worker in the field and each gun equipment. In addition, the scene analysis module 12 sets the center point 21 of the dark area (SZ).

계속해서 막장면 분석모듈(12)은 검출된 암질들 중 동일 암질의 군집 범위를 검출해서 암질의 영역, 즉 암질영역(SZ)을 정의한다. 본 발명에 따른 암질영역(SZ)은 지정된 대상의 범위를 시각적으로 확인하기 위한 위치값을 포함한다.Subsequently, the makjang scene analysis module 12 detects a cluster range of the same dark quality among the detected dark materials to define a dark area, that is, a dark area (SZ). The dark zone (SZ) according to the present invention includes a position value for visually confirming the range of the designated target.

그러므로 막장면 분석모듈(12)은 상기 위치값을 기준으로 암질영역 이미지를 생성해서 출력수단(20)을 통해 디스플레이할 수 있다.Therefore, the scene analysis module 12 may generate a dark area image based on the position value and display it through the output means 20 .

이를 좀 더 구체적으로 설명하면, 막장면(TZ)과 암질영역(SZ)이 표출되면, 막장면 처리모듈(13)은 막장면 분석모듈(12)이 표출한 암질영역(SZ)을 위치값에 따라 연산해서, 암질영역(SZ) 이미지의 속성값인 중심점(21)과 경계라인(b1)을 확인한다. 이렇게 확인된 중심점(21)과 경계라인(b1)을 기반으로 암질영역(SZ)을 도 27의(a) 도면과 같이 막장면(TZ) 이미지 내에 암질영역(SZ) 이미지로 표시한다.To explain this in more detail, when the makjangmyeon (TZ) and the dark region (SZ) are expressed, the makjangmyeon processing module 13 sets the dark region (SZ) expressed by the makjangmyeon analysis module 12 to the position value. According to the calculation, the center point 21 and the boundary line b1, which are attribute values of the dark matter region SZ image, are confirmed. Based on the thus-confirmed central point 21 and boundary line b1, the dark area SZ is displayed as a dark area SZ image in the makjangmyeon TZ image as shown in FIG. 27(a).

한편, 암질영역(SZ)의 경계라인(b1)은 굴착 깊이별 암질영역의 변화에 따라 그 형태가 변화한다. 그러므로 경계라인(b1)의 구간별 변화 모습을 체크해서 암질영역(SZ) 이미지의 변화 행태를 체크할 수 있다. 또한, 암질영역(SZ)의 중심점(21)도 굴착 깊이별 암질영역의 변화에 따라 그 위치가 변화한다. 그러므로, 굴착 깊이별 암질영역의 중심점(21)의 위치 변화와 변화 방향 등을 체크할 수 있다.On the other hand, the shape of the boundary line b1 of the rocky area SZ changes according to the change of the rocky area for each depth of excavation. Therefore, it is possible to check the change behavior of the image of the dark matter region SZ by checking the change in each section of the boundary line b1. In addition, the position of the center point 21 of the rocky region SZ also changes according to the change of the rocky region for each depth of excavation. Therefore, it is possible to check the position change and change direction of the central point 21 of the rocky region for each depth of excavation.

이외에도 막장면 처리모듈(13)은 암질영역(SZ) 이미지의 속성값을 기반으로 각종 점과 선 등을 추가로 도화할 수 있다.In addition, the makjang scene processing module 13 may additionally draw various points and lines based on the attribute values of the dark region (SZ) image.

막장면 분석모듈(12)이 막장면(TZ)에서 암질영역(SZ)을 표출하면, 막장면 처리모듈(13)은 이전 굴착 김이의 막장면에 구성된 암질영역과 동질 여부를 판단한다. 서로 다른 굴착 깊이의 막장면에 구성된 암질영역의 동질 여부는, 비교대상의 암질영역들의 중심점을 검출하고, 상기 이전 암질영역들의 중심점 간에 거리가 임계값 미만이면 해당하는 이전 암질영역들은 서로 동질인 것으로 설정함으로써 이루어진다.When the makjang scene analysis module 12 expresses the dark region SZ in the makjangmyeon TZ, the makjang scene processing module 13 determines whether it is the same as the dark region configured in the makjang scene of the previous excavation steam. The homogeneity of the dark areas constructed on the final surface of different excavation depths is determined by detecting the center points of the dark areas to be compared, and if the distance between the center points of the previous dark areas is less than a threshold value, the previous dark areas are considered to be homogeneous with each other. This is done by setting

여기서 상기 임계값은 굴착 터널 및 암질영역의 규모와 기타 지반 상태에 따라 다양하게 변정될 수 있다. 본 실시예의 임계값은, 비교대상인 두 암질영역 간 거리의 최고치와 최저치 간 차의 1/4이다. 즉, 제1암질영역 곳곳과 제2암질영역 곳곳 간의 거리를 확인해서 최고치와 최저치를 확언하고, 이렇게 확인된 최고치와 최저치의 차에서 1/4의 값이 임계값인 것이다. 따라서, 상기 제1암질영역과 제2암질영역 칸 거리의 최고치가 12이고 최저치가 4이면, 그 차인 8의 1/4인 '2'가 곧 상기 제1암질영역과 제2암질영역의 동질 영역 여부를 판단하는 기준이 된다.Here, the threshold value may be variously changed according to the scale of the excavated tunnel and the rocky area and other ground conditions. The threshold value of this embodiment is 1/4 of the difference between the highest and lowest values of the distances between two dark areas to be compared. That is, the maximum and minimum values are confirmed by checking the distances between the first and second dark areas, and a value of 1/4 of the difference between the confirmed maximum and minimum values is the threshold value. Therefore, if the maximum value of the distance between the first dark matter region and the second dark matter region is 12 and the minimum value is 4, '2', which is 1/4 of the difference, is the homogeneous region between the first dark matter region and the second dark matter region. as a criterion for judging whether or not

제2단계, 분할영역 표출 단계2nd step, division area expression step

막장면 처리모듈(13)은 도 27의(b) 도면과 같이 암질영역(SZ)을 일정 간격으로 다등분해서 분할영역을 표출한다.The makjang scene processing module 13 divides the dark area SZ into multiple equal parts at regular intervals as shown in FIG. 27(b) to express the divided area.

전술한 대로 막장면 분석모듈(12)이 막장면(TZ)에서 암질영역(SZ)을 검출하고 암질영역(SZ)을 이미지화하면, 막장면 처리모듈(13)은 암질영역(SZ) 이미지를 지정 간격으로 분할해서 독립된 이미지를 생생한다. 이때 암질영역(SZ) 이미지의 분할은 횡방향 또는 종방향 둥 다양할 수 있는데, 본 실시는 암질영역(SZ) 이미지를 횡방향으로 분할한다.As described above, when the scene analysis module 12 detects the dark area (SZ) in the scene (TZ) and images the dark area (SZ), the scene processing module 13 designates the image of the dark area (SZ) By dividing by intervals, independent images are vivid. At this time, the division of the dark area (SZ) image may be varied in the horizontal direction or the longitudinal direction, but in this embodiment, the dark area (SZ) image is divided in the horizontal direction.

막장면 처리모듈(13)은, 암질영역(SZ) 자체의 면적 또는 분할 방향의 길이 둥은 물론, 암질영역(SZ) 이미지의 면적 또는 분할 방향의 길이 등에 따라 분할 개수를 유동적으로 설정한다. 일반적으로 막장면 처리모듈(13)은 암질영역(SZ) 이미지를 10분할 또는 20분할로 분할한다.The scene processing module 13 flexibly sets the number of divisions according to the area of the dark area SZ itself or the length in the division direction, as well as the area of the dark area SZ image or the length in the division direction. In general, the scene processing module 13 divides the dark area (SZ) image into 10 divisions or 20 divisions.

암질영역(SZ) 이미지의 상기 분할을 통해서 막장면 예측모듈(14)이 암질영역(SZ) 이미지 전체가 아닌 구간 단위로 굴착 깊이별 암질영역(SZ) 이미지의 변화를 파악할 수 있고, 상기 구간 단위로 파악된 변화 데이터에 따라 각 구간별 변화를 예측할 수 있다. 이를 통해서 막장면 예측모듈(14)은 암질영역을 지점별로 세밀하게 예측할 수 있다.Through the division of the dark area (SZ) image, the mak scene prediction module 14 can grasp the change of the dark area (SZ) image for each excavation depth by section, not by the entire dark area (SZ) image, and the section unit Changes for each section can be predicted according to the change data identified by Through this, the makjang scene prediction module 14 can precisely predict the rocky area for each point.

제3단계, 분할영역별 일/타단점 확인 단계Step 3, check one/other point for each division

막장면 처리모듈(13)은, 암질영역(SZ) 이미지를 분할해 생성한 분할영역(DZ)의 일단점(SP)과 타단점(FP)을 확인한다. 여기서 일단점(SP)과 타단점(FP)는 분할영역(DZ)의 가장자리 지점이며, 따라서 암질영역(SZ) 이미지의 경계라인(b1)의 일 지점이다.The scene processing module 13 checks one end point SP and the other end point FP of the divided area DZ generated by dividing the dark matter area SZ image. Here, the one end point SP and the other end point FP are edge points of the segmented region DZ, and thus are a point of the boundary line b1 of the dark matter region SZ image.

본 실시는 막장면 처리모듈(13)이 암질영역(SZ) 이미지를 횡방향으로 분할하므로, 분할영역(DZ)의 일단점(SP)와 타단점(FP)는 각각 분할영역(DZ)의 최고점과 최저점이다.In this embodiment, since the scene processing module 13 divides the dark area SZ image in the horizontal direction, one end SP and the other end point FP of the segmented area DZ are the highest points of the segmented area DZ, respectively. and the lowest point.

도 27은 본 발명에 따른 전방 예측 방법에 따라 이전 분할영역들의 일단점의 위치 변화를 보인 도면이다.27 is a view showing a change in the position of one end point of the previous divided regions according to the forward prediction method according to the present invention.

제4단계, 암질영역 예측 단계Step 4, Prediction of Cancerous Areas

막장면 예측모듈(14)은, 막장면의 굴착 깊이 순으로 동질의 이전 암질영역들의 분할영역별 일단점과 타단점 각각의 변화율을 확인하고, 전방 막장면의 암질영역의 분할영역별 일단점과 타단점을 예측해서 전방 막장면의 암질영역을 예측한다.The final scene prediction module 14 confirms the rate of change of one end point and the other end point for each divided region of the previous rocky regions of the same quality in the order of the excavation depth of the final scene, and the Predict the other end point to predict the rocky area of the front makjang surface.

도 27은 이전 막장면들에서 서로 동일한 것으로 확인된 암질영역(SZ1O 내지(SZ40)의 일 부분을 도시하고 있는데, 이들 중 (a)도면은 4번째 전 깊이의 암질영역(SZ40) 이미지이고, (b)도면은 3번째 전 깊이의 암질영역(SZ30) 이미지고, (c)도면은 2번째 전 깊이의 암질영역(SZ20) 이미지이고, (d)도면은 바로 이전 깊이의 암질영역(SZ1O) 이미지이다.27 shows a part of the dark areas (SZ10 to (SZ40) confirmed to be identical to each other in the previous film scenes. b) The figure is an image of the dark area (SZ30) of the third full depth, (c) is an image of the dark area (SZ20) of the second full depth, (d) is an image of the dark area (SZ10) of the previous depth to be.

각 암질영역(SZ1O 내지 SZ40) 이미지들의 분할영역들에서 세번째 분할영역(DZ31 내지 DZ34)을 참조해 설명하면, 암질영역(SZ1O 내지 SZ40) 이미지들 각각의 세번째 분할영역(DZ31 내지 DZ34)의 일단점(SPl 내지 SP4)은 각각(x1, y1) 내지(x4, y4)의 좌표값을 갖는다. 막장면 예측모듈(14)은 암질영역(SZ1O 내지 SZ40) 이미지의 해당 분할영역(DZ31 내지 DZ34)의 일단점(SPl 내지 SP4)의 지점 변화를 확인해서 그 변화도를 파악하고, 이렇게 변화한 변화율을 토대로 전방 막장면의 해당 분할영역의 일단점을 예측한다.When explaining with reference to the third divided regions DZ31 to DZ34 in the divided regions of the images of the dark regions SZ10 to SZ40, one point of the third divided regions DZ31 to DZ34 of the images of the dark regions SZ10 to SZ40 (SP1 to SP4) have coordinate values of (x1, y1) to (x4, y4), respectively. The scene prediction module 14 checks the point change of one end point (SP1 to SP4) of the corresponding divided area (DZ31 to DZ34) of the dark area (SZ10 to SZ40) image and grasps the degree of change, and thus the change rate Based on this, one end point of the corresponding division of the front curtain is predicted.

막장면 예측모듈(14)의 예측 과정을 일 예를 들어 설명한다.The prediction process of the scene prediction module 14 will be described as an example.

제1 실시예는 최근 굴착 깊이별 막장면의 변화율파 동일한 변화율을 반영해서 전방 막장면의 암질영역을 예측한다. 따라서, 막장면 예측모듈(14)은, 바로 이전 깊이의 암질영역(DZ1O) 이미지와 2번째 전 깊이의 암질영역(SZ20) 이미지에서 해당 분할영역(DZ31, DZ32)의 변화도를 확인하고, 상기 변화도에 따라 전방 막장면의 암질영역 내에 해당 분할영역의 일단점 위치를 예측한다. 여기서 막장면 예측모듈(14)의 분할영역(DZ31 내지 DZ34)별 일단점 위치 예측은, 상기 일단점의 변화도와 더불어 해당 암질영역(SZ)의 중섬점(21) 및 경계라인(b1)의 변화 방향과 변화 행태를 고려해 이루어진다.The first embodiment predicts the rocky area of the front makjang face by reflecting the same rate of change as the rate of change wave of the makjang face for each depth of recent excavation. Therefore, the scene prediction module 14 confirms the degree of change of the corresponding divided regions DZ31 and DZ32 in the image of the dark region (DZ10) of the previous depth and the image of the dark region (SZ20) of the second full depth, and the According to the degree of change, the position of the end point of the divided area is predicted within the dark area of the front end of the scene. Here, the prediction of the location of one end point for each divided area (DZ31 to DZ34) of the scene prediction module 14 is the change of the mid island point 21 and the boundary line b1 of the corresponding dark area SZ along with the degree of change of the one end point. This is done taking into account the direction and behavior of change.

제2 실시예는 해당 분할영역의 일단점 위치 변화를 굴착 깊이에 따라 가중치를 두어서 최종 변화율을 산출한다. 이를 좀 더 상세히 설명하면, 막장면 예측모듈(14)은 4번째 전 깊이의 암질영역(SZ40) 이미지와 3번째 전 깊이의 암질영역(SZ30) 이미지에서 해당 분할영역(DZ33, DZ34)의 변화도를 확인한다. 또한 막장면 예측모듈(14)은 3번째 전 김이의 암질영역(SZ30) 이미지와 2번째 전 깊이의 암질영역(SZ20) 이미지에서 해당 분할영역(DZ32, DZ33)의 변화도를 확인한다. 또한 막장면 예측모듈(14)은 2번째 전 깊이의 암질영역(SZ20) 이미지와 바로 이전 깊이의 암질영역(SZ1O) 이미지에서 해당 분할영역(DZ31 DZ32)의 변화도를 확인한다.In the second embodiment, the final change rate is calculated by weighting the change in the position of the one end of the divided area according to the excavation depth. To explain this in more detail, the scene prediction module 14 changes the corresponding divided regions (DZ33, DZ34) in the fourth full-depth dark region (SZ40) image and the third full-depth dark region (SZ30) image. check In addition, the scene prediction module 14 confirms the degree of change of the corresponding divided regions (DZ32, DZ33) in the image of the dark region (SZ30) of the third previous Kimi and the image of the dark region (SZ20) of the second full depth. In addition, the scene prediction module 14 confirms the degree of change of the corresponding divided area DZ31 DZ32 in the second full depth dark area SZ20 image and the immediately previous dark dark area SZ10 image.

결국, 굴착 깊이에 따른 해당 분할영역(DZ31 내지 DZ34)의 일단점(SPl 내지 SP4) 별지점의 변화도에 차이가 발생한다. 그러므로 해당 변화도별로 가중치를 달리해서 최종 변화율을 산출하고, 상기 최종 변화율에 따라 전방 막장면의 암질영역의 해당 분할영역의 일단점을 예측한다. 본 실시예는 전방 막장면에 근접할수록 가중치를 크게 해서, 막장면 예측모듈(14)은 2번째 전 깊이의 암질영역(SZ20) 이미지와 바로 이전 깊이의 암질영역(SZ1O) 이미지에서 해당 분할영역(DZ31, DZ32)의 변화도가 전방 분할영역의 일단점 위치 변화율에 상대적으로 큰 가중치를 줄 수 있도록 한다. 본 실시예는 전방 막장면에 근접한 변화도 순으로 상기 가중치가 0.4, 0.3, 0.2, 0.1이 되도록 했다.As a result, a difference occurs in the degree of change of the separate points of one end (SP1 to SP4) of the corresponding divided areas (DZ31 to DZ34) according to the excavation depth. Therefore, the final change rate is calculated by changing the weight for each corresponding gradient, and one end point of the corresponding divided region of the dark area of the front end face is predicted according to the final change rate. In this embodiment, the weight is increased as it approaches the front end scene, so that the end scene prediction module 14 is divided into the second full depth dark area (SZ20) image and the dark mass area (SZ10) image of the immediately previous depth ( DZ31, DZ32) allow a relatively large weight to be given to the rate of change of the one-point position of the front segment. In this embodiment, the weights were set to 0.4, 0.3, 0.2, and 0.1 in the order of the degree of change close to the front end scene.

여기서 막장면 예측모듈(14)의 분할영역(DZ31 내지 DZ34)별 일단점 위치 예측은, 상기 제1 실시예와 같이 일단점의 변화도와 더불어 해당 암질영역(SZ)의 중심점(21) 및 경계라인(b1)의 변화 방향과 변화 형태를 고려해 이루어진다.Here, the prediction of the position of one end point for each divided area (DZ31 to DZ34) of the scene prediction module 14 is, as in the first embodiment, the center point 21 and boundary line of the corresponding dark area SZ along with the degree of change of one end point. It is made in consideration of the change direction and form of change in (b1).

이후, 전방 굴착을 통해 전방 막장면이 실측되면, 신규 막장면 내에 암질영역을 표출하고 실측 막장면 정보 DB(11)에 저장한다. Thereafter, when the front makjangmyeon is actually measured through the forward excavation, the dark area is expressed in the new makjangmyeon and stored in the measured makjang scene information DB 11 .

막장면 자동분석 시스템과 예측시스템을 이용한 전방 막장면 예측 과정The process of predicting the final scene using an automatic final scene analysis system and prediction system

도 1을 참조하여, 전술한 인공지능을 이용한 막장면 자동분석 시스템 및 예측시스템을 결합하여 전방 막장면을 예측하는 과정을 설명한다. 상기 시스템들의 구성에 대한 설명은 전술하였는 바, 중복되는 설명은 생략한다. With reference to FIG. 1, the process of predicting the front scene by combining the automatic analysis system and the prediction system using the aforementioned artificial intelligence will be described. Since the description of the configuration of the systems has been described above, the overlapping description will be omitted.

DFM 모듈(300)의 출력부(350)는 DFM 분석정보를 결과물로서 출력하고, 결과물은 DFM 데이터베이스(390)에 저장될 수 있다. 또한, 사용자 수정모듈(400)을 거쳐 학습정보 추가모듈(500)로 전송됨으로써, 학습정보로써 다시 활용되는 플로우를 거칠 수 있다. The output unit 350 of the DFM module 300 may output the DFM analysis information as a result, and the result may be stored in the DFM database 390 . In addition, by being transmitted to the learning information addition module 500 via the user correction module 400, it is possible to go through a flow that is used again as learning information.

이와는 별개의 플로우로써, 출력부(350)에 의해 출력된 DFM 분석정보는 예측시스템(10)으로 전송됨으로써, 상기 DFM 분석정보를 이용하여 터널의 전방 막장면을 예측하는 플로우를 거칠 수 있다. As a separate flow, the DFM analysis information output by the output unit 350 is transmitted to the prediction system 10, so that the DFM analysis information can be used to predict the front end scene of the tunnel.

DFM 모듈(300)로부터 획득되는 분석정보는, 예측시스템(10)으로의 입력을 위해, '예측시스템 입력용 막장면 정보'로 변환되는 과정을 거칠 수 있다. 이를 위해, 별도의 변환모듈(미도시)이 구비될 수도 있으며, 예측시스템(10)에 포함된 막장면 분석모듈(12)에서 상기의 변환처리를 수행할 수 있다. 여기서는 막장면 분석모듈(12)에서 상기의 변환처리가 수행됨을 기준으로 설명한다. The analysis information obtained from the DFM module 300 may undergo a process of being converted into 'prediction system input scene information' for input to the prediction system 10 . To this end, a separate transformation module (not shown) may be provided, and the transformation processing may be performed in the scene analysis module 12 included in the prediction system 10 . Herein, the description will be based on the conversion processing performed in the scene analysis module 12 .

막장면 분석모듈(12)은 DFM 모듈(300)로부터 획득되는 분석정보를 다시 분석하여 암질영역을 정의한다. 이 때, 막장면 지반에 대한 정보는 DFM 모듈(300)로부터 획득되는 분석정보를 이용할 수 있다. 이에 따라, 종래에는 전문 작업자에 의해 지반정보가 수집되는 과정과 분석되는 과정이 생략될 수 있는 장점이 있다. The scene analysis module 12 re-analyzes the analysis information obtained from the DFM module 300 to define a dark area. In this case, the analysis information obtained from the DFM module 300 may be used for the information on the ground of the Makjangmyeon. Accordingly, there is an advantage that the process of collecting and analyzing the ground information by a professional worker can be omitted in the related art.

DFM 모듈(300)로부터 막장면 분석모듈(12)로 전송된 분석정보는, 상기와 같이, 막장면 분석모듈(12)을 거친 후, 전술한 예측시스템(10)의 막장면 처리모듈(13) 및 막장면 예측모듈(14)을 순차적으로 거쳐 전방 막장면의 암질영역을 예측하도록 구성된다. The analysis information transmitted from the DFM module 300 to the scene analysis module 12 passes through the scene analysis module 12 as described above, and then the scene processing module 13 of the prediction system 10 described above. And it is configured to predict the dark area of the front scene through the scene prediction module 14 sequentially.

즉, 전술한 예측시스템(10)은 실측 막장면정보 DB(11)에 저장된 굴착 터널의 깊이별로 실측된 막장면의 암질영역 정보를 활용한 구성인데 반해, '막장면 자동분석 시스템과 예측시스템을 이용한 전방 막장면 예측 과정'에서는, 실측 막장면정보 DB(11) 대신에 DFM 모듈(300)의 출력부(350)로부터 출력되는 막장면 분석정보를 활용한다는 점에서 차이가 있다. DFM 모듈(300)의 출력부(350)로부터 출력되는 막장면 분석정보는 가공된 정보인 바, 실측 정보에 비해 노이즈가 많이 제거된 상태이므로, 막장면 분석모듈(12)에서의 연산 시간을 단축시킬 수 있는 장점이 있다. That is, the above-described prediction system 10 is a configuration that utilizes the information on the rock quality of the final scene measured by the depth of the excavation tunnel stored in the actual scene information DB 11, whereas the 'automatic scene analysis system and the prediction system are used. In the 'prediction process of the front scene used,' there is a difference in that the scene analysis information output from the output unit 350 of the DFM module 300 is used instead of the actual scene information DB 11 . Since the scene analysis information output from the output unit 350 of the DFM module 300 is processed information, a lot of noise has been removed compared to the actual measurement information, so the calculation time in the scene analysis module 12 is reduced. There are advantages to doing it.

DFM 모듈(300)의 출력부(350)로부터 출력되는 막장면 분석정보는 예측시스템(10)을 거쳐서 예측정보 출력부(20)로 출력된다. 예측정보 출력부(20)는 디스플레이 수단을 통해 표시될 수 있다. 예측정보 출력부(20)로 전송된 예측정보는 예측정보 수정부(30)을 더 거치도록 구성될 수 있다. 예측시스템(10)은 기설정된 굴착 깊이별로 전방 막장면을 예측하도록 구성되는 바, 굴착을 통해 실제로 확인되는 정보를 더 반영함으로써, 분석정보의 정확도 및 신뢰도를 향상시킬 수 있기 때문이다. 예측정보 수정부(30)에서는 전문가를 통해 수행되는 것이 바람직하며, 굴착을 통해 실제로 확인되는 정보를 기준으로 정정하거나, 오류라고 판단된 부분을 바로 잡을 수 있다. 이러한 수정 과정을 통해, 본 발명에 적용되는 예측시스템(10) 및 막장면 자동 분석 시스템을 더욱 고도화시킬 수 있다. The scene analysis information output from the output unit 350 of the DFM module 300 is output to the prediction information output unit 20 through the prediction system 10 . The prediction information output unit 20 may be displayed through a display means. The prediction information transmitted to the prediction information output unit 20 may be configured to further go through the prediction information correction unit 30 . This is because the prediction system 10 is configured to predict the front end surface for each preset excavation depth, and by further reflecting the information actually confirmed through excavation, the accuracy and reliability of the analysis information can be improved. The prediction information correction unit 30 is preferably performed by an expert, and can be corrected based on information actually confirmed through excavation, or a portion determined to be an error can be corrected. Through this modification process, the prediction system 10 and the automatic scene analysis system applied to the present invention can be further advanced.

이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.In the above, the present specification has been described with reference to the embodiments shown in the drawings so that those skilled in the art can easily understand and reproduce the present invention, but these are merely exemplary, and those skilled in the art can make various modifications and equivalent other modifications from the embodiments of the present invention. It will be appreciated that embodiments are possible. Therefore, the protection scope of the present invention should be defined by the claims.

10: 예측시스템
11: 실측 막장면 정보 DB
12: 막장면 분석모듈
13: 막장면 처리모듈
14: 막장면 예측모듈
100: 학습정보 생성모듈
110: 학습용 막장면 이미지정보 입력부
120: 학습용 분석정보 입력부
130: 학습정보 분할부
190: 학습정보 데이터베이스
200: 학습모듈
210: 포맷 변환부
220: 학습파라미터 설정부
230: 학습수행부
240: 유효성 검증부
300: DFM 모듈
310: 입력부
320: 이미지 수정부
330: 추론부
340: 절리 추출부
350: 출력부
360: RQD 계산부
390: DFM 데이터베이스
400: 사용자 수정 모듈
500: 학습정보 추가 모듈
10: Prediction system
11: Actual scene information DB
12: Scene analysis module
13: Makjangmyeon processing module
14: scene prediction module
100: learning information generation module
110: learning scene image information input unit
120: analysis information input unit for learning
130: learning information division unit
190: learning information database
200: learning module
210: format conversion unit
220: learning parameter setting unit
230: learning performance unit
240: validation unit
300: DFM module
310: input unit
320: image correction unit
330: reasoning unit
340: joint extraction unit
350: output unit
360: RQD calculator
390: DFM database
400: user modification module
500: learning information addition module

Claims (14)

막장면 이미지정보를 입력층으로 하고 상기 막장면 이미지정보에 디지털 페이스 매핑(DFM; digital face mapping)되는 분석정보를 출력층으로 하는 학습을 이용한 막장면 자동분석 시스템을 통해, 입력된 막장면 이미지정보에 대한 분석을 수행하는 방법으로서, -여기서, 분석정보는 암종에 대한 정보, 암질에 대한 정보 및 절리에 대한 정보를 포함함-
(A-1) 학습용 막장면 이미지정보 입력부(110)가 학습용으로 미리 준비된 학습용 막장면 이미지정보를 로딩하며, 학습용 분석정보 입력부(120)가 상기 막장면 이미지정보에 대응되는 학습용 분석정보를 로딩하고, 상기 로딩된 학습용 막장면 이미지정보 및 학습용 분석정보를 매핑함으로써, 학습정보를 설정하는 단계(S110); 및
(B) 상기 (A-1) 단계를 상기 미리 준비된 복수의 학습용 막장면 이미지 각각에 대해 반복하여 수행함으로써, 막장면 자동분석 시스템을 구축하는 단계(S200); 를 포함하며,
상기 (A-1) 단계(S110)에서 설정되는 상기 학습정보는,
막장면에서 동일 대상의 군집 범위를 검출하여 대상영역을 표출함으로써, 생성되고, 상기 대상은 암종, 암질 및 절리를 포함하되,
(T1) 상기 대상영역에 포함된 특정점을 잇는 기준선 및 상기 특정점 각각의 높이를 이용하여 상기 대상영역의 보정영역을 표출하고, 상기 막장면의 굴착 깊이 순으로 이전 보정영역들의 변화율을 이용하여 생성되는 제1 방식;
(T2) 상기 막장면의 굴착 깊이 순으로 제1 및 제2 대상영역을 표출하고, 상기 제1 및 제2 대상영역 각각의 중심점 거리를 이용하여 생성되는 제2 방식; 또는
(T3) 상기 대상영역을 다등분하여 분할영역을 표출하고, 상기 막장면의 굴착 깊이 순으로 상기 분할영역에 포함된 특정점의 변화율을 이용하여 생성되는 제3 방식; 중 어느 하나를 이용하는,
방법.
Through an automatic mak scene analysis system using learning that uses the mak scene image information as an input layer and digital face mapping (DFM) analysis information to the mak scene image information as an output layer, the input mak scene image information is As a method of performing an analysis for -here, the analysis information includes information about the carcinoma, information about the cancer quality, and information about the joint-
(A-1) The learning scene image information input unit 110 loads the learning scene image information prepared in advance for learning, and the learning analysis information input unit 120 loads the learning analysis information corresponding to the closing scene image information, and , setting the learning information by mapping the loaded scene image information for learning and the analysis information for learning (S110); and
(B) by repeatedly performing the step (A-1) for each of the plurality of pre-prepared scenes for learning, constructing an automatic analysis system for scenes (S200); includes,
The learning information set in the (A-1) step (S110) is,
It is generated by detecting the cluster range of the same target in the scene and expressing the target area, and the target includes carcinoma, cancer, and joint,
(T1) Expressing the correction region of the target region using the reference line connecting the specific points included in the target region and the height of each specific point, and using the rate of change of previous correction regions in the order of the excavation depth of the final scene a first manner in which it is generated;
(T2) a second method in which the first and second target areas are expressed in the order of the excavation depth of the makjang surface, and the first and second target areas are generated using a center point distance; or
(T3) a third method in which the target region is divided into multiple equal parts to express a divided region, and is generated using a change rate of a specific point included in the divided region in the order of the excavation depth of the final scene; using any of the
Way.
제 1 항에 있어서,
상기 제1 방식은,
(T-11) 상기 대상영역(SZ)의 경계라인(b1)에서 최고 높이에 해당하는 첫째 높이의 제1점(P1)과, 상기 첫째 높이보다 낮은 높이에 해당하는 둘째 높이의 제2점(P2)과, 상기 둘째 높이보다 낮은 높이에 해당하는 셋째 높이의 제3점(P3)을 확인한 후, 상기 제2점(P2) 및 제3점(P3)을 잇는 기준선(SL)을 형성하는, 단계(S11);
(T-12) 상기 제1점 내지 제3점(P1, P2, P3)을 모두 경유하는 경계라인(b1)과 상기 기준선(SL) 간의 제1높이(H1)와, 상기 대상영역의 제2높이(H2)의 비율이 임계값 이상이면, 상기 기준선(SL)을 경계로 상기 제1점(P1) 방향의 대상 범위를 삭제함으로써, 상기 대상영역의 보정영역을 표출하는, 단계(S12); 및
(T-13) 막장면의 굴착 깊이 순으로 이전 보정영역들의 변화율을 확인하고, 상기 변화율을 이용하여 전방의 막장면 이미지정보 및 분석정보를 예측함으로써, 상기 학습정보를 생성하는, 단계(S13); 를 포함하는,
방법.
The method of claim 1,
The first method is
(T-11) a first point P1 of the first height corresponding to the highest height on the boundary line b1 of the target area SZ, and a second point of a second height corresponding to a height lower than the first height ( After confirming P2) and a third point P3 of a third height corresponding to a height lower than the second height, a reference line SL connecting the second point P2 and the third point P3 is formed, step (S11);
(T-12) a first height H1 between the boundary line b1 passing through all of the first to third points P1, P2, and P3 and the reference line SL, and a second height of the target area When the ratio of the height H2 is equal to or greater than the threshold value, by deleting the target range in the direction of the first point P1 with respect to the reference line SL as a boundary, the correction area of the target area is expressed (S12); and
(T-13) Checking the rate of change of the previous correction areas in the order of the excavation depth of the final scene, and predicting the image information and analysis information of the final scene in the front using the rate of change, generating the learning information (S13) ; containing,
Way.
제 2 항에 있어서,
상기 (T-13) 단계는,
굴착 깊이 순으로 각각의 상기 막장면의 중점을 경유하는 수직선을 배열하고, 상기 수직선에 보정영역의 고점 및 저점을 표시하되, 상기 고점 및 저점은 상기 보정영역의 상부 경계라인과 하부 경계라인이 상기 기준선과 각각 교차하는 교차점이며,
상기 보정영역의 변화를 이미지 트래킹으로 추적하도록 상기 수직선별 고점 및 저점을 각각 이어 종축도를 생성하는,
방법.
3. The method of claim 2,
The (T-13) step is,
A vertical line passing through the midpoint of each of the final scenes is arranged in the order of the excavation depth, and the high and low points of the correction area are indicated on the vertical lines, wherein the high and low points are the upper boundary line and the lower boundary line of the correction area. It is an intersection point that intersects each of the baselines,
generating a vertical view by connecting the high and low points of each vertical line to track the change in the correction area by image tracking,
Way.
제 2 항에 있어서,
상기 (T-12) 단계에서,
상기 제1높이는 상기 막장면의 중점을 경유하는 수직선이, 경계라인 및 기준선과 각각 교차하는 교차점들 간의 길이이며,
상기 제2높이는 상기 수직선이 대상영역의 경계라인을 교차하는 교차점들 간의 길이인,
방법.
3. The method of claim 2,
In the step (T-12),
The first height is a length between intersections where a vertical line passing through the midpoint of the makjang surface intersects a boundary line and a reference line, respectively,
The second height is the length between intersection points where the vertical line intersects the boundary line of the target area,
Way.
제 1 항에 있어서,
상기 제2 방식은,
(T-21) 상기 제1 대상영역의 제1 중심점 및 상기 제2 대상영역의 제2 중심점 간의 거리가 임계값 미만이면 상기 제1 및 제2 대상영역은 동질영역으로 설정하는 단계(S21); 및
(T-22) 상기 막장면의 굴착 깊이 순으로 이전 동질영역들의 변화율을 확인하고, 상기 변화율을 이용하여 전방 막장면의 대상영역을 예측하는 단계(S22); 를 포함하는,
방법.
The method of claim 1,
The second method is
(T-21) setting the first and second target regions as homogeneous regions when the distance between the first central point of the first target region and the second central point of the second target region is less than a threshold value (S21); and
(T-22) confirming the rate of change of the previous homogeneous areas in the order of the excavation depth of the last scene, and predicting the target area of the front end face by using the change rate (S22); containing,
Way.
제 5 항에 있어서,
상기 (T-22) 단계는,
상기 제1 중심점을 경유하는 제1 수직선에 상기 제1 대상영역의 고점 및 저점을 표시하고, 상기 제2 중심점을 경유하는 제2 수직선에 상기 제2 대상영역의 고점 및 저점을 표시하며,
굴착 깊이 순으로, 상기 제1 및 제2 수직선을 배열하여 상기 제1 및 제2 대상영역의 변화를 이미지 트래킹으로 추적하도록, 상기 제1 및 제2 수직선별로 동질영역의 고점과 저점을 각각 이어 종축도를 생성하는,
방법.
6. The method of claim 5,
The step (T-22) is,
Displaying the high and low points of the first target region on a first vertical line passing through the first central point, and displaying the high and low points of the second target region on a second vertical line passing through the second central point,
In the order of the depth of excavation, the first and second vertical lines are arranged to track the change of the first and second target areas by image tracking, and the first and second vertical lines respectively connect the high and low points of the homogeneous area to the vertical axis creating a diagram,
Way.
제 1 항에 있어서,
상기 제3 방식은,
(T-31) 상기 분할영역의 일단점 및 타단점을 각각 추출하는 단계(S31); 및
(T-32) 굴착 깊이 순으로, 동질의 이전 대상영역들의 분할영역별 일단점 및 타단점 각각의 변화율을 확인하고, 전방 막장면의 대상영역의 분할영역별 일단점 및 타단점을 예측하여 전방 막장면의 대상영역을 예측하는 단계(S32); 를 포함하는,
방법.
The method of claim 1,
The third method is
(T-31) extracting one end point and the other end point of the divided region, respectively (S31); and
(T-32) In the order of excavation depth, the rate of change of one end point and the other end point for each division of the previous target areas of the same homogeneity is confirmed, and the one end point and the other end point for each division area of the target area of the front end scene are predicted and the front Predicting the target area of the scene (S32); containing,
Way.
제 7 항에 있어서,
상기 분할영역은, 상기 대상영역을 횡방향으로 분할하고,
상기 (T-32) 단계에서,
상기 일단점 및 타단점은 각각의 분할영역의 최고점 및 최저점이며,
상기 일단점 및 타단점 각각의 변화율은, 상기 일단점 및 타단점 간의 거리 변화율을 포함하는,
방법.
8. The method of claim 7,
The division area divides the target area in a horizontal direction,
In the step (T-32),
The one end point and the other end point are the highest and lowest points of each division,
The rate of change of each of the one end point and the other end point includes the rate of change of the distance between the one end point and the other end point,
Way.
제 7 항에 있어서,
(T-30) 상기 대상영역을 다등분하여 분할영역을 표출하기 이전에,
굴착 깊이 순으로, 이전 대상영역들의 중심점을 검출하고, 상기 이전 대상영역들의 중심점 간의 거리가 임계값 미만이면, 해당되는 이전 대상영역들은 서로 동질영역인 것으로 설정하는 단계(S30); 를 더 포함하는,
방법.
8. The method of claim 7,
(T-30) Before expressing the divided region by dividing the target region into multiple equal parts,
Detecting the center points of the previous target areas in the order of the excavation depth, and if the distance between the center points of the previous target areas is less than a threshold value, setting the previous target areas to be homogeneous with each other (S30); further comprising,
Way.
제 1 항 내지 제 9 항 중 어느 한 항에 따른 방법에 있어서,
상기 (A-1) 단계 이후,
(A-2) 학습정보 분할부(130)가, 상기 학습정보를 기설정된 단위로서 분할(cropping)하여 하나의 학습정보마다 다수의 분할 학습정보를 생성하는 단계(S120);
(A-3) 포맷 변환부(210)가 상기 다수의 분할 학습정보를 로딩하여 학습용 포맷으로 변환하는 단계(S130); 및
(A-4) 학습수행부(230)가, 상기 포맷 변환된 다수의 분할 학습정보를 이용하여 하나의 막장면 이미지정보마다 다수 회의 학습을 수행하는 단계(S140); 를 더 포함하고,
상기 (B) 단계 이후,
(C) 입력부(310)에 막장면 이미지정보가 입력되면, 추론부(330)가 상기 막장면 자동분석 시스템을 이용하여 분석정보를 추론하고, 출력부(350)가 이를 출력하는 단계(S300); 를 더 포함하는,
방법.
10. The method according to any one of claims 1 to 9,
After step (A-1),
(A-2) the learning information dividing unit 130, generating a plurality of divided learning information for each piece of learning information by cropping the learning information as a preset unit (S120);
(A-3) converting the format conversion unit 210 into a learning format by loading the plurality of divided learning information (S130); and
(A-4) performing, by the learning performing unit 230, learning multiple times for each single scene image information using the format-converted plurality of divided learning information (S140); further comprising,
After step (B),
(C) When the scene image information is input to the input unit 310, the inference unit 330 infers the analysis information using the automatic analysis system for the scene scene, and the output unit 350 outputs it (S300) ; further comprising,
Way.
제 10 항에 있어서,
상기 (B) 단계 이후,
(B-1) 유효성 검증부(240)가, 다수의 다른 학습용 막장면 이미지정보를 이용하여 상기 (B) 단계에서 구축된 막장면 자동분석 시스템의 유효성 검증을 수행하는 단계(S210); 를 더 포함하며,
상기 학습용 막장면 이미지정보 및 이에 대응하는 분석정보가 N개 준비되되,
상기 (B) 단계에서 수행되는 학습용 막장면 이미지정보는 A개이며(N>A), 상기 (B-1) 단계에서 수행되는 다른 학습용 막장면 이미지정보는 N-A개인,
방법.
11. The method of claim 10,
After step (B),
(B-1) the validation unit 240, using a plurality of different learning scenes image information to perform the validity verification of the automatic scene analysis system built in the step (B) (S210); further comprising,
N pieces of image information for the learning scene and analysis information corresponding thereto are prepared,
The image information for the learning scenes performed in the step (B) is A (N>A), and the other image information for the curtain scenes for learning performed in the step (B-1) is NA individuals,
Way.
제 10 항에 있어서,
상기 (C) 단계는,
(C-11) 상기 입력부(310)에 막장면 이미지정보가 입력되는 단계(S311);
(C-12) 이미지 수정부(320)에 상기 입력된 막장면 이미지정보 상에서 터널 경계면 노드가 입력되고, 입력된 터널 경계면 노드가 연결되고, 연결된 면적만 추출됨으로써, 막장면 이미지정보가 수정되는 단계(S312); 및
(C-13) 추론부(330)가 상기 수정된 막장면 자동분석 시스템을 이용하여 분석정보를 추론하고, 상기 출력부(350)가 이를 출력하는 단계(S313); 를 포함하는,
방법.
11. The method of claim 10,
The step (C) is,
(C-11) step of inputting the scene image information to the input unit 310 (S311);
(C-12) A step in which a tunnel boundary node is input on the inputted scene image information to the image correction unit 320, the input tunnel boundary node is connected, and only the connected area is extracted, thereby modifying the closing scene image information (S312); and
(C-13) the inference unit 330 infers the analysis information using the modified automatic scene analysis system, and the output unit 350 outputs it (S313); containing,
Way.
제 10 항에 있어서,
상기 (C) 단계는,
(C-21) 상기 입력부(310)에 막장면 이미지정보가 입력되는 단계(S321);
(C-22) 이미지 수정부(320)가 워터쉐드(watershed) 기법을 이용하여 상기 입력된 막장면 이미지정보를 다수의 영역으로 분할하는 단계(S322);
(C-23) 상기 추론부(330)가, 상기 입력된 막장면 이미지정보의 다수의 영역 각각을 입력층으로 하여, 상기 막장면 자동분석 시스템을 통해 영역별 분석정보를 추론하는 단계(S323); 및
(C-24) 상기 추론부(330)가 상기 영역별 분석정보를 통합하여 상기 입력된 막장면 이미지정보에 대한 상기 디지털 페이스 매핑된 분석정보를 추론하고, 상기 출력부(350)가 이를 출력하는 단계(S324); 를 포함하는,
방법.
11. The method of claim 10,
The step (C) is,
(C-21) step of inputting the scene image information to the input unit 310 (S321);
(C-22) the image correction unit 320 dividing the input scene image information into a plurality of regions using a watershed technique (S322);
(C-23) Inferring, by the inference unit 330, analysis information for each region through the automatic scene analysis system by using each of a plurality of regions of the input scene image information as an input layer (S323) ; and
(C-24) The inference unit 330 infers the digital face-mapped analysis information for the input scene image information by integrating the analysis information for each area, and the output unit 350 outputs it step (S324); containing,
Way.
제 10 항에 따른 방법을 이용하고, 예측시스템(10)을 통해 전방 막장면을 예측하는 방법으로서,
상기 (C) 단계 이후,
(C-1) 상기 추론부(330)에 의해 추론되어 상기 출력부(350)로부터 출력된 막장면의 상기 분석정보가 상기 예측시스템(10)에 입력되는 단계(S410);
(C-2) 막장면의 상기 분석정보가 상기 예측시스템(10)에 구비된 막장면 분석모듈(12)로 입력되어 대상영역 이미지를 생성하는 단계(S420);
(C-3) 상기 예측시스템(10)에 구비된 막장면 처리모듈(13)에 의해, 상기 막장면 분석모듈(12)이 표출한 대상영역 이미지를 기설정된 방식으로 처리하는 단계(S430); 및
(C-4) 상기 예측시스템(10)에 구비된 막장면 예측모듈(14)을 통해, 상기 막장면 처리모듈(13)에 의해 처리된 이미지를 이용하여 전방 막장면을 예측하되, 상기 제1 내지 제3 방식 중 어느 하나를 이용하여 전방 막장면을 예측하는 단계(S440); 를 더 포함하는,
전방 막장면 예측 방법.
Using the method according to claim 10, as a method of predicting the front end scene through the prediction system (10),
After step (C),
(C-1) the step of inputting the analysis information of the scene inferred by the inference unit 330 and output from the output unit 350 to the prediction system 10 (S410);
(C-2) generating a target area image by inputting the analysis information of the scene scene to the scene scene analysis module 12 provided in the prediction system 10 (S420);
(C-3) processing, by the scene processing module 13 provided in the prediction system 10, the target region image expressed by the scene analysis module 12 in a preset manner (S430); and
(C-4) Through the curtain scene prediction module 14 provided in the prediction system 10, the front curtain scene is predicted using the image processed by the curtain scene processing module 13, but the first Predicting the front curtain surface using any one of the to third method (S440); further comprising,
A method for predicting the front end scene.
KR1020200080394A 2020-06-30 2020-06-30 Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends KR102344741B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200080394A KR102344741B1 (en) 2020-06-30 2020-06-30 Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200080394A KR102344741B1 (en) 2020-06-30 2020-06-30 Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends

Publications (1)

Publication Number Publication Date
KR102344741B1 true KR102344741B1 (en) 2021-12-29

Family

ID=79176496

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200080394A KR102344741B1 (en) 2020-06-30 2020-06-30 Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends

Country Status (1)

Country Link
KR (1) KR102344741B1 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2996836B2 (en) * 1993-07-29 2000-01-11 株式会社熊谷組 Rock type and rock classification method in image analysis of tunnel face
KR20090020359A (en) * 2007-08-23 2009-02-26 (주)가온기술 Automatic control equipment and method for tunnel mappling
KR101104466B1 (en) * 2011-06-08 2012-01-12 배재대학교 산학협력단 System and method for surveying tunnel using digital image
KR101104444B1 (en) * 2011-06-08 2012-01-12 배재대학교 산학협력단 System and method for predicting discontinous face of tunnel working face
KR101529107B1 (en) * 2014-09-26 2015-06-29 한국건설기술연구원 Describing Method of Face Mapping Drawing for Tunnel
JP2019023392A (en) * 2017-07-24 2019-02-14 株式会社大林組 Working face evaluation support system, working face evaluation support method and working face evaluation support program
CN109886534A (en) * 2019-01-09 2019-06-14 中国铁建重工集团有限公司 Discrimination method and device for classification of tunnel surroun ding rock
KR20190109094A (en) * 2018-03-16 2019-09-25 주식회사 대림코퍼레이션 Real time remote system and method for observing tunnel working face
JP2019190062A (en) * 2018-04-20 2019-10-31 鹿島建設株式会社 Evaluation system of working face, evaluation method of working face, and evaluation program of working face
CN110889834A (en) * 2019-11-19 2020-03-17 长沙理工大学 Road tunnel surrounding rock grading method based on cloud computing

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2996836B2 (en) * 1993-07-29 2000-01-11 株式会社熊谷組 Rock type and rock classification method in image analysis of tunnel face
KR20090020359A (en) * 2007-08-23 2009-02-26 (주)가온기술 Automatic control equipment and method for tunnel mappling
KR101104466B1 (en) * 2011-06-08 2012-01-12 배재대학교 산학협력단 System and method for surveying tunnel using digital image
KR101104444B1 (en) * 2011-06-08 2012-01-12 배재대학교 산학협력단 System and method for predicting discontinous face of tunnel working face
KR101529107B1 (en) * 2014-09-26 2015-06-29 한국건설기술연구원 Describing Method of Face Mapping Drawing for Tunnel
JP2019023392A (en) * 2017-07-24 2019-02-14 株式会社大林組 Working face evaluation support system, working face evaluation support method and working face evaluation support program
KR20190109094A (en) * 2018-03-16 2019-09-25 주식회사 대림코퍼레이션 Real time remote system and method for observing tunnel working face
JP2019190062A (en) * 2018-04-20 2019-10-31 鹿島建設株式会社 Evaluation system of working face, evaluation method of working face, and evaluation program of working face
CN109886534A (en) * 2019-01-09 2019-06-14 中国铁建重工集团有限公司 Discrimination method and device for classification of tunnel surroun ding rock
CN110889834A (en) * 2019-11-19 2020-03-17 长沙理工大学 Road tunnel surrounding rock grading method based on cloud computing

Similar Documents

Publication Publication Date Title
EP3751318A1 (en) Three-dimensional ground model generation and automated earthwork target model generation system based on parameter input
CN104063894A (en) Point cloud three-dimensional model reestablishing method and system
CN115690354B (en) Dynamic control method for shallow tunnel construction based on three-dimensional live-action numerical analysis
KR20180116922A (en) Apparatus for predicting net penetration rate of shield tunnel boring machine and method thereof
CN108335355A (en) A kind of model of geological structure body construction method and device
CN115526450A (en) Construction progress monitoring method, system and medium based on combination of oblique photography and BIM
CN109408649A (en) Slag piece intelligent analysis method and system based on textural characteristics and machine learning
CN108537825A (en) A kind of method for tracking target based on transfer learning Recurrent networks
CN117745968B (en) Method and system for creating geological model
KR20210144390A (en) Method for generating tunnel construction documents automatically
CN112084548B (en) 2.5D visual modeling method and system for slope stability analysis
KR102344741B1 (en) Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends
CN107944089A (en) A kind of plot limit for height analysis system and its analysis method for regarding corridor because of the present circumstance
CN116992694B (en) Tunnel blasting quality evaluation and optimization method
JP7374847B2 (en) Face evaluation system, face evaluation learning system, face evaluation method, face evaluation learning method, computer program
KR102201211B1 (en) Method for analysis of blind ends in tunnels using artificial intelligence and extraction of joints
CN112364406A (en) Intelligent design and three-dimensional visualization method for tunnel excavation blasting parameters
CN116910881A (en) Method for automatically acquiring arrangement point positions of fire hydrant along walking path
CN114842159B (en) Three-dimensional geologic model splicing method for complex structure of sedimentary stratum
KR102240422B1 (en) Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization
KR102240421B1 (en) Method for analysis of blind ends in tunnels using artificial intelligence
KR102361023B1 (en) Apparatus and method for optimizing 3d scan plans of building
CN114155440A (en) Automatic detection method and system for farmland non-farming
KR102193830B1 (en) Apparatus and method for predicting front geological features based on indicatingtendency to change according to measuring data for a blind end in a tunnel
Huang et al. Parameterized modeling and safety simulation of shield tunnel based on BIM-FEM automation framework

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant