KR102240422B1 - Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization - Google Patents

Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization Download PDF

Info

Publication number
KR102240422B1
KR102240422B1 KR1020190161773A KR20190161773A KR102240422B1 KR 102240422 B1 KR102240422 B1 KR 102240422B1 KR 1020190161773 A KR1020190161773 A KR 1020190161773A KR 20190161773 A KR20190161773 A KR 20190161773A KR 102240422 B1 KR102240422 B1 KR 102240422B1
Authority
KR
South Korea
Prior art keywords
learning
information
analysis
unit
image information
Prior art date
Application number
KR1020190161773A
Other languages
Korean (ko)
Inventor
조인제
유상훈
이기정
문민수
Original Assignee
주식회사 대림
그림소프트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 대림, 그림소프트 주식회사 filed Critical 주식회사 대림
Priority to KR1020190161773A priority Critical patent/KR102240422B1/en
Application granted granted Critical
Publication of KR102240422B1 publication Critical patent/KR102240422B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • EFIXED CONSTRUCTIONS
    • E21EARTH DRILLING; MINING
    • E21DSHAFTS; TUNNELS; GALLERIES; LARGE UNDERGROUND CHAMBERS
    • E21D23/00Mine roof supports for step- by- step movement, e.g. in combination with provisions for shifting of conveyors, mining machines, or guides therefor
    • EFIXED CONSTRUCTIONS
    • E21EARTH DRILLING; MINING
    • E21DSHAFTS; TUNNELS; GALLERIES; LARGE UNDERGROUND CHAMBERS
    • E21D9/00Tunnels or galleries, with or without linings; Methods or apparatus for making thereof; Layout of tunnels or galleries
    • E21D9/003Arrangement of measuring or indicating devices for use during driving of tunnels, e.g. for guiding machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/02Prospecting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Abstract

Provided is a method for automatically outputting analysis information on image information of an inputted tunnel face through a tunnel face automatic analysis system using learning that uses tunnel face image information as an input layer, and uses analysis information digital face-mapped to the tunnel face image information as an output layer. Optimal parameters required for learning were determined by converting a learning rate and a training step for a preset number of times, thereby providing a system excellent in accuracy and speed.

Description

인공 지능과 파라미터 최적화를 이용한 터널의 막장면 자동 분석 방법{Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization}Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization}

본 발명은 인공 지능과 파라미터 최적화를 이용한 터널의 막장면 자동 분석 방법을 제공한다.The present invention provides a method for automatically analyzing the scene of a tunnel using artificial intelligence and parameter optimization.

터널 공사의 시공은, 예를 들어, 장약 및 발파, 환기, 버럭처리, 막장(blind end)면 관찰 및 분석, 지보 및 굴착 패턴 결정, 지보재 설치 등의 순서로 이루어지고, 지보재 설치 이후 다시 장약 및 발파 단계로 회귀하여 다수 회 반복되면서 지정된 구간 동안 이루어진다. The construction of tunnel construction is performed in the order of charging and blasting, ventilation, burlock treatment, blind end surface observation and analysis, support and excavation pattern determination, support material installation, etc. It returns to the blasting step and repeats a number of times during the specified period.

여기에서 막장면 관찰 및 분석의 정확성은 매우 중요하다. 막장면에서 확인되는 암종, 암질, 절리, 지하수 여부 등에 대한 분석이 정확하게 수행되어야 안전하고 효과적인 후속 작업, 즉 해당 막장 안쪽의 다음 단계 굴착이 가능하다. Here, the accuracy of the observation and analysis of the scene is very important. Safe and effective follow-up work, that is, the next stage of excavation inside the curtain, is possible only when the analysis of the presence of carcinoma, rock quality, joints, and groundwater identified at the curtain surface is accurately performed.

막장면 관찰 및 분석의 신속성 역시 중요하다. 발파 굴착에서 1일 2회 이상의 발파를 할 경우, 15분 이내에 막장면 분석이 완료되어야 한다. 장약, 발파, 환기, 버럭처리, 지보재 설치 등에 소요되는 시간이 많기 때문이다. The speed of observation and analysis of the scene is also important. In the case of blasting more than twice a day in blasting excavation, the analysis of the scene must be completed within 15 minutes. This is because there is a lot of time required for charging, blasting, ventilation, burlock treatment, and installation of support materials.

종래 기술에서 이를 위한 다양한 방법이 제안된다. Various methods for this are proposed in the prior art.

일본공개특허 2019-023392A는 기계 학습을 이용하여 막장을 평가하는 시스템을 제안한다. 본 종래기술은 구체적인 기계 학습 방법을 제시하지 않지만, 일반적인 기계 학습 방법(Softmax classification, SVM 등)을 이용할 경우 막장 평가 결과의 정확도는 30 내지 40%이어서 정확성이 낮다는 큰 문제가 있다. 또한, 기계 학습에 따른 시스템 구축은 물론 현장에서의 막장면 이미지 분석에 따른 출력층 추론에 상당한 시간이 소요되어, 실재 현장 적용 가능성이 매우 낮다. Japanese Patent Publication No. 2019-023392A proposes a system for evaluating the dead end using machine learning. The prior art does not present a specific machine learning method, but when using a general machine learning method (Softmax classification, SVM, etc.), the accuracy of the final evaluation result is 30 to 40%, and thus there is a big problem that the accuracy is low. In addition, it takes a considerable amount of time to build a system based on machine learning and to infer the output layer based on the analysis of the scene image in the field, so the possibility of application in the actual field is very low.

일본등록특허 4094770B2호는 암반 판정 시스템을 제안한다. 퍼지 논리와 같은 인공 지능을 활용하나, 이미지 분석이 아니라 굴착기로 확인되는 실재 암반 데이터를 이용하기에, 암반 시료 추출이 필요하고 암반 분석 장비가 터널 시공 현장에 구비되어야 한다는 문제가 있다. Japanese Patent No. 4094770B2 proposes a rock mass determination system. Although artificial intelligence such as fuzzy logic is used, there is a problem that rock sample extraction is required and a rock analysis equipment must be provided at the tunnel construction site because it uses real rock data confirmed by an excavator rather than image analysis.

유럽등록특허 1176393B1호는 기계 학습을 이용한 막장 절리 예측 시스템을 제안한다. 3차원 카메라가 현장마다 구비될 필요가 있으며, 절리 이외의 암종, 암질 등은 판정할 수 없다는 문제가 있다. European Patent No. 1176393B1 proposes a last joint prediction system using machine learning. There is a problem that a 3D camera needs to be provided for each site, and carcinoma and rock quality other than joints cannot be determined.

이와 같이, 종래 기술에서 인공 지능을 이용하여 막장면을 자동으로 분석하려는 시도가 있었으나, 낮은 정확도, 비교적 긴 추론 시간, 확인되는 데이터 종류의 제한, 현장에 필요한 고가의 장비 등의 문제가 있어서, 실재 터널 공사 현장에서 인공 지능을 이용한 막장면 분석이 적용되지 못하고 있다. As described above, there have been attempts in the prior art to automatically analyze the scene using artificial intelligence, but there are problems such as low accuracy, relatively long inference time, restrictions on the type of data to be identified, and expensive equipment required in the field. At the tunnel construction site, the analysis of the scene using artificial intelligence is not being applied.

인공 지능을 이용하지 않고, 카메라가 촬영한 이미지 상에서 사용자가 직접 영역을 구분하여 수동으로 분석을 지원하는 프로그램은 현재에도 종종 사용된다. 하지만, 이는 이미지를 불러온 후 수정 기능을 추가한 간략 프로그램 정도에 불과하며, 비전문가가 해당 프로그램을 이용할 경우 정확도가 낮아지므로 품질을 담보하기 어렵고 분석 시간 역시 증가하게 된다.A program that does not use artificial intelligence and supports manual analysis by manually dividing an area on an image captured by a camera is often used even today. However, this is only about a simple program in which the correction function is added after the image is loaded, and when the non-expert uses the program, the accuracy is lowered, so it is difficult to ensure quality and the analysis time is also increased.

(특허문헌 1) JP 2019-023392A(Patent Document 1) JP 2019-023392A

(특허문헌 2) JP 2018-071165A(Patent Document 2) JP 2018-071165A

(특허문헌 3) KR 10-2009-0020359A(Patent Document 3) KR 10-2009-0020359A

(특허문헌 4) JP 4094770B2(Patent Document 4) JP 4094770B2

(특허문헌 5) EP 1176393B1(Patent Document 5) EP 1176393B1

(특허문헌 6) JP 2019-065648A(Patent Document 6) JP 2019-065648A

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것이다.The present invention was devised to solve the above problems.

막장면 이미지 정보 분석에서 중요한 것은 정확성, 신속성 및 사용자에 의한 수정 가능성이다. 종래 기술에 따르면, 인공 지능을 이용한 방식에서 정확도가 낮았으며 신속성에도 문제가 있었다. 추론 시간을 신속하게 할 수 있겠지만, 이 경우에는 정확성이 낮아질 것이다. 사용자 수정이 가능한 사용자 인터페이스를 제공한 경우가 있었으나, 비전문가의 접근이 어려웠다. 본 발명은 이러한 문제점을 해결하여, 정확성, 신속성 및 사용자의 수정 가능성이 모두 제공될 수 있는 방법을 제안하고자 한다. The important thing in analyzing the image information of the scene is the accuracy, speed, and possibility of modification by the user. According to the prior art, in the method using artificial intelligence, the accuracy was low and there was a problem in speed. You can speed up the inference time, but in this case the accuracy will be low. In some cases, a user interface that allows user modification was provided, but it was difficult for non-experts to approach. An object of the present invention is to solve this problem and propose a method in which accuracy, speed, and possibility of user modification can all be provided.

상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는, 막장면 이미지 정보를 입력층으로 하고 상기 막장면 이미지 정보에 디지털 페이스 매핑(DFM; digital face mapping)되는 분석 정보를 출력층으로 하는 학습을 이용한 막장면 자동 분석 시스템을 통해, 입력된 막장면 이미지 정보에 대한 분석 정보를 자동으로 출력하는 방법으로서, -여기서, 분석 정보는 암종에 대한 정보, 암질에 대한 정보 및 절리에 대한 정보를 포함함- (A1) 학습용 막장면 이미지 정보 입력부(110)가 학습용으로 미리 준비된 학습용 막장면 이미지 정보를 로딩하고, 학습용 분석 정보 입력부(120)가 상기 막장면 이미지 정보에 대응되는 학습용 분석 정보를 로딩하고, 상기 로딩된 학습용 막장면 이미지 정보와 학습용 분석 정보를 매핑하여, 학습 정보를 설정하는 단계; (A2) 학습 정보 분할부(130)가, 상기 학습 정보를 기 설정된 단위로서 분할(cropping)하여 하나의 학습 정보마다 다수의 분할 학습 정보를 생성하는 단계; (A3) 포맷 변환부(210)가 상기 다수의 분할 학습 정보를 로딩하여 학습용 포맷으로 변환하는 단계; (A4) 학습 수행부(230)가, 상기 포맷 변환된 다수의 분할 학습 정보를 이용하되 학습률(learning rate)과 훈련 단계(train step)를 기 설정된 수회 동안 변환하면서 하나의 분할 학습 정보마다 다수 회의 학습을 수행하는 단계; (A5) 상기 (A1) 내지 (A4) 단계를, 다수의 학습용 막장면 이미지 정보에 대하여 모두 수행함으로써, 연산량이 최소가 되도록 학습 파라미터 설정부(220)가 파라미터를 결정하고, 이에 따라 막장면 자동 분석 시스템을 구축하는 단계; 및 (B) 입력부(310)에 막장면 이미지 정보가 입력되면, 추론부(330)가 상기 막장면 자동 분석 시스템을 이용하여 분석 정보를 추론하고, 출력부(350)가 이를 출력하는 단계를 포함하는, 방법을 제공한다.According to an embodiment of the present invention for solving the above problems, learning is performed using the last scene image information as an input layer and analysis information digital face mapping (DFM) to the last scene image information as an output layer. As a method of automatically outputting analysis information on the input film image information through the used film scene automatic analysis system,-Here, the analysis information includes information on carcinoma, information on rock quality, and information on joints. -(A1) The learning curtain image information input unit 110 loads the learning curtain image information prepared in advance for learning, and the learning analysis information input unit 120 loads the learning analysis information corresponding to the curtain surface image information, Setting learning information by mapping the loaded learning curtain image information and learning analysis information; (A2) the learning information dividing unit 130 generating a plurality of divided learning information for each piece of learning information by cropping the learning information as a preset unit; (A3) the format conversion unit 210 loading the plurality of divided learning information and converting the information into a learning format; (A4) The learning performing unit 230 uses the plurality of divided learning information converted in the format, but converts the learning rate and the training step for a predetermined number of times, while a plurality of meetings for each divided learning information Performing learning; (A5) By performing all of the steps (A1) to (A4) on a plurality of learning curtain image information, the learning parameter setting unit 220 determines the parameter so that the amount of calculation is minimized, and accordingly Building an analysis system; And (B) when the last scene image information is input to the input unit 310, the reasoning unit 330 infers the analysis information using the automatic analysis system for the last scene, and the output unit 350 outputs it. To do, provide a way.

또한, 상기 (A5) 단계에서 결정되는 파라미터는, 최적화 파라미터(optimizer parameter)와 학습 파라미터(learning parameter)인 것이 바람직하다.In addition, it is preferable that the parameters determined in step (A5) are an optimizer parameter and a learning parameter.

또한, 상기 최적화 파라미터는 옵티마이저(Optimizer)를 포함하며, 상기 (A5) 단계에서 결정된 옵티마이저 파라미터는 RMSProp인 것이 바람직하다.In addition, it is preferable that the optimization parameter includes an optimizer, and the optimizer parameter determined in step (A5) is RMSProp.

또한, 상기 최적화 파라미터는 weight_decay, Optimizer, opt_epsilon, rmsprop_momentum, 및 rmsprop_decay를 포함하며, 상기 학습 파라미터는 learning_rate, max_number_of_steps, learning_rate_decay_type, num_epochs_per_decay, replicas_to_aggregate, 및 moving_average_decay를 포함하는 것이 바람직하다.In addition, the optimization parameters include weight_decay, Optimizer, opt_epsilon, rmsprop_momentum, and rmsprop_decay, and the learning parameters preferably include learning_rate, max_number_of_steps, learning_rate_decay_type, num_epochs_per_decay, replicas_to_aggregate, and moving_average_decay.

또한, 상기 (B) 단계 이후, (C) 사용자 수정 모듈(400)이 상기 (B) 단계에서 출력된 분석 정보를 수정하는 단계; 및 (D) 학습 정보 추가 모듈(500)이 상기 (C) 단계에서 수정된 분석 정보와 이에 해당하는 막장면 이미지 정보를 학습용 분석 정보 입력부(120) 및 학습용 막장면 이미지 정보 입력부(110)에 각각 입력하는 단계를 더 포함하는 것이 바람직하다.In addition, after the step (B), (C) the user modification module 400 correcting the analysis information output in the step (B); And (D) the learning information adding module 500 transmits the analysis information modified in step (C) and the corresponding scene image information to the learning analysis information input unit 120 and the learning curtain image information input unit 110, respectively. It is preferable to further include the step of inputting.

본 발명은 다음과 같은 장점이 갖는다. The present invention has the following advantages.

첫째, 비전문가에 의해서도 높은 정확도의 분석 정보 확인이 가능하다. 학습을 통해 높은 정확도로 막장 정보가 분석된다. 후술하겠지만, 인공 지능을 이용한 종래 기술에 따른 정확도는 30 내지 40%에 불과하였으나, 본 발명에 따라 실재 구현된 실시예에서 70% 이상의 정확도를 검증하였다. 전문가에 의해 검증된 다수의 훈련 세트를 활용하고, 실재 사용자 사용시 확인 결과가 학습 정보로서 재활용되어 해당 정확도를 더욱 상승시킬 수도 있다. First, it is possible to check analysis information with high accuracy even by non-experts. Through learning, the last information is analyzed with high accuracy. As will be described later, the accuracy according to the prior art using artificial intelligence was only 30 to 40%, but an accuracy of 70% or more was verified in an embodiment actually implemented according to the present invention. A number of training sets verified by experts may be used, and the verification result may be reused as learning information when using an actual user, thereby further increasing the accuracy.

둘째, 분석이 신속하다. 다음 단계의 장약, 발파, 환기 등을 진행하기 위해 15분 안에 막장면 분석이 완료되어야 함은 전술한 바와 같다. 인공 지능을 이용한 이유 중 하나도 이러한 신속한 분석을 위함이나, 종래 기술에서는 인공 지능 및 추론 자체의 연산량이 많아 이를 구현하기 어려웠다. 본 발명은 다양한 방식으로 신속한 분석이 가능하도록 구현하였다. 이미지를 분할하여 학습하고, 워터쉐드 기법을 활용하고, 인셉션 알고리즘을 수정하여 활용하고, 최적의 파라미터 설정함으로써 신속한 연산을 구현하였다. Second, the analysis is quick. As described above, the analysis of the scene should be completed within 15 minutes to proceed with the next stage of charging, blasting, and ventilation. One of the reasons for using artificial intelligence is for such rapid analysis, but in the prior art, it has been difficult to implement due to the large amount of computation of artificial intelligence and inference itself. The present invention has been implemented to enable rapid analysis in various ways. By segmenting and learning the image, using the watershed method, modifying and using the inception algorithm, and setting the optimal parameters, we implemented rapid computation.

셋째, 사용자 수정이 자유롭다. 인공 지능에 의해 1차 분석 결과가 제공되지만, 현장에 있는 전문가는 이를 확인하면서 자유롭게 수정할 수 있다. 다각형으로 표현되는 암종 및 암질과 선분으로 표현되는 절리의 자유로운 이동을 위해 노드 방식을 채택하여, 사용자가 직관적으로 수정이 가능하게 하였으며, 이는 최종 분석 결과 도출에 소요되는 시간을 더욱 감소시킨다. Third, user modification is free. The results of the primary analysis are provided by artificial intelligence, but experts in the field can freely modify them while checking them. By adopting a node method for free movement of carcinomas represented by polygons and joints represented by rock formations and line segments, users can intuitively modify them, which further reduces the time required for deriving the final analysis result.

추가로, RQD(암질지수)가 자동으로 연산되고, 레포트 형식의 출력이 가능하며, 절리 주향 경사 및 절리 보정 점수를 입력할 수 있는 사용자 인터페이스를 제공한다. In addition, RQD (rock quality index) is automatically calculated, report format output is possible, and a user interface is provided to input joint strike slope and joint correction points.

대형이거나 고가이거나 유지 관리가 어려운 별도의 장비를 현장에 준비시킬 필요가 없다. 카메라와 통신 기능이 있는 정보처리기기(예를 들어, 핸드폰, 태블릿, 노특북 등) 1대만 현장에 구비되면 충분히 본 발명에 따른 방법 수행이 가능하다.There is no need to prepare separate equipment on site that is large, expensive, or difficult to maintain. If only one information processing device (for example, a mobile phone, a tablet, a special book, etc.) having a camera and a communication function is provided in the field, it is possible to sufficiently perform the method according to the present invention.

도 1은 본 발명에 따른 방법을 수행하기 위한 시스템을 개략적으로 도시한다.
도 2는 본 발명에 따른 방법을 수행하는 순서도를 도시한다.
도 3은 학습용 막장면 이미지 정보와 학습용 분석 정보의 예를 도시한다.
도 4 및 도 5는 학습 정보의 분할 방법의 예시를 도시한다.
도 6은 본 발명에 사용된 학습 방법의 네트워크를 예시적으로 도시한다.
도 7은 본 발명에서 막장면 이미지 정보의 수정 방법의 예시를 도시한다.
도 8은 본 발명에서 막장면 이미지 정보의 수정에 사용되는 워터쉐드 기법의 예시를 도시한다.
도 9a 내지 도 9c는 본 발명에 사용되는 캐니 엣지 디텍션 기법의 예시를 도시한다.
도 10은 본 발명에 따라 추론된 결과물인 분석 정보가 출력되는 예시를 도시한다.
도 11은 본 발명에서 사용되는 다양한 RQD 조사선 중심 수정 방법의 예시를 도시한다.
도 12는 본 발명에서 사용자에 의한 절리 수정 방법의 예시를 도시한다.
도 13은 본 발명에서 사용자에 의한 절리 주향 경사와 절리 보정 점수가 입력되는 예시를 도시한다.
도 14는 본 발명에서 사용자에 의한 다각형 수정 방법의 예시를 도시한다.
1 schematically shows a system for carrying out the method according to the invention.
2 shows a flow chart for carrying out the method according to the invention.
3 shows an example of a curtain surface image information for learning and analysis information for learning.
4 and 5 illustrate examples of a method of dividing learning information.
6 exemplarily shows the network of the learning method used in the present invention.
7 shows an example of a method of correcting image information of a film scene in the present invention.
8 shows an example of a watershed technique used to correct image information of a film scene in the present invention.
9A to 9C illustrate examples of canny edge detection techniques used in the present invention.
10 shows an example in which analysis information, which is a result inferred according to the present invention, is output.
11 shows an example of various RQD radiation center correction methods used in the present invention.
12 shows an example of a joint correction method by a user in the present invention.
13 shows an example in which a joint strike slope and a joint correction score are input by a user in the present invention.
14 shows an example of a method for modifying a polygon by a user in the present invention.

이하에서, "학습(learning)"은 컴퓨터 등의 정보처리기기가 입력 정보를 입력층으로 인가하면 소정의 훈련을 거쳐 이에 해당하는 출력 정보를 자동으로 추론하여 출력층으로 이를 출력하는 알고리즘을 구축하기 위해 수행되는 데이터 처리 기법을 의미하며 인공 지능의 일종이다. 기계 학습(machine learning)이 포함될 수 있다. 학습은 입력층과 출력층이 결정된 다수의 훈련 세트(training set)를 이용한 훈련(train)으로 이루어진다. 학습은 소정의 알고리즘을 이용하여 정보처리기기가 주체가 되어 수행되는 것이며, 다수의 학습 수행이 이루어져서 알고리즘이 구축되면, 이후 사용자에 의해 입력된 정보에 따라 정해진 방식으로 추론을 자동으로 수행할 수 있게 된다. 여기에 사용되는 알고리즘은 다양할 수 있다. 아래에서는 사용되는 학습 알고리즘으로서 인셉션(inception)이 예시적으로 제안된다. In the following, "learning" is to build an algorithm that automatically infers output information corresponding to the input information through a predetermined training when an information processing device such as a computer applies input information to the input layer and outputs it to the output layer. It refers to the data processing technique performed and is a kind of artificial intelligence. Machine learning may be included. Learning consists of training using a plurality of training sets in which the input layer and the output layer are determined. Learning is performed by the information processing device as the subject using a predetermined algorithm, and when the algorithm is established by performing a number of learning, it is possible to automatically perform inference in a predetermined manner according to the information input by the user. do. The algorithms used here can vary. Below, inception is proposed as an example of a learning algorithm to be used.

이하에서, "디지털 페이스 매핑(DFM; digital face mapping)"은 촬영된 이미지 상에 디지털화된 정보를 매핑함을 의미한다. 본 발명에 따른 DFM에 의해, 카메라 등으로 사용자가 촬영한 막장면 이미지 상에 암종, 암질, 절리 등에 대한 정보가 디지털 매핑된다. 다시 말해, 사용자가 본 발명에 따른 방법을 이용하여 막장면 이미지를 입력하면 분석 정보가 자동으로 추론되고 이미지에 중첩되어 출력되는데, 이러한 분석 결과가 DFM 결과이다. 도 10 상단과 같이 절리가 선분으로 도시되거나, 도 10 하단과 같이 암종(예를 들어, 화강암 등)과 암질(예를 들어, 심한 풍화 등)의 구역이 구분되어 도시될 수 있다. Hereinafter, "digital face mapping (DFM)" means mapping digitized information on a photographed image. By the DFM according to the present invention, information on carcinoma, rock quality, joints, etc. is digitally mapped on a film scene image taken by a user with a camera or the like. In other words, when the user inputs the last scene image using the method according to the present invention, the analysis information is automatically inferred and superimposed on the image to be output, and the analysis result is the DFM result. As shown in the upper part of FIG. 10, a joint may be shown as a line segment, or as shown in the lower part of FIG. 10, a zone of carcinoma (eg, granite, etc.) and rock quality (eg, severe weathering) may be divided.

시스템의 설명Description of the system

본 방법은, 막장면 이미지 정보를 입력층으로 하고 상기 막장면 이미지 정보에 디지털 페이스 매핑되는 분석 정보를 출력층으로 하는 학습을 이용한 막장면 자동 분석 시스템을 통해, 입력된 막장면 이미지 정보에 대한 분석 정보를 자동으로 출력하는 방법에 관한 것이다. 여기서, 분석 정보는 암종에 대한 정보, 암질에 대한 정보 및 절리에 대한 정보를 포함한다.The present method includes analysis information on the input image information of the last scene through an automatic analysis system using learning that uses the image information of the last scene as an input layer and the analysis information digitally mapped to the image information of the last scene as an output layer. It relates to a method of automatically outputting. Here, the analysis information includes information on carcinoma, information on cancer, and information on joints.

도 1을 참조하여 본 발명에 따른 방법을 수행하기 위한 막장면 자동 분석 시스템을 설명한다.A system for automatically analyzing a film scene for performing the method according to the present invention will be described with reference to FIG. 1.

본 발명에 따른 방법이 수행되는 시스템은, 학습 정보를 생성하는 학습 정보 생성 모듈(100); 학습 정보를 기반으로 학습을 수행하여 막장면 자동 분석 시스템을 구축하는 학습 모듈(200); 구축된 막장면 자동 분석 시스템을 기반으로 사용자에 의해 입력된 막장면 이미지를 분석하여 암종, 암질, 절리 등의 정보를 자동으로 추론하여 출력하는 DFM 모듈(300); 추론된 분석 정보를 기반으로 사용자가 수정할 수 있는 기능을 제공하는 사용자 수정 모듈(400); 및 최종 수정된 분석 정보와 막장면 이미지 정보를 다시 학습 정보로 변환하여 학습이 가능하도록 하는 학습 정보 추가 모듈(500)을 포함한다. The system in which the method according to the present invention is performed includes: a learning information generation module 100 for generating learning information; A learning module 200 for constructing an automatic analysis system for the last scene by performing learning based on the learning information; A DFM module 300 for automatically inferring and outputting information such as carcinoma, rock quality, joints, etc. by analyzing the image of the film input by the user based on the built automatic analysis system for the film; A user modification module 400 that provides a function that can be modified by a user based on the inferred analysis information; And a learning information adding module 500 that converts the finally modified analysis information and the last scene image information into learning information to enable learning.

학습 정보 생성 모듈(100)은, 학습용 막장면 이미지 정보 입력부(110), 학습용 분석 정보 입력부(120), 학습 정보 분할부(130) 및 학습 정보 데이터베이스(190)를 포함한다. The learning information generation module 100 includes an image information input unit 110 for learning the last scene, an analysis information input unit 120 for learning, a learning information division unit 130 and a learning information database 190.

학습 모듈(200)은, 포맷 변환부(210), 학습 파라미터 설정부(220), 학습 수행부(230), 및 유효성 검증부(240)을 포함한다. The learning module 200 includes a format conversion unit 210, a learning parameter setting unit 220, a learning execution unit 230, and a validity verification unit 240.

DFM 모듈(300)은 입력부(310), 이미지 수정부(320). 추론부(330), 절리 추출부(340), 출력부(350), RQD 계산부(360), 및 DFM 데이터베이스(390)를 포함한다.The DFM module 300 includes an input unit 310 and an image correction unit 320. An inference unit 330, a joint extraction unit 340, an output unit 350, an RQD calculation unit 360, and a DFM database 390 are included.

각각의 기능은 아래에서 보다 상세히 설명한다. Each function is described in more detail below.

학습 정보 준비Preparing learning information

도 2를 더 참조하여 본 발명에 따른 방법을 수행하기 위해 학습 정보를 준비하는 방법을 설명한다. A method of preparing learning information to perform the method according to the present invention will be described with further reference to FIG. 2.

입력층인 학습용 막장면 이미지 정보와 이를 분석한 출력층인 학습용 분석 정보를 준비한다. 학습용 분석 정보는 전문가에 의해 검증된 정보인 것이 바람직하다. 학습용 막장면 이미지 정보와 학습용 분석 정보는 서로 매핑되어 있다. Prepare the input layer, the learning scene image information, and the output layer, the analysis information, for learning. It is preferable that the analysis information for learning is information verified by an expert. The learning screen image information and the learning analysis information are mapped to each other.

학습용 막장면 이미지 정보와 이에 대응하는 학습용 분석 정보가 N개 준비되어 있다면, 그 중 일부(A개)는 학습에 사용하고 나머지(N-A개)는 검증에 사용한다(N>A). If there are N pieces of image information for the learning scene and N pieces of analysis information for learning corresponding thereto, some of them (A pieces) are used for learning and the rest (N-A pieces) are used for verification (N>A).

실재 구현 시스템에서 1000개의 학습용 막장면 이미지 정보 중 900개를 학습에 사용하였고, 나머지 100개가 검증에 사용하였다. In the actual implementation system, 900 of the 1000 learning screen image information were used for learning, and the remaining 100 were used for verification.

학습용 막장면 이미지 정보 입력부(110)가 학습용으로 미리 준비된 학습용 막장면 이미지 정보를 로딩하고, 학습용 분석 정보 입력부(120)가 상기 막장면 이미지 정보에 대응되는 학습용 분석 정보를 로딩한다. 이와 같이 준비된 학습용 막장면 이미지 정보와 학습용 분석 정보를 학습 정보로 지칭한다(도 3). The learning curtain image information input unit 110 loads the learning curtain image information prepared in advance for learning, and the learning analysis information input unit 120 loads the learning analysis information corresponding to the last scene image information. The image information of the curtain for learning and the analysis information for learning prepared in this way are referred to as learning information (FIG. 3).

이를 그대로 학습하는 것이 아니라 분할하여 학습하는 것이 중요하다. 연산량을 감소시켜 많은 학습 정보를 신속하게 학습하기 위함이다. 이를 위해, 학습 정보 분할부(130)가, 준비된 학습 정보를 기 설정된 단위로서 분할(cropping)하여 하나의 막장면 이미지 정보마다 다수의 분할 학습 정보를 생성한다. It is important not to learn it as it is, but to learn it by dividing it. It is to quickly learn a lot of learning information by reducing the amount of computation. To this end, the learning information dividing unit 130 generates a plurality of divided learning information for each of the last scene image information by cropping the prepared learning information as a preset unit.

실재 구현 시스템에서 픽셀 단위 30X30으로 분할하여 저장하였다(도 4). 학습 정보로서 다수의 막장면 이미지 정보와 이에 대응된 분석 정보를 매핑히여 획득하고 분할된 정보는 개별 파일로 학습 정보 데이터베이스(190)에 저장된다(도 5). In the actual implementation system, the pixel unit was divided into 30×30 and stored (FIG. 4). As learning information, a plurality of scene image information and analysis information corresponding thereto are obtained by mapping, and the divided information is stored in the learning information database 190 as individual files (FIG. 5).

학습 방법Learning method

학습 모듈(200)은 학습 정보 생성 모듈(100)에서 준비된 분할 학습 정보를 이용하여 학습을 수행한다. The learning module 200 performs learning by using the divided learning information prepared by the learning information generating module 100.

먼저, 포맷 변환부(210)가 다수의 분할 학습 정보를 로딩하여 학습용 포맷으로 변환한다. First, the format conversion unit 210 loads a plurality of divided learning information and converts it into a learning format.

실재 구현 실시예에서, 텐서플로우(tensorflow)의 TF-Slim을 이용하여 학습을 진행할 수 있도록 학습 정보를 .tfrecord로 변환하였으며, 여기에는 막장면 이미지 정보에서 확인되는 이미지의 넓이, 높이, 깊이, 라벨(label), 로 이미지(image raw) 등이 포함된다. In an actual implementation embodiment, learning information was converted to .tfrecord so that learning can proceed using TF-Slim of tensorflow, including the width, height, depth, and label of the image identified in the last scene image information. (label), image raw, etc.

다음, 학습 수행부(230)가, 상기 포맷 변환된 다수의 분할 학습 정보를 이용하되 학습률(learning rate)과 훈련 단계(train step)를 기 설정된 수회 동안 변환하면서 하나의 분할 학습 정보마다 다수 회의 학습을 수행한다. 이 과정에서 학습 파라미터 설정부(220)는 연산량이 최소가 되도록 최적의 파라미터를 설정할 수 있다. 최적의 파라미터는 아래에서 후술한다. Next, the learning performing unit 230 uses the format-converted plurality of divided learning information, but converts the learning rate and training step for a predetermined number of times, while learning a plurality of times for each divided learning information. Perform. In this process, the learning parameter setting unit 220 may set an optimal parameter so that the amount of calculation is minimized. Optimal parameters will be described later.

이러한 과정으로 하나의 분할 학습 정보마다 수 회의 학습이 수행되고, 분할 학습 정보 다수 개가 모인 학습 정보 각각에 대하여서도 수 회의 학습이 수행된다. Through this process, several times of learning are performed for each piece of divided learning information, and several times of learning are also performed on each of the learning information in which a plurality of pieces of divided learning information are collected.

실재 구현 실시예에서 학습 수행부(230)가 이용한 학습 방법은 인셉션(Inception)이다. 딥러닝(deep learning) 네트워크는 깊고 층(layer)이 넓을수록 성능이 좋아지지만 연산량 역시 지수적으로 증가하기에 본 발명과 같은 막장면 분석을 위한 학습 진행에 적합하지 않다. 인셉션은 연산량 감소를 위하여 노드 사이의 연결은 줄이고 행렬 연산은 dense 연산이 되도록 한다. 본 발명과 같은 막장면 이미지 분석의 특수성(이미지 자체의 크기는 넓고, 암종 및 암질의 경계 파악이 중요하며, 절리와 같은 선분 구분이 중요한 특성)을 고려하여 인셉션 알고리즘을 채택한 것이다. In an actual implementation embodiment, the learning method used by the learning execution unit 230 is Inception. A deep learning network has better performance as the deeper and wider the layer is, but the computational amount also increases exponentially, so it is not suitable for the learning process for the analysis of the last scene as in the present invention. Inception reduces the connection between nodes and makes the matrix operation denser to reduce the amount of computation. The inception algorithm was adopted in consideration of the peculiarity of analyzing the film scene image as in the present invention (the size of the image itself is wide, the boundary between carcinoma and cancer is important, and line segment classification such as joints is important).

인셉션은 1X1 컨벌루션 연산으로 이미지 채널을 줄여 3X3 및 5X5 컨벌루션 층의 파라미터 개수를 줄이는 방식이다. 이에 따라 CNN(Convolutional Neural Networks)보다 깊은 네트워크를 구성하면서도 파라미터가 줄어들어 연산량이 감소하게 된다. Inception is a method of reducing the number of parameters of the 3X3 and 5X5 convolution layers by reducing the image channel through a 1X1 convolution operation. Accordingly, while configuring a deeper network than CNN (Convolutional Neural Networks), the number of parameters is reduced and the computational amount is reduced.

구체적으로, 일반적인 인셉션에서는, 이전 층(previous layer)에 대하여 (1) 1X1 컨벌루션, (2) 1X1 컨벌루션과 3X3 컨벌루션, (3) 1X1 컨벌루션과 5X5 컨벌루션 및 (4) 3X3 맥스풀링(max pooling)과 1X1 컨불루션의 4가지 종류의 연산을 수행하고 하나로 합쳐 학습을 진행한다. Specifically, in general inception, (1) 1X1 convolution, (2) 1X1 convolution and 3X3 convolution, (3) 1X1 convolution and 5X5 convolution, and (4) 3X3 max pooling for the previous layer. And 1X1 convolutions, four types of operations are performed, and they are combined into one to proceed with learning.

본 발명은 인셉션을 사용하면서도, 첫 번째 층(stem layer)에서 7X7 컨벌루션 연산을 수행하여야 하는 것을 3x3 컨벌루션 3회 연산으로 대체하였고, 옵티마이저(Optimizer)를 RMSProp으로 설정하였고, 마지막 층(fully connected layer)에 batch normalization(BN)을 적용하였다. 여기에 추가하여 커널을 개선하여 연산량 및 시간을 더욱 감소시키고자 Factorization을 적용하여, 5X5 컨벌루션 연산 1회 대신 3X3 컨벌루션 연산을 2회 수행하고, 3X3 컨벌루션 1회 대신 3X1 컨벌루션 연산 2회 수행함으로써 커널을 개선하였다. 그 결과 약 2.78배의 연산량 감소를 이루어진 것을 확인하였다. 도 6은 이러한 방식으로 사용된 네트워크를 개략적으로 도시한다. In the present invention, while using inception, the need to perform a 7X7 convolution operation in the first layer was replaced with a 3x3 convolution operation three times, and the optimizer was set to RMSProp, and the last layer (fully connected) layer) was applied batch normalization (BN). In addition to this, the kernel was improved by applying factorization to further reduce the amount of computation and time by improving the kernel, performing 2 3X3 convolution operations instead of 1 5X5 convolution operation, and 2 3X1 convolution operations instead of 1 3X3 convolution. Improved. As a result, it was confirmed that the amount of computation was reduced by about 2.78 times. 6 schematically shows a network used in this way.

한편, 학습률과 훈련 단계를 변환하면서 학습을 수행한 결과에 따라 학습 파라미터 설정부(220)가 최종 파라미터를 설정한다. 여기서 설정되는 파라미터는 최적화 파라미터와 학습 파라미터로 구분할 수 있다. Meanwhile, the learning parameter setting unit 220 sets the final parameter according to the result of performing the learning while converting the learning rate and the training step. The parameters set here can be classified into an optimization parameter and a learning parameter.

최적화 파라미터(optimizer parameter)로 weight_decay, Optimizer, opt_epsilon, rmsprop_momentum, rmsprop_decay 등을 들 수 있다. Examples of optimization parameters include weight_decay, optimizer, opt_epsilon, rmsprop_momentum, and rmsprop_decay.

weight_decay는 모델의 손실 함수를 최적화하기 위한 가중치를 의미한다. 여기에서 최적화 결과에 따라 0.00004로 설정하였다. weight_decay means a weight for optimizing the model's loss function. Here, it was set to 0.00004 according to the optimization result.

opt_epsilon은 계산 값이 0이 되는 경우를 방지하기 위한 가장 작은 값이다. 여기에서 최적화 결과에 따라 1로 설정하였다. opt_epsilon is the smallest value to prevent a case where the calculated value becomes 0. Here, it was set to 1 according to the optimization result.

rmsprop_momentum는 RMSPropOptimizer의 momentum(운동량) 값이다. 여기에서 최적화 결과에 따라 0.9로 설정하였다. rmsprop_momentum is the momentum value of RMSPropOptimizer. Here, it was set to 0.9 according to the optimization result.

rmsprop_decay은 업데이트 마다 적용되는 확률의 감소율이다. 여기에서 최적화 결과에 따라 0.9로 설정하였다. rmsprop_decay is the rate of decrease of the probability applied for each update. Here, it was set to 0.9 according to the optimization result.

학습 파라미터(learning parameter)로 learning_rate, max_number_of_steps, learning_rate_decay_type, num_epochs_per_decay, replicas_to_aggregate, moving_average_decay 등을 들 수 있다. Learning parameters include learning_rate, max_number_of_steps, learning_rate_decay_type, num_epochs_per_decay, replicas_to_aggregate, moving_average_decay, and the like.

learning_rate는 초기 학습 속도이다. 여기에서 최적화 결과에 따라 0.0001로 설정하였다. learning_rate is the initial learning rate. Here, it was set to 0.0001 according to the optimization result.

max_number_of_steps는 최대 훈련 단계 수이다. 여기에서 최적화 결과에 따라 1000로 설정하였다. max_number_of_steps is the maximum number of training steps. Here, it was set to 1000 according to the optimization result.

여기서, learning_rate와 max_number_of_steps은 주요 파라미터이다. 적합한 학습 속도와 학습 단계를 찾기 위하여 learning_rate를 0.0001, 0.001, 0.01, 0.1로 변경하면서 학습을 진행하였으며, max_number_of_steps의 경우는 1,000 ~ 10,000(1,000씩 증가) 변경하면서 학습을 진행하였다.Here, learning_rate and max_number_of_steps are the main parameters. In order to find an appropriate learning speed and learning step, learning was performed by changing the learning_rate to 0.0001, 0.001, 0.01, and 0.1, and in the case of max_number_of_steps, learning was conducted while changing 1,000 to 10,000 (increases by 1,000).

learning_rate_decay_type는 학습 속도를 감소하는 방법을 지정하는 파라미터이다. fixed, exponential, polynomial 등을 들 수 있다. 여기에서 최적화 결과에 따라 fixed로 설정하였다. learning_rate_decay_type is a parameter that specifies how to decrease the learning rate. Examples include fixed, exponential, and polynomial. Here, it was set to fixed according to the optimization result.

num_epochs_per_decay는 학습 속도가 감소한 이후의 에포크 수이다. 여기에서 최적화 결과에 따라 2로 설정하였다. num_epochs_per_decay is the number of epochs after the learning rate decreases. Here, it was set to 2 according to the optimization result.

replicas_to_aggregate는 매개 변수를 업데이트하기 전에 수집할 그라디언트 수이다. 여기에서 최적화 결과에 따라 1로 설정하였다. replicas_to_aggregate is the number of gradients to collect before updating parameters. Here, it was set to 1 according to the optimization result.

moving_average_decay는 이동 평균에 사용되는 감소 속도이다. 여기에서 최적화 결과에 따라 None으로 설정하였다. moving_average_decay is the decay rate used for the moving average. Here, it was set to None according to the optimization result.

이러한 방식으로 하나의 학습용 막장면 이미지 정보에서의 분할 학습 정보마다 수 회의 학습이 수행되고, 이러한 학습을 다수의 학습용 막장면 이미지 정보에 대하여 수행함으로써 막장면 자동 분석 시스템을 구축하게 된다. In this way, learning is performed several times for each divided learning information in one learning curtain image information, and this learning is performed on a plurality of learning curtain image information, thereby constructing an automatic analysis system for the curtain.

유효성 검증부(240)가 준비된 학습 정보 중 사용하지 않은 다른 막장면 이미지 정보를 이용하여 유효성을 검증(validation)함으로써 구축된 시스템을 확인한다. The validation unit 240 checks the constructed system by validating the validity of the prepared learning information using other unused last scene image information.

실재 구현 실시예에서 확인한 결과 70% 이상의 정확도를 확인하여 비교적 정확도가 높음을 확인하였다. 인셉션이 아닌 다른 학습 알고리즘을 사용한 경우와 비교하여 큰 차이를 나타냈다. As a result of checking in the actual implementation example, it was confirmed that the accuracy was relatively high by confirming an accuracy of 70% or more. It showed a big difference compared to the case of using a learning algorithm other than inception.

학습 알고리즘Learning algorithm 정확도accuracy Softmax classificationSoftmax classification 30.6%30.6% SVMSVM 47.8%47.8% 인셉션Inception 66.8%66.8% 인셉션(실재 적용)Inception (actual application) 71.8%71.8%

DFM를 이용한 분석 정보 획득 Acquisition of analysis information using DFM

이제 사용자는 구축된 막장면 자동 분석 시스템을 이용하여, 막장면 이미지 정보를 입력함으로써 암종, 암질, 절리 등 분석 정보를 자동으로 획득할 수 있다. Now, users can automatically acquire analysis information such as carcinoma, rock quality, joints, etc. by entering the image information of the curtain using the established automatic analysis system for the curtain.

먼저, 입력부(310)에 막장면 이미지 정보가 입력된다. 사용자는 통신 기능과 카메라가 구비된 정보처리기기를 사용하면서, 직접 카메라로 촬영하여 막장면 이미지 정보를 획득하고 입력할 수도 있으며, 또는 정보처리기기 내 메모리에 저장된 이미지를 선택하여 입력부(310)를 통해 입력할 수도 있다. 현장에서는 정보처리기기만 있으면 족한 것이며, 별도의 장비가 필요하지 않다. First, image information of the last scene is input to the input unit 310. While using an information processing device equipped with a communication function and a camera, the user may directly shoot with a camera to obtain and input the last scene image information, or select an image stored in the memory in the information processing device to input the input unit 310. You can also enter it through. In the field, it is enough to have an information processing device, and no separate equipment is required.

이미지 수정부(320)는 입력될 이미지를 몇 가지 방법으로 수정한다.The image correction unit 320 corrects the image to be input in several ways.

사용자가 직접 촬영한 입력 이미지는 막장면 뿐만 아니라 주변 벽체 등 경계오브젝트에 대한 정보를 더 포함하게 되는데(도 7의 좌하단 참조), 본 발명은 막장면에 대한 이미지를 추출하는 수정 기능을 제공한다. 즉, 이미지가 입력되고(도 7의 상단) 이미지 수정부(320)에 의해 입력된 막장면 이미지 정보 상에서 터널 경계면 노드가 입력될 수 있으며(도 7의 좌하단), 입력된 터널 경계면 노드가 연결되고, 연결된 면적만 추출됨으로써(도 7의 우하단), 막장면 이미지 정보가 수정된다. 종래 기술에서 대부분 이미지에서 일부를 선택하는 방식이 아닌 이미지를 수정하는 방식을 선택하는데, 이 경우 이미지에 왜곡이 발생할 수 있으며, 막장면 분석에서의 왜곡은 다음 발파 공정에서 심각한 영향을 줄 수 있기에, 본 발명은 노드에 의한 면적 추출 방식을 선택한 것이다. The input image taken directly by the user further includes information on boundary objects such as the surrounding wall as well as the curtain surface (refer to the lower left corner of Fig. 7), and the present invention provides a correction function for extracting the image on the curtain surface. . That is, an image is input (top of Fig. 7) and a tunnel boundary node can be input on the last scene image information input by the image correction unit 320 (bottom left of Fig. 7), and the input tunnel boundary node is connected. And, by extracting only the connected area (bottom right of Fig. 7), the image information of the curtain is corrected. In the prior art, most of the images select a method of modifying the image rather than a method of selecting a part of the image. In the present invention, an area extraction method by nodes is selected.

또한, 도 8과 같이 이미지 수정부(320)가 워터쉐드(watershed) 기법을 이용하여 입력된 막장면 이미지 정보를 다수의 영역으로 분할할 수 있다. 이는 입력층으로서 입력된 막장면 이미지 정보 입력시 연산량을 줄여서 후술하는 추론부(330)에서 신속한 연산 및 추론이 가능하게 한다. 종래 기술에서 설명한 바와 같이, 막장면 이미지 분석에 있어서 신속성은 매우 중요하다. In addition, as shown in FIG. 8, the image correction unit 320 may divide the inputted scene image information into a plurality of regions using a watershed technique. This reduces the amount of computation when inputting the last scene image information input as an input layer, thereby enabling rapid computation and inference in the inference unit 330 to be described later. As described in the prior art, speed is very important in analyzing the film scene image.

다음, 추론부(330)가 분할된 영역별로 구축된 시스템을 이용해서 분석 정보를 추론하고, 분석 정보를 통합하여 입력된 막장면 이미지 정보에 대한 상기 디지털 페이스 매핑된 분석 정보를 추론한다. 즉, 추론부(330)는 막장면 이미지 정보를 구축된 막장면 자동 분석 시스템의 입력층으로 입력하고, 인공 지능에 의한 출력층을 확인하면 이를 분석 정보로 추론하는 것이다. Next, the reasoning unit 330 infers the analysis information using a system constructed for each divided area, and infers the digital face-mapped analysis information for the inputted scene image information by integrating the analysis information. That is, the inference unit 330 inputs the last scene image information as an input layer of the constructed automatic analysis system for the last scene, and when the output layer by artificial intelligence is checked, it infers this as analysis information.

한편, 본 발명의 다른 실시예에서, 절리 추출이 별도로 이루어질 수 있다. 절리 추출부(340)가 캐니 엣지 디텍션(canny edge detection) 기법을 이용하여 입력된 막장면 이미지 정보에서 선분을 추출한다(도 9a). 다음, 절리 추출부(340)가, 추출된 선분마다 기 설정된 소정의 테스트를 수행하여 노이즈를 제거할 수 있으며(도 9b), 또한, 선분의 길이가 기 설정된 픽셀값 이하인 경우 추출 결과에서 제거할 수도 있다(도 9c). 이제, 남은 선분들이 절리로서 출력될 것이다. Meanwhile, in another embodiment of the present invention, joint extraction may be performed separately. The joint extraction unit 340 extracts a line segment from the input film image information using a canny edge detection technique (FIG. 9A). Next, the joint extraction unit 340 may remove noise by performing a predetermined test for each extracted line segment (FIG. 9B), and if the length of the line segment is less than a preset pixel value, it will be removed from the extraction result. It may be possible (Fig. 9c). Now, the remaining line segments will be output as joints.

이와 같은 과정으로 모든 분석 정보가 정리되면, 출력부(350)는 분석 정보를 결과물로서 출력한다(도 10). 이와 같은 방식의 결과물은 DFM 데이터베이스(390)에 저장될 수 있으며, 후술하는 사용자 수정 과정을 거칠 수 있고, 학습 정보로서 다시 활용되어 정확도를 상승시킬 수 있다. 도 10의 우하단과 같이 레포트 형식으로 출력될 수도 있다. When all the analysis information is arranged through this process, the output unit 350 outputs the analysis information as a result (FIG. 10). The result of this method may be stored in the DFM database 390, may undergo a user modification process to be described later, and may be reused as learning information to increase accuracy. It may be output in a report format as shown in the lower right corner of FIG. 10.

본 발명의 다른 실시예에서, RQD(rock quality designation; 암질지수)가 계산되어 더 출력될 수 있다. RQD 계산은 널리 알려진 어떠한 방법을 수행하여도 가능하나, 중요한 것은 RQD 조사선 중심을 자동으로 설정하는 것이다. 즉, RQD 계산부(360)가 RQD 조사선 중심을 설정하는 단계와, RQD 조사선 중심을 이용하여 RQD를 계산하여 출력하는 단계를 포함하게 된다. In another embodiment of the present invention, rock quality designation (RQD) may be calculated and further output. RQD calculation can be performed by any widely known method, but the important thing is to automatically set the center of the RQD radiation line. That is, the RQD calculation unit 360 includes a step of setting the center of the RQD radiation line, and a step of calculating and outputting the RQD by using the center of the RQD radiation line.

RQD 계산부(360)가, RQD 조사선 중심을 설정하는 방법으로, 본 발명은 네 개의 방법을 제공한다. 첫째, 분석 정보 중 절리를 구성하는 점들의 중심으로 RQD 조사선 중심을 설정할 수 있다(도 11의 좌상단). 둘째, 분석 정보 중 절리를 구성하는 선분들의 중심점의 중심으로 RQD 조사선 중심을 설정할 수 있다(도 11의 우상단). 즉, 밀집 지역을 중심으로 설정하는 것이다. 셋째, 분석 정보 중 절리를 구성하는 선분들 중에서 길이가 가장 긴 선분의 중심으로 RQD 조사선 중심을 설정할 수 있다(도 11의 좌하단). 넷째, 막장면 이미지 정보 상에서 설정된 다수의 수평 조사선 중에서, 분석 정보 중 절리와 가장 많이 교차하는 수평 조사선의 중심으로 RQD 조사선 중심을 설정할 수 있다(도 11의 우하단). As a method for the RQD calculation unit 360 to set the center of the RQD radiation, the present invention provides four methods. First, the center of the RQD radiation line may be set as the center of the points constituting the joint in the analysis information (upper left in FIG. 11). Second, it is possible to set the center of the RQD radiation line as the center of the center points of the line segments constituting the joint among the analysis information (top right of FIG. 11). In other words, it is set around the dense area. Third, the center of the RQD radiation line may be set as the center of the longest line segment among the line segments constituting the joint of the analysis information (lower left of FIG. 11). Fourth, it is possible to set the center of the RQD radiation line as the center of the horizontal radiation line that intersects the joint most among the plurality of horizontal radiation lines set on the film image information (bottom right of FIG. 11).

각각의 방법들은 막장면 상태와 현장 상황에 따라 필요할 수 있다. 따라서, 본 발명에서는, 이와 같은 방법들 모두가 자동으로 수행되거나, 또는 사용자가 특정 방법을 선택하여 수행될 수 있다. Each of these methods may be necessary depending on the conditions of the scene and the site situation. Accordingly, in the present invention, all of these methods may be performed automatically or may be performed by a user selecting a specific method.

사용자 수정 모듈User Modification Module

본 발명은 학습에 의한 분석 정보가 자동으로 출력된 이후, 이를 확인한 전문가가 암종, 암질, 절리 등을 수정할 수 있는 기능을 제공한다. 특히, 편의성 높은 직관적 방식을 채택하여 전문가가 신속하게 수정하고 분석 정보를 확정할 수 있도록 한다. 이를 위해, 사용자 수정 모듈(400)이, 출력부(350)가 자동으로 추론한 분석 정보를 토대로 사용자가 수정할 수 있는 기능을 제공한다. The present invention provides a function that allows an expert who checks the analysis information to be automatically outputted by learning to correct carcinoma, cancer, joints, and the like. In particular, it adopts an intuitive method with high convenience so that experts can quickly make corrections and confirm analysis information. To this end, the user modification module 400 provides a function that the user can modify based on the analysis information automatically inferred by the output unit 350.

출력부(350)는 절리를 선분으로서 출력하는데, 사용자 수정 모듈(400)이 상기 절리 상에 절리 노드를 추가하여 출력할 수 있다. 출력된 절리는 사용자 수정 모듈(400)에 의해 추가, 이동 및 삭제 가능하며, 출력된 절리 노드 역시 사용자 수정 모듈(400)에 의해 추가, 이동 및 삭제 가능하다. 절리 노드의 이동시 이동된 절리 노드가 포함된 절리 형태가 이에 따라 변경된다(도 12). 절리 주향 경사(도 13의 (A))와 절리 보정 점수가 추가로 입력될 수 있다(도 13의 (B)).The output unit 350 outputs the joint as a line segment, and the user modification module 400 may add and output a joint node on the joint. The output joint can be added, moved, and deleted by the user correction module 400, and the output joint node can also be added, moved, and deleted by the user correction module 400. When the joint node is moved, the joint shape including the moved joint node is changed accordingly (FIG. 12). Joint strike slope (FIG. 13(A)) and joint correction score may be additionally input (FIG. 13(B)).

또한, 출력부(350)는 암종 및 암질이 구분되는 영역을 다각형으로 출력하고 필요시 지하수 역시 다각형으로 구분하여 출력하는데, 사용자 수정 모듈(400)이 다각형의 모서리를 다각형 노드로서 추가하여 출력할 수 있다. 출력된 다각형 노드는 사용자 수정 모듈(400)에 의해 추가, 이동 및 삭제 가능하고, 다각형 노드의 이동시 이동된 다각형 노드가 포함된 다각형 형태가 이에 따라 변경된다(도 14).In addition, the output unit 350 outputs the area where carcinoma and rock quality are divided into polygons and, if necessary, divides the groundwater into polygons and outputs it. The user modification module 400 can add and output the polygonal corners as polygon nodes. have. The output polygon node can be added, moved, and deleted by the user modification module 400, and when the polygon node is moved, the polygon shape including the moved polygon node is changed accordingly (FIG. 14).

학습 정보 추가Add learning information

사용자 수정 과정을 걸쳐 전문가에 의해 보다 확실하게 수정된 분석 정보는 최초 학습시 활용된 학습용 막장면 이미지 정보와 함께 학습 정보로 활용될 수 있다. 특히, 사용자 수정 과정을 거친 것이므로 데이터 정확도가 우수한 훈련 세트가 이용되는 것이다. 이를 통해 분석 정확도가 상승한다.The analysis information that has been more reliably modified by an expert through the user modification process can be used as learning information together with information on the learning scene image used at the time of initial learning. In particular, since it has undergone a user modification process, a training set with excellent data accuracy is used. This increases the accuracy of the analysis.

학습 정보 추가 모듈(500)이 사용자에 의해 수정된 분석 정보와 이에 해당하는 막장면 이미지 정보를 학습용 분석 정보 입력부(120) 및 학습용 막장면 이미지 정보 입력부(110)에 각각 입력할 수 있으며, 입력된 정보는 전술한 단계를 거쳐 학습 정보로서 활용된다. The learning information addition module 500 may input the analysis information modified by the user and the corresponding scene image information into the analysis information input unit 120 for learning and the image information input unit 110 for learning, respectively. The information is used as learning information through the above-described steps.

이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.In the above, the present specification has been described with reference to the embodiments shown in the drawings so that those skilled in the art can easily understand and reproduce the present invention, but these are only exemplary, and those skilled in the art can use various modifications and equivalents from the embodiments of the present invention. It will be appreciated that examples are possible. Therefore, the scope of protection of the present invention should be determined by the claims.

100: 학습 정보 생성 모듈
110: 학습용 막장면 이미지 정보 입력부
120: 학습용 분석 정보 입력부
130: 학습 정보 분할부
190: 학습 정보 데이터베이스
200: 학습 모듈
210: 포맷 변환부
220: 학습 파라미터 설정부
230: 학습 수행부
240: 유효성 검증부
300: DFM 모듈
310: 입력부
320: 이미지 수정부
330: 추론부
340: 절리 추출부
350: 출력부
360: RQD 계산부
390: DFM 데이터베이스
400: 사용자 수정 모듈
500: 학습 정보 추가 모듈
100: learning information generation module
110: learning screen image information input unit
120: learning analysis information input unit
130: learning information division
190: learning information database
200: learning module
210: format conversion unit
220: learning parameter setting unit
230: Learning Execution Department
240: validation unit
300: DFM module
310: input
320: image correction
330: reasoning unit
340: joint extraction unit
350: output
360: RQD calculation unit
390: DFM database
400: user modification module
500: add learning information module

Claims (5)

막장면 이미지 정보를 입력층으로 하고 상기 막장면 이미지 정보에 디지털 페이스 매핑(DFM; digital face mapping)되는 분석 정보를 출력층으로 하는 학습을 이용한 막장면 자동 분석 시스템을 통해, 입력된 막장면 이미지 정보에 대한 분석 정보를 자동으로 출력하는 방법으로서, -여기서, 분석 정보는 암종에 대한 정보, 암질에 대한 정보 및 절리에 대한 정보를 포함함-
(A1) 학습용 막장면 이미지 정보 입력부(110)가 학습용으로 미리 준비된 학습용 막장면 이미지 정보를 로딩하고, 학습용 분석 정보 입력부(120)가 상기 막장면 이미지 정보에 대응되는 학습용 분석 정보를 로딩하고, 상기 로딩된 학습용 막장면 이미지 정보와 학습용 분석 정보를 매핑하여, 학습 정보를 설정하는 단계;
(A2) 학습 정보 분할부(130)가, 상기 학습 정보를 기 설정된 단위로서 분할(cropping)하여 하나의 학습 정보마다 다수의 분할 학습 정보를 생성하는 단계;
(A3) 포맷 변환부(210)가 상기 다수의 분할 학습 정보를 로딩하여 학습용 포맷으로 변환하는 단계;
(A4) 학습 수행부(230)가, 상기 포맷 변환된 다수의 분할 학습 정보를 이용하되 학습률(learning rate)과 훈련 단계(train step)를 기 설정된 수회 동안 변환하면서 하나의 분할 학습 정보마다 다수 회의 학습을 수행하는 단계;
(A5) 상기 (A1) 내지 (A4) 단계를, 다수의 학습용 막장면 이미지 정보에 대하여 모두 수행함으로써, 연산량이 최소가 되도록 학습 파라미터 설정부(220)가 파라미터를 결정하고, 이에 따라 막장면 자동 분석 시스템을 구축하는 단계; 및
(B) 입력부(310)에 막장면 이미지 정보가 입력되면, 추론부(330)가 상기 막장면 자동 분석 시스템을 이용하여 분석 정보를 추론하고, 출력부(350)가 이를 출력하는 단계를 포함하며,
상기 (B) 단계는,
상기 입력부(310)에 막장면 이미지 정보가 입력되는 단계;
이미지 수정부(320)가 워터쉐드(watershed) 기법을 이용하여 상기 입력된 막장면 이미지 정보를 다수의 영역으로 분할하는 단계;
상기 추론부(330)가, 상기 입력된 막장면 이미지 정보의 다수의 영역 각각을 입력층으로 하여, 상기 막장면 자동 분석 시스템을 통해 영역별 분석 정보를 추론하는 단계; 및
상기 추론부(330)가 상기 영역별 분석 정보를 통합하여 상기 입력된 막장면 이미지 정보에 대한 상기 디지털 페이스 매핑된 분석 정보를 추론하고, 상기 출력부(350)가 이를 출력하는 단계를 포함하는,
방법.
Through the automatic analysis system of the last scene using learning in which the image information of the last scene is used as an input layer and analysis information digital face mapping (DFM) is used as the output layer, the input image information of the last scene is As a method of automatically outputting the analysis information about -Here, the analysis information includes information on carcinoma, information on cancer, and information on joints-
(A1) The learning curtain image information input unit 110 loads the learning curtain image information prepared in advance for learning, the learning analysis information input unit 120 loads the learning analysis information corresponding to the curtain surface image information, and the Setting learning information by mapping the loaded learning curtain image information and learning analysis information;
(A2) generating, by the learning information dividing unit 130, a plurality of divided learning information for each piece of learning information by cropping the learning information as a preset unit;
(A3) the format conversion unit 210 loading the plurality of divided learning information and converting the information into a learning format;
(A4) The learning performing unit 230 uses the plurality of divided learning information converted in the format, but converts the learning rate and the training step for a predetermined number of times, while a plurality of meetings for each divided learning information Performing learning;
(A5) By performing all of the steps (A1) to (A4) on a plurality of learning last scene image information, the learning parameter setting unit 220 determines the parameter so that the amount of calculation is minimized, and accordingly, the last scene is automatically Building an analysis system; And
(B) when the last scene image information is input to the input unit 310, the reasoning unit 330 infers the analysis information using the automatic analysis system for the last scene, and the output unit 350 outputs it, ,
The step (B),
Inputting the image information of the last scene to the input unit 310;
Dividing the input film scene image information into a plurality of regions using a watershed technique by the image correction unit 320;
Inferring, by the reasoning unit 330, analysis information for each region through the automatic analysis system for the last scene, using each of the plurality of regions of the inputted last scene image information as an input layer; And
The inference unit 330 infers the digital face-mapped analysis information for the input film scene image information by integrating the analysis information for each region, and outputting the digital face-mapped analysis information by the output unit 350,
Way.
제 1 항에 있어서,
상기 (A5) 단계에서 결정되는 파라미터는, 최적화 파라미터(optimizer parameter)와 학습 파라미터(learning parameter)인,
방법.
The method of claim 1,
The parameters determined in step (A5) are an optimizer parameter and a learning parameter,
Way.
제 2 항에 있어서,
상기 최적화 파라미터는 옵티마이저(Optimizer)를 포함하며,
상기 (A5) 단계에서 결정된 옵티마이저 파라미터는 RMSProp인,
방법.
The method of claim 2,
The optimization parameter includes an optimizer,
The optimizer parameter determined in step (A5) is RMSProp,
Way.
제 2 항에 있어서,
상기 최적화 파라미터는 weight_decay, Optimizer, opt_epsilon, rmsprop_momentum, 및 rmsprop_decay를 포함하며, 상기 학습 파라미터는 learning_rate, max_number_of_steps, learning_rate_decay_type, num_epochs_per_decay, replicas_to_aggregate, 및 moving_average_decay를 포함하는,
방법.
The method of claim 2,
The optimization parameters include weight_decay, Optimizer, opt_epsilon, rmsprop_momentum, and rmsprop_decay, and the learning parameters include learning_rate, max_number_of_steps, learning_rate_decay_type, num_epochs_per_decay, replicas_to_aggregate, and moving_average_decay.
Way.
제 1 항에 있어서,
상기 (B) 단계 이후,
(C) 사용자 수정 모듈(400)이 상기 (B) 단계에서 출력된 분석 정보를 수정하는 단계; 및
(D) 학습 정보 추가 모듈(500)이 상기 (C) 단계에서 수정된 분석 정보와 이에 해당하는 막장면 이미지 정보를 학습용 분석 정보 입력부(120) 및 학습용 막장면 이미지 정보 입력부(110)에 각각 입력하는 단계를 더 포함하는,
방법.
The method of claim 1,
After step (B),
(C) modifying, by the user modification module 400, the analysis information output in step (B); And
(D) The learning information adding module 500 inputs the analysis information modified in step (C) and the corresponding scene image information into the learning analysis information input unit 120 and the learning curtain image information input unit 110, respectively. Further comprising the step of,
Way.
KR1020190161773A 2019-12-06 2019-12-06 Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization KR102240422B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190161773A KR102240422B1 (en) 2019-12-06 2019-12-06 Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190161773A KR102240422B1 (en) 2019-12-06 2019-12-06 Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization

Publications (1)

Publication Number Publication Date
KR102240422B1 true KR102240422B1 (en) 2021-04-15

Family

ID=75440736

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190161773A KR102240422B1 (en) 2019-12-06 2019-12-06 Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization

Country Status (1)

Country Link
KR (1) KR102240422B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101104444B1 (en) * 2011-06-08 2012-01-12 배재대학교 산학협력단 System and method for predicting discontinous face of tunnel working face
KR101529107B1 (en) * 2014-09-26 2015-06-29 한국건설기술연구원 Describing Method of Face Mapping Drawing for Tunnel
JP2018150720A (en) * 2017-03-13 2018-09-27 大成建設株式会社 Method and system for displaying information of working face, and tunnel construction method by using these
CN109211137A (en) * 2018-09-11 2019-01-15 华东交通大学 A kind of device and method of quick identification tunnel tunnel face lithology
JP2019023392A (en) * 2017-07-24 2019-02-14 株式会社大林組 Working face evaluation support system, working face evaluation support method and working face evaluation support program
CN109872311A (en) * 2019-02-01 2019-06-11 中国铁建重工集团有限公司 A kind of Rock Mass Integrality sentences knowledge method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101104444B1 (en) * 2011-06-08 2012-01-12 배재대학교 산학협력단 System and method for predicting discontinous face of tunnel working face
KR101529107B1 (en) * 2014-09-26 2015-06-29 한국건설기술연구원 Describing Method of Face Mapping Drawing for Tunnel
JP2018150720A (en) * 2017-03-13 2018-09-27 大成建設株式会社 Method and system for displaying information of working face, and tunnel construction method by using these
JP2019023392A (en) * 2017-07-24 2019-02-14 株式会社大林組 Working face evaluation support system, working face evaluation support method and working face evaluation support program
CN109211137A (en) * 2018-09-11 2019-01-15 华东交通大学 A kind of device and method of quick identification tunnel tunnel face lithology
CN109872311A (en) * 2019-02-01 2019-06-11 中国铁建重工集团有限公司 A kind of Rock Mass Integrality sentences knowledge method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
김하영, 조래훈, 김규선. CNN 기법을 활용한 암판정 예측기술 개발. 한국지반공학회논문집. 제35권 9호. 2019.9. *

Similar Documents

Publication Publication Date Title
RU2694021C1 (en) Method and apparatus for identifying portions of fragmented material within an image
KR101863615B1 (en) Apparatus for detecting variants of a malicious code based on neural network learning, method thereof and computer recordable medium storing program to perform the method
EP3761230A1 (en) Image processing method, device, storage medium and computer program product
CN105719259B (en) Pavement crack image detecting method
CN111507343A (en) Training of semantic segmentation network and image processing method and device thereof
WO2019093152A1 (en) Method and system for estimating motion of work vehicle, method for producing learned classification model, learning data, and method for producing learning data
KR102201211B1 (en) Method for analysis of blind ends in tunnels using artificial intelligence and extraction of joints
KR20220023323A (en) Automatic multi-organ and tumor contouring system based on artificial intelligence for radiation treatment planning
CN106204597A (en) A kind of based on from the VS dividing method walking the Weakly supervised study of formula
KR20210144390A (en) Method for generating tunnel construction documents automatically
KR102240422B1 (en) Method for analysis of blind ends in tunnels using artificial intelligence and parameter optimization
KR102240421B1 (en) Method for analysis of blind ends in tunnels using artificial intelligence
CN111612721B (en) Image restoration model training method and device and satellite image restoration method and device
CN115546073B (en) Method and device for removing shadow of floor tile image, computer equipment and storage medium
US11468267B2 (en) Apparatus and method for classifying image
GB2589478A (en) Segmenting irregular shapes in images using deep region growing
KR102344741B1 (en) Method for analysis of blind ends in tunnels using artificial intelligence and Method for predicting front blind ends
Itoh et al. Designing CNN genes
CN113888614B (en) Depth recovery method, electronic device, and computer-readable storage medium
US20240062048A1 (en) Learning device, learning method, and storage medium
CN115170489A (en) Method and device for identifying and measuring steel bars
CN107292840A (en) Image recovery method and device, computer-readable recording medium, terminal
CN113610711A (en) Single-image-guided three-dimensional surface reconstruction method and device
CN116897532A (en) Depth image restoration method and device, camera component and electronic equipment
CN113781441B (en) Grouting range optimization method applied to jointed rock mass tunnel excavation process