KR102149355B1 - 연산량을 줄이는 학습 시스템 - Google Patents

연산량을 줄이는 학습 시스템 Download PDF

Info

Publication number
KR102149355B1
KR102149355B1 KR1020180097139A KR20180097139A KR102149355B1 KR 102149355 B1 KR102149355 B1 KR 102149355B1 KR 1020180097139 A KR1020180097139 A KR 1020180097139A KR 20180097139 A KR20180097139 A KR 20180097139A KR 102149355 B1 KR102149355 B1 KR 102149355B1
Authority
KR
South Korea
Prior art keywords
layer
cell
dice
layers
learning system
Prior art date
Application number
KR1020180097139A
Other languages
English (en)
Other versions
KR20200023695A (ko
Inventor
최규진
이승수
구자환
김한솔
성유섭
심우현
김호성
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to KR1020180097139A priority Critical patent/KR102149355B1/ko
Publication of KR20200023695A publication Critical patent/KR20200023695A/ko
Application granted granted Critical
Publication of KR102149355B1 publication Critical patent/KR102149355B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 연산량을 줄이는 학습시스템에 관한 것으로, 보다 상세하게는 3차원 기반 딥러닝 학습 시 과도하게 많은 연산량을 감소시키면서도 최적의 성능을 내는 학습 모델을 만드는 연산량 감소 시스템이 제공된다. 상기 연산량 감소 시스템은 복수의 블록을 포함하는 복수의 셀을 포함하고, 각 셀 간의 입력 및 출력의 연결 관계를 특정한 전체 시스템 구조를 유지하도록 고정한 것을 특징으로 하고, 상기 블록은 데이터의 입력, 처리 또는 출력을 수행하는 복수의 레이어를 포함하고, 상기 복수의 블록 또는 레이어는, 데이터 학습 과정에서 구조 변경이 가능한 것을 특징으로 한다.

Description

연산량을 줄이는 학습 시스템{LEARNING SYSTEM TO REDUCE COMPUTATION VOLUME}
본 발명은 연산량을 줄이는 학습시스템에 관한 것으로, 보다 상세하게는 3차원 기반 딥러닝 학습 시 과도하게 많은 연산량을 감소시키면서도 최적의 성능을 내는 학습 모델을 만드는 연산량 감소 시스템에 관한 것이다.
신경망은 생체 뇌를 모델링한 데이터 구조를 나타낸다. 신경망에 있어서, 노드들은 입력 데이터를 처리하기 위하여 상호 연결되며, 집합적으로 동작하는 뉴런을 나타낼 수 있다. 서로 다른 종류의 신경망의 예시로서, 콘벌루션 신경망(Convolution Neural Networks), 순환형 신경항(Recurrent Neural Networks), 확신 네트워크(Deep Belief Network) 및 제한적 볼츠만 머신(Restricted Boltzamann Machines) 등이 포함될 수 있으나, 이에 제한되지 않는다.
신경망은 복잡한 입력 데이터로부터 "특징"을 추출하기 위해 이용될 수 있다. 신경망은 복수의 레이어(layer)를 포함할 수 있다. 각각의 레이어는 입력 데이터를 수신하고, 수신된 입력 데이터를 처리하여 출력 데이터를 생성할 수 있다. 출력 데이터는 입력 데이터의 특징 지도(feature map)일 수 있다. 신경망은 입력 이미지 또는 특징 지도를 컨벌루션 커널(Convolution Kernel)과 컨벌루션함으로써 입력 데이터의 특징 지도를 생성하는 데 이용될 수 있다. 신경망의 최초 레이어는 이미지와 같은 입력으로부터 엣지 및/또는 그래디언트와 같은 저 레벨 특징을 추출하기 위하여 동작할 수 있다. 신경망의 후속 레이어들은 눈 또는 코와 같이 점진적으로 더 복잡한 특징들을 추출할 수 있다.
한국공개특허공보 제10-2017-0083419호, 2017.07.18
본 발명이 해결하고자 하는 과제는 3차원 기반의 학습 모델의 연산에 있어서, 연산량을 줄이고 정확도를 높이는 시스템을 제공하는 것이다.
또한, 본 발명이 해결하고자 하는 과제는 3차원의 영상 분할에 있어서, 분할하려는 영역 분할의 정확도를 높이는 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템은 복수의 블록을 포함하는 복수의 셀을 포함하고, 각 셀 간의 입력 및 출력의 연결 관계를 특정한 전체 시스템 구조를 유지하도록 고정한 것을 특징으로 하고, 상기 블록은 데이터의 입력, 처리 또는 출력을 수행하는 복수의 레이어를 포함하고, 상기 복수의 블록 또는 레이어는, 데이터 학습 과정에서 구조 변경이 가능한 것을 특징으로 한다.
상기 복수의 셀 중 제1셀에 의해 n번째 출력을 내는 경우에, 상기 블록의 내부에 있는 콘벌루션 레이어에 들어갈 수 있는 입력은, n-1번째 셀의 출력, n-2번째 셀의 출력 또는 제1 셀에 속한 블록 내부에서 나온 출력인 것을 특징으로 한다.
본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템은 상기 복수의 셀 중 하나의 셀만이 진화된 후, 나머지 모든 셀의 블록의 개수는 상기 하나의 셀의 블록의 개수와 동일하게 적용되는 것을 특징으로 한다.
본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템은 상기 복수의 레이어 중에서 복수의 콘벌루션 레이어에 대한 네트워크 가지치기를 통하여 연산량이 감소되는 것을 특징으로 한다.
상기 복수의 콘벌루션 레이어에 대한 네트워크 가지치기는, 상기 복수의 콘벌루션 레이어 각각에 대하여 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되고, 상기 복수의 콘벌루션 레이어 각각에 대하여 입력 가중치가 0개 또는 출력 가중치가 0개인 하나 이상의 노드가 전부 삭제되고, 상기 복수의 콘벌루션 레이어 중에서 n번째 레이어에서 삭제된 노드가 위치한 같은 자리의 n-1번째 레이어의 노드와 n+1번째 레이어의 노드가 연결되도록 하는, n-1번째 레이어의 출력을 n+1번째 레이어로 보내는 연결이 추가되는 것을 특징으로 한다.
상기 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되는 것은, 상기 복수의 레이어 각각에 대하여 전부 실시되되, 각각의 레이어 연결의 삭제가 순차적으로 실시되는 것으로, 제1 레이어에서 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되고, 상기 연결이 삭제된 제1레이어가 이용되여 재학습되고, 상기 재학습에 의해 네트워크의 퍼포먼스가 변경되면 제2레이어에서 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되는 것을 특징으로 한다.
본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템은 상기 복수의 레이어에 대하여, 손실 함수가 결합된 손실 함수로서 수정되어 계산됨으로써 영상 분할의 정확도가 높아지는 것을 특징으로 한다.
상기 손실 함수를 결합된 손실 함수로서 수정되어 계산되는 것은, 제1 영역과 제2 영역의 유사도가 혼합 매트릭스로 계산되어 다이스 값이 측정되고, 측정된 상기 다이스 값이 혼합되어 상기 손실 함수가 결합된 손실 함수로서 수정되고, 가중된 크로스 엔트로피를 통해 클래스 밸런싱되는 것을 특징으로 하고, 상기 제1 영역은 원본 이미지에서 추출한 영역이고, 상기 제2 영역은 라벨 이미지에서 추출한 영역이고, 상기 제1 영역 및 상기 제2 영역은 원본 이미지 및 라벨 이미지 각각에서 크기가 같은 영역이다.
상기 결합된 손실 함수는 하기의 수학식 1을 만족하는 것을 특징으로 한다.
<수학식 1>
Figure 112018082459416-pat00001
상기 수학식 1에서 LCE+dice는 크로스 엔트로피와 다이스 값이 반영된 손실 값, dice는 제1 영역과 제2 영역의 유사도를 혼합 매트릭스로 계산하여 측정한 값, λCE는 크로스 엔트로피 손실 함수에 대한 가중 파라미터, λdice는 다이스 손실 함수에 대한 가중 파라미터, Ldice는 다이스 값이 반영된 손실 값이다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상기 본 발명에 의하면, 3차원 기반의 학습 모델의 연산에 있어서, 구조적인 변화가 발생하지 않도록 셀 간의 연결관계를 고정시키면서, 결합된 손실 함수를 이용함으로써 연산량을 적게 활용하면서도 최적의 성능을 빠르게 도출할 수 있다.
또한, 상기 본 발명에 의하면, 셀 간의 입력 및 출력의 연결관계를 고정시킴으로써, 시드 모델의 구조 또한 유지되면서도 모델이 진화될 수 있다.
또한, 상기 본 발명에 의하면, 3차원 기반의 학습 모델의 연산에 있어서, 네트워크의 가지치기를 통하여 연산량을 감소 시킬 수 있다.
또한, 상기 본 발명에 의하면, 손실함수를 결합 손실 함수로서 수정되어 계산됨으로써, 영상에서의 영역 분할의 정확도가 높아질 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템의 각각의 셀 간의 입력 및 출력의 연결 관계를 설명하기 위한 도면이다.
도 2 내지 도 4는 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템에서 각 셀이 진화되는 입력 및 출력 관계의 예시를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템의 네트워크 가지치기에서 복수의 콘벌루션 레이어 중에서 n번째 레이어에서 삭제된 노드가 위치한 같은 자리의 n-1번째 레이어의 노드와 n+1번째 레이어의 노드가 연결되도록 하는, n-1번째 레이어의 출력을 n+1번째 레이어로 보내는 연결을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템의 손실 함수를 보정하여 의료 영상에 반영한 결과를 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템의 결과값을 나타낸 그래프이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 발명의 실시예들에 따른 심층신경망(Deep Neural Network; DNN)은, 하나 이상의 컴퓨터 내에 하나 이상의 레이어(Layer)를 구축하여 복수의 데이터를 바탕으로 판단을 수행하는 시스템 또는 네트워크를 의미한다. 예를 들어, 심층신경망은 콘벌루션 풀링 층(Convolutional Pooling Layer), 로컬 접속 층(a locally-connected layer) 및 완전 연결 층(fully-connected layer)을 포함하는 층들의 세트로 구현될 수 있다. 콘벌루션 풀링 층 또는 로컬 접속 층은 영상 내 특징들을 추출하도록 구성 될 수 있다. 완전 연결 층은 영상의 특징 간의 상관 관계를 결정할 수 있다. 일부 실시 예에서, 심층신경망의 전체적인 구조는 콘벌루션 풀링 층에 로컬 접속 층이 이어지고, 로컬 접속 층에 완전 연결 층이 이러지는 형태로 이루어질 수 있다. 심층신경망은 다양한 판단기준(즉, 파라미터(Parameter))를 포함할 수 있고, 입력되는 영상 분석을 통해 새로운 판단기준(즉, 파라미터)를 추가할 수 있다.
본 발명의 실시예들에 따른 심층신경망은, 영상분석에 적합한 콘볼루셔널 신경망이라고 부르는 구조로서, 주어진 영상 데이터들로부터 가장 분별력(Discriminative Power)가 큰 특징을 스스로 학습하는 특징 추출층(Feature Extraction Layer)와 추출된 특징을 기반으로 가장 높은 예측 성능을 내도록 예측 모델을 학습하는 예측층(Prediction Layer)이 통합된 구조로 구성될 수 있다.
특징 추출층은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 콘벌루션 층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수 차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다.
콘벌루션 층은 입력 영상의 각 패치에 대하여 필 터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)을 취함으로 서 특징지도(Feature Map)을 구하게 되는데, 다른 네트워크 구조와 비교하여, CNN은 희소한 연결성 (Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징이 있다. 이러한 연결구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상 시킨다.
통합 층(Pooling Layer 또는 Sub-sampling Layer)은 이전 콘벌루션 층에서 구해진 특징 지도의 지역 정보를 활용하여 새로운 특징 지도를 생성한다. 일반적으로 통합 층에 의해 새로 생성된 특징지도는 원래의 특징 지도보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징 지도 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징 지도 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있다. 통합 층의 특징지도는 일반적으로 이전 층의 특징 지도보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 통합층은 입력 영상 혹은 이전 특징 지도에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합 층의 역할은, 깊은 구조상에서 상위의 학습 층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출 층이 쌓이면서, 하위 층에서는 지역적인 특징을 반영하고 상위 층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영하는 특징 생성할 수 있다.
이와 같이, 콘벌루션 층과 통합 층의 반복을 통해 최종적으로 추출된 특징은 다중 신경망(MLP: Multi-layer Perception)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결 층(Fully-connected Layer)의 형태로 결합되어 분류 모델 학습 및 예측에 사용될 수 있다.
다만, 본 발명의 실시예들에 따른 심층신경망의 구조는 이에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.
본 명세서에서 쓰인 각 도면의 부호는 설명하는 해당 도면에서만 적용되며, 서로 다른 도면과 도면 부호를 혼용하여 사용하지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들에 따른 연산량을 줄이는 학습시스템에 대해 상세하게 설명한다.
본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템은 복수의 블록을 포함하는 복수의 셀을 포함하고, 복수의 블록은 복수의 레이어(layer)를 포함한다.
본 발명의 연산량을 줄이는 학습시스템은, 각 셀 간의 입력 및 출력의 연결 관계를 특정한 전체 시스템의 구조를 유지하도록 고정된다.
복수의 레이어(layer)는 데이터의 입력, 처리 또는 출력을 수행한다.
본 발명의 명세서에서 예시로 든 레이어는, 1X1X1 콘벌루션 레이어(Convolution layer), 3X3X3 콘벌루션 레이어, 5X5X5 콘벌루션 레이어, 7X7X7 콘벌루션 레이어, 3X3X3 최대 통합 레이어(max pooling layer), 3X3X3 평균 통합 레이어, 3X3X3 아트루스 콘벌루션 레이어(atrous convolution layer) 및 1X1X7 1X7X1 7X1X1 콘벌루션 레이어이지만, 상기 예의 한정되지 않으며 구성될 수 있는 모든 레이어 및 다양한 종류의 레이어가 포함된다.
도 1은 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템의 각각의 셀 간의 입력 및 출력의 연결 관계를 설명하기 위한 도면이다.
도 1을 참고하면, 셀은 제1셀(100)부터 제6셀(600)까지 구성되며, 각 셀에는 두 개의 레이어가 포함된다.
본 발명의 연산량을 줄이는 학습시스템은 구조를 유지하기 위하여 셀 간의 입력 및 출력 연결관계를 고정한다. 셀 간의 연결관계를 고정시키고 학습시키는 경우, 구조적인 변화가 발생하지 않는다. 각 블록의 구조(도시되지 않음)는 변경이 가능하고, 각 레이어 또한 변경이 가능하다.
본 발명과 같이 셀 간의 연결관계를 고정시켜 구조적인 변화가 발생하지 않는 경우, 시드 모델의 구조 또한 유지되면서도 모델이 진화될 수 있는 효과가 있다.
본 발명의 일 실시예로서, 도 1에서는 제1셀에 입력 값이 입력되고, 제1셀(100)에서 제2셀(200), 제2셀(200)에서 제3셀(300), 제3셀(300)에서 블록, 블록에서 제4셀(400), 제4셀(400)에서 제5셀(500), 제5셀(500)에서 제6셀(600)로 연결되어 제6셀(600)에서 출력 값이 출력된다.
레이어 간의 연결을 순차적으로 설명하면, 입력값이 제1셀(100)의 제1레이어(111)로 입력되고, 제1레이어(111)에서 제2레이어(112), 제2레이어(112)에서 제2셀(200)의 제3레이어(211), 제3레이어(211)에서 제4레이어(212), 제4레이어(212)에서 제3셀(300)의 제5레이어(311), 제5레이어(311)에서 제6레이어(312), 제6레이어(312)에서 블록의 제7레이어(711), 제7레이어(711)에서 제8레이어(712), 제8레이어(712)에서 제4셀(400)의 제9레이어(411), 제9레이어(411)에서 제10레이어(412), 제10레이어(412)에서 제5셀(500)의 제11레이어(511), 제11레이어(511)에서 제12레이어(512), 제12레이어(512)에서 제6셀(600)의 제13레이어(611), 제13레이어(611)에서 제14레이어(612)로 연결되어 제14레이어(612)에서 출력 값이 출력된다.
도 1에 도시된 것과 같이, 연결 구조가 정해지면 이와 같은 연결 구조는 고정되어 학습하여 구조의 변화가 없도록 한다. 즉, 각 셀의 연결관계는 고정되며, 블록안의 구조는 변경될 수 있다.
셀의 연결관계가 고정되어 전체 모델의 구조가 변형되지 않음에 따라, 해당 모델 구조를 유지됨으로써, 해당 모델 구조가 가지고 있는 성능을 유지할 수 있다. 따라서 유지하고자 하는 성능을 포함한 모델 구조를 시드 구조로서 유지시킬 수 있다. 예를 들어, 모델 구조는 U-net, V-net 구조이나, 상기 예에 한정되지 않는다.
도 1에서 각 셀의 종류로는, 예를 들어, 제1레이어(111)는 3X3X3 콘벌루션 레이어, 제2레이어(112)는 5X5X5 최대 통합 레이어, 제3레이어(211)는 5X5X5 콘벌루션 레이어, 제4레이어(212)는 7X7X7 최대 통합 레이어, 제5레이어(311)는 3X3 콘벌루션 레이어, 제6레이어(312)는 3X3X3 최대 통합 레이어, 제7레이어(711)는 3X3 콘벌루션 레이어, 제8레이어는 3X3X3 최대 통합 레이어, 제9레이어(411)는 5X5X5 콘벌루션 레이어, 제10레이어(412)는 3X3X3 최대 통합 레이어, 제11레이어(511)는 3X3X3 콘벌루션 레이어, 제12레이어(512)는 3X3X3 최대 통합 레이어, 제13레이어(611)는 3X3X3 콘벌루션 레이어 및 제14레이어(612)는 3X3X3 최대 통합 레이어로 구성될 수 있으나, 상기 예에 한정되지 않으며 다양한 레이어로 구성될 수 있다.
도 2 내지 도 4는 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템에서 각 셀이 진화되는 입력 및 출력 관계의 예시를 설명하기 위한 도면이다.
먼저, 각 셀안의 블록이 진화되어 최적의 성능을 내는 모델이 구성되는 과정에 대하여 설명한다.
각각의 셀에는 N개의 블록이 들어갈 수 있으며, 각 블록은 최대 M개의 콘벌루션 레이어를 포함할 수 있다. 학습 모델은 여러 개의 셀로 구성되며, 모든 셀은 동일한 내부구조를 가진다.
셀 안의 블록이 진화되어 최적의 성능을 내도록하는 블록이 구성되는 과정에 대하여 일 실시예로서 설명한다.
복수의 셀 중 제1셀에 의해 n번째 출력을 내는 경우에, 블록의 내부에 있는 콘벌루션 레이어에 들어갈 수 있는 입력은, n-1번째 셀의 출력, n-2번째 셀의 출력 또는 제1 셀에 속한 블록 내부에서 나온 출력이다.
일 실시예로, 각 콘벌루션 레이어의 종류는, 1X1X1 콘벌루션 레이어, 3X3X3 콘벌루션 레이어, 5X5X5 콘벌루션 레이어, 7X7X7 콘벌루션 레이어, 3X3X3 최대 통합 레이어, 3X3X3 평균 통합 레이어, 3X3X3 아트루스 콘벌루션 레이어(atrous convolution layer) 및 1X1X7 1X7X1 7X1X1 콘벌루션 레이어이다. 활성 함수는 정류한 선형 유닛(Rectified Linear Unit; ReLU)로 고정한다.
상기 콘벌루션 레이어의 종류에 의해, 새로 추가될 수 있는 블록의 가짓수는 8*8*(2+(M-1))*(2+(M-1))개이며, 시작 모델의 개수는 256개이다. 시작 모델인 256개의 모델들 각각에 데이터셋이 들어가서 결과 값이 측정된다. 결과 값은 다이스 값(dice score) 또는 정확성(accuracy)을 포함한다. 이때, 학습에 사용된 각각의 모델들은, 변환 알고리즘에 의해 RNN(Recurrent Neural Network)가 학습할 수 있는 고유한 표현식으로 바뀐다. 그리고 이 각각의 표현식을 RRN에 입력으로 주어 앞에서 상기한 결과값과 회귀분석을 진행한다.
이후, M=1 즉, 각 블록이 최대 1개의 콘벌루션 레이어를 포함한 모델들에 가능한 모든 블록 조합이 사용되어 M=2인 모델 후보들이 생성된다. 이 때, 만들어지는 모델 조합의 개수는, 256*{8^2*(2+(2-1)^2)}=147,456개이다. 그 다음, 상기 순환 신경망에서 학습되어 예측된 퍼포먼스 중 가장 높은 값을 뽑아 실제로 학습이 되며, 실제 퍼포먼스와 모델 구조가 다시 순환 신경망에 학습된다.
상기의 과정이 M=4 즉, 각 블록의 최대 4개의 콘벌루션 레이어가 포함될 때까지 반복되어, 블록을 구성된다.
상기의 과정에 의해 구성된 블록에 의하면, 최적의 성능을 내는 모델이 구성된다.
도 2 내지 도 4는 각 셀이 진화되는 과정에 대하여 예시적으로 나타내는 도면으로, 도 2부터 순차적으로 설명한다.
도 2는 블록이 1개인 경우의 셀이 진화되는 과정에 대하여 설명하기 위한 도면이다.
도 2를 참고하면, 제1셀(100)은 제1블록(110)을 포함하고, 제1블록(110)은 제1레이어(111), 제2레이어(112), 제1레이어(111)와 제2레이어(112)의 합(113)을 포함한다.
블록이 도 2과 같이 1개인 경우, 제1블록(110)이 포함하는 제1레이어(111) 및 제2레이어(112)에 입력되는 입력 값은, N-1번째 출력 값(800)이 된다. 제1셀(100)의 합(113)에서 출력된 값은 결합부(Concat)(900)을 거쳐 N번째 출력(1000)으로 입력된다. 결합(Concat) 함수는 문자열을 연결하는 함수이다.
도 3은 블록이 2개인 경우의 셀이 진화되는 과정에 대하여 설명하기 위한 도면이다.
도 3을 참고하면, 제1셀(100)은 제1블록(110) 및 제2블록(120)을 포함하고, 제1블록(110)은 제1레이어(111), 제2레이어(112), 제1레이어(111)와 제2레이어(112)의 합(113)을 포함하고, 제2블록(120)은 제3레이어(121), 제4레이어(122), 제3레이어(121)과 제4레이어(122)의 합(123)을 포함한다.
블록이 2개인 경우, 전술한 바와 같이, 블록의 내부에 있는 콘벌루션 레이어에 들어갈 수 있는 입력은, n-1번째 셀의 출력, n-2번째 셀의 출력 또는 제1 셀에 속한 블록 내부에서 나온 출력이다.
일 실시예로, 도 3의 경우에는, 제1레이어(111), 제2레이어(112) 및 제3레이어(121)는 N-1번째 출력 값(800)을 입력 값으로 입력되고, 제4레이어(122)의 입력 값은, N-2번째 출력 값(700)이 된다. 제1셀(100)에서 출력된 제1레이어(111)와 제2레이어(112)의 합(113)과 제2셀(200)에서 출력된 제3레이어(121)와 제4레이어(122)의 합(123)의 출력은 Concat(900)을 거쳐, N번째 출력(1000)으로 입력된다.
도 4는 블록이 3개인 경우의 셀이 진화되는 과정에 대하여 설명하기 위한 도면이다.
도 4를 참고하면, 제1셀(100)은 제1블록(110), 제2블록(120) 및 제3블록(130)을 포함하고, 제1블록(110)은 제1레이어(111), 제2레이어(112), 제1레이어(111) 및 제2레이어(112)의 합(113)을 포함하고, 제2블록(120)은 제3레이어(121), 제4레이어(122), 제3레이어(121)과 제4레이어(122)의 합(123)을 포함하고, 제3블록(130)은 제5레이어(131), 제6레이어(132), 제5레이어(131)과 제6레이어(132)의 합(133)을 포함한다.
블록이 3개인 경우에도, 전술한 바와 같이, 블록의 내부에 있는 콘벌루션 레이어에 들어갈 수 있는 입력은, n-1번째 셀의 출력, n-2번째 셀의 출력 또는 제1 셀에 속한 블록 내부에서 나온 출력이다.
일 실시예로, 도 4의 경우에는, 제1블록(110)의 제1레이어(111)에는 N-2출력(700)이 입력되고, 제2레이어(112)에는 제2블록(120)의 제3레이어(121) 및 제4레이어(122)가 N-1번째 출력(800)으로부터 입력 받은 값이 합쳐진 합(123)의 값이 입력된다. 또한, 제3블록(13)의 제5레이어(131)에는 N-1번째 출력(800)이 입력되고, 제6레이어(132)에는 N-2번째 출력(700)이 입력된다. 제1셀(100)에서 출력된 제1레이어(111)와 제2레이어(112)의 합(113), 제2셀(200)에서 출력된 제3레이어(121)와 제4레이어(122)의 합(123) 및 제3셀(300)에서 출력된 제5레이어(131)와 제6레이어(132)의 합(133)의 출력은 결합부(Concat)(900)를 거쳐, N번째 출력(1000)으로 입력된다.
전술한 도 2 내지 도 4의 실시예들은 셀이 진화되는 과정에 대하여 예시적으로 설명한 것으로서, 도 2 내지 도 4의 실시예들에 한정되지 않고, 복수의 셀 중 제1셀에 의해 n번째 출력을 내는 경우에, 블록의 내부에 있는 콘벌루션 레이어에 들어갈 수 있는 입력은, n-1번째 셀의 출력, n-2번째 셀의 출력 또는 제1 셀에 속한 블록 내부에서 나온 출력이 되는 구성은 모두 포함된다.
복수의 셀 중 하나의 셀만이 진화된 후에는, 나머지 모든 셀의 블록의 개수는 상기 하나의 셀의 블록의 개수와 동일하게 적용된다.
본 발명의 연산량을 줄이는 학습시스템은 3차원 기반으로 학습 모델을 연산할 경우, 연산량이 매우 많아 연산에 소요되는 시간이 오래 걸리는 문제점을 해결하기 위하여 복수의 레이어 중에서 복수의 콘벌루션 레이어에 대한 네트워크 가지치기가 수행될 수 있다.
복수의 콘벌루션 레이어에 대한 네트워크 가지치기 수행 과정은, 복수의 콘벌루션 레이어 각각에 대하여 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되고, 복수의 콘벌루션 레이어 각각에 대하여 입력 가중치가 0개 또는 출력 가중치가 0개인 하나 이상의 노드가 전부 삭제된다. 이후, 복수의 콘벌루션 레이어 중에서 n번째 레이어에서 삭제된 노드가 위치한 같은 자리의 n-1번째 레이어의 노드와 n+1번째 레이어의 노드가 연결되도록 하는, n-1번째 레이어의 출력을 n+1번째 레이어로 보내는 연결이 추가됨으로써 수행된다.
미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되는 과정은, 복수의 레이어 각각에 대하여 전부 실시되되, 각각의 레이어 연결의 삭제가 순차적으로 실시된다. 제1 레이어에서 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되고, 연결이 삭제된 제1 레이어가 이용되어 재학습된 후, 재학습에 의해 네트워크의 퍼포먼스가 변경되면 제2 레이어에서 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제된다.
즉, 상기 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되는 과정은, 복수의 콘벌루션 레이어 각각에 대하여 전부 실시될 때까지, 반복적으로 하나의 레이어의 연결에 대하여 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되고, 연결이 삭제된 레이어가 이용되어 재학습된 후, 다음 레이어에서 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되는 과정이 거쳐진다.
전술한 복수의 콘벌루션 레이어에 대한 네트워크 가지치기 수행 과정에 있어서, 시작 콘벌루션 노드마다 1X1 콘벌루션이 적용되어, 콘벌루션의 연산량을 절약되어 약 10%의 성능이 향상된다. 또한, 전체 콘벌루션 네트워크(fully convolution network; FCN)가 전역 평균 통합(global average pooling)으로 치환된어, 치환하기 전 전체 콘벌루션 네트워크와 비교하면 연산량, 메모리 양이 절약되어 약 7%의 성능이 향상된다.
도 5는 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템의 네트워크 가지치기에서 복수의 콘벌루션 레이어 중에서 n번째 레이어에서 삭제된 노드가 위치한 같은 자리의 n-1번째 레이어의 노드와 n+1번째 레이어의 노드가 연결되도록 하는, n-1번째 레이어의 출력을 n+1번째 레이어로 보내는 연결을 설명하기 위한 도면이다.
도 5를 참고하면, 복수의 콘벌루션 레이어 중에서 네트워크 가지치기에 의해 삭제된 n번째 레이어(1011)에서 점선으로 표현된 노드에 대하여, 동일한 위치에 배치되어 있는, n-1번째 레이어의 노드(811)가 n+1번째 레이어의 노드(1211)로서 연결되도록 한다.
본 발명의 연산량을 줄이는 학습시스템은, 학습 모델을 이용하여 영상의 분할 시, 영상 분할의 정확도가 높아지도록 하기 위하여, 복수의 레이어에 대하여, 손실 함수(Loss Function)가 결합된 손실 함수(Combined Loss Function)로서 수정되어 계산된다.
손실 함수가 결합된 손실 함수로서 수정되어 계산되는 것은, 제1 영역과 제2 영역의 유사도가 혼합 매트릭스로 계산되어 다이스 값이 측정되고, 측정된 상기 다이스 값이 혼합되어 상기 손실 함수가 결합된 손실 함수로서 수정되고, 가중된 크로스 엔트로피(weighted cross entropy)를 통해 클래스 밸런싱되는 과정에 의한다.
제1 영역은 원본 이미지에서 추출한 영역이며 제2 영역은 라벨 이미지에서 추출한 영역으로, 제1 영역 및 제2 영역은 원본 이미지 및 라벨 이미지 각각에서 크기가 같은 영역이다.
일반적으로 크로스 엔트로피는 하기와 같이 계산된다.
Figure 112018082459416-pat00002
크로스 엔트로피(cross entropy)의 계산 시, 관심 영역(Region of Interest)의 비율이 불균형하게 된다면, 특정 클래스의 확률 값이 낮아져서 학습 모델에 손실을 제대로 반영할 수 없는 경우가 발생한다. 따라서, 가중된 크로스 엔트로피를 통하여 클래스 밸런싱이 되어야 영상 분할의 정확도를 높일 수 있다.
크로스 엔트로피 손실 함수와 다이스 손실 함수에 대하여, 모델의 훈련시 최종 계층에서 픽셀 단위로 소프트맥스(softmax) 활성화를 적용하여 각 픽셀 x에서 각 클래스 i에 대한 예측 확률을 p(x,i)라 하고, 위치 x에 있는 목표는 t(x)라고 할 때, 크로스 엔트로피 손실 함수 및 다이스 손실 함수의 정의는 다음과 같다.
크로스 엔트로피 손실 함수의 경우, 세그멘테이션 작업에서 표준 엔트로피 손실 함수를 적용하여 예측된 출력과 목표 사이의 픽셀 단위 확률 오류를 측정하여 모든 픽셀에서의 오류를 합산한다. 또한, 각 클래스에 대한 픽셀 빈도의 불균형을 설정하기 위하여 각 클래스에 가중치를 적용하는 것으로, 클래스 i에 대한 가중치는 wi이다.
가중된 크로스 엔트로피 손실 Lce는 하기의 수학식 1과 같다.
<수학식 1>
Figure 112018082459416-pat00003
다이스 손실 함수의 경우, 다이스의 계수(Dice's Coefficient)는 두 샘플(sample) 사이의 유사성을 측정하는 척도이다. 다이스 계수가 손실 함수로 확장되면 배경 픽셀은 레이블보다 높은 경우의 상황을 처리할 때 성능이 향상된다. 가중된 크로스 엔트로피와 마차가지로, 가중치를 사용하여 클래스 불균형을 설정한다.
다이스 손실 Ldice는 각 클래스 i에 대한 다이스 손실 Li의 가중치 합계로 하기의 수학식 2와 같다.
<수학식 2>
Figure 112018082459416-pat00004
수학식 2에서 클래스 i에 대하여 바이너리 맵을 ti로 나타내면, 하기의 수학식 3과 같다.
<수학식 3>
Figure 112018082459416-pat00005
따라서, 클래스 i에 대한 다이스 손실은 하기의 수학식 4와 같다.
<수학식 4>
Figure 112018082459416-pat00006
결과적으로, 결합된 손실 함수는 하기의 수학식 5를 만족하는 함수이다.
<수학식 5>
Figure 112018082459416-pat00007
수학식 5에서 LCE+dice는 크로스 엔트로피와 다이스 값이 반영된 손실 값, dice는 제1 영역과 제2 영역의 유사도를 혼합 매트릭스로 계산하여 측정한 값, λCE는 크로스 엔트로피 손실 함수에 대한 가중 파라미터, λdice는 다이스 손실 함수에 대한 가중 파라미터, Ldice는 다이스 값이 반영된 손실 값이다.
도 6은 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템의 손실 함수를 보정하여 의료 영상에 반영한 결과를 나타낸 도면이다.
도 6의 (a)는 손실 함수의 수정 전 의료 영상에서 간을 분할한 도면이고, 도 7의 (b)는 손실 함수의 수정 후 의료 영상에서 간을 분할한 도면이다.
도 6의 (a)는 간의 뾰족한 부분 또는 주변의 장기와 구분이 잘 안되는 부분에 대하여, 정확히 분할하지 못하였으나, 도 7의 (b)는 간의 뾰족한 부분 또는 주변의 장기와 구분이 잘 안되는 부분에 대하여도 정확하게 분할한 결과를 확인할 수 있다.
도 7은 본 발명의 일 실시예에 따른 연산량을 줄이는 학습시스템의 결과값을 나타낸 그래프이다.
도 7의 그래프는 전술한 구조적인 변화가 발생하지 않도록 셀 간의 연결관계를 고정시키면서, 결합된 손실 함수를 이용하여 세대를 진화시키면서 퍼포먼스를 측정한 결과이다.
휴리스틱(Heuristic)은 기존 모델을 이용하여 퍼포먼스를 측정한 결과이며, 기존 모델의 경우에는 각각의 모델에 대하여 모두 한번씩 트레이닝을 시킨 후, 최적의 값을 내는 것이다.
제네틱(Genetic)은 전술한 구조적인 변화가 발생하지 않도록 셀 간의 연결관계를 고정시키면서, 결합된 손실 함수를 이용하여 세대를 진화시키면서 퍼포먼스를 측정한 결과이며, 본 발명의 경우에는 각각의 모델 모두가 아닌, 일부 모델만이 트레이닝 후 학습되어 최적의 값을 내는 것이다.
도 7의 그래프를 참고하면, 제네틱의 경우, 휴리스틱과 비교하여 훨씬 적은 모델이 학습된 결과값을 나타내고 있음에도 불구하고, 최적의 값이 휴리스틱에 비해 더 적은 세대를 이용한 경우 나오는 것을 확인할 수 있다.
따라서, 구조적인 변화가 발생하지 않도록 셀 간의 연결관계를 고정시키면서, 결합된 손실 함수를 이용하는 경우에는, 적은 연산량으로도 최적의 성능 및 최적의 값을 빠르게 도출할 수 있는 효과가 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100, 200, 300 : 셀
110, 120, 130, 210, 220, 230, 310, 320, 330 : 블록
111, 112, 121, 122, 131, 132, 211, 212, 221, 222, 231, 232, 311, 312, 321, 322, 331, 332 : 레이어

Claims (9)

  1. 영상 분할을 위한 학습시스템에 있어서,
    복수의 블록을 포함하는 복수의 셀을 포함하고,
    각 셀 간의 입력 및 출력의 연결 관계를 특정한 전체 시스템 구조를 유지하도록 고정한 것을 특징으로 하고,
    상기 블록은 데이터의 입력, 처리 또는 출력을 수행하는 복수의 레이어를 포함하고,
    상기 복수의 블록 또는 레이어는,
    데이터 학습 과정에서 구조 변경이 가능한 것을 특징으로 하고,
    상기 복수의 블록 또는 레이어의 구조 및 상기 복수의 레이어 각각의 파라미터는 결합된 손실 함수에 기초하여 결정되고,
    상기 결합된 손실 함수는,
    가중된 크로스 엔트로피 손실 함수 및 다이스 손실 함수가 결합된 손실 함수인 것을 특징으로 하는,
    영상 분할을 위한 학습시스템.
  2. 제1항에 있어서,
    상기 복수의 셀 중 제1셀에 의해 n번째 출력을 내는 경우에,
    상기 블록의 내부에 있는 콘벌루션 레이어에 들어갈 수 있는 입력은,
    n-1번째 셀의 출력, n-2번째 셀의 출력 또는 제1 셀에 속한 블록 내부에서 나온 출력인 것을 특징으로 하는,
    영상 분할을 위한 학습시스템.
  3. 제1항에 있어서,
    상기 복수의 셀 중 하나의 셀만이 진화된 후, 나머지 모든 셀의 블록의 개수는 상기 하나의 셀의 블록의 개수와 동일하게 적용되는 것을 특징으로 하는,
    영상 분할을 위한 학습시스템.
  4. 제1항에 있어서,
    상기 복수의 레이어 중에서 복수의 콘벌루션 레이어에 대한 네트워크 가지치기를 통하여 연산량이 감소되는 것을 특징으로 하는,
    영상 분할을 위한 학습시스템.
  5. 제4항에 있어서,
    상기 복수의 콘벌루션 레이어에 대한 네트워크 가지치기는,
    상기 복수의 콘벌루션 레이어 각각에 대하여 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되고,
    상기 복수의 콘벌루션 레이어 각각에 대하여 입력 가중치가 0개 또는 출력 가중치가 0개인 하나 이상의 노드가 전부 삭제되고,
    상기 복수의 콘벌루션 레이어 중에서 n번째 레이어에서 삭제된 노드가 위치한 같은 자리의 n-1번째 레이어의 노드와 n+1번째 레이어의 노드가 연결되도록 하는, n-1번째 레이어의 출력을 n+1번째 레이어로 보내는 연결이 추가되는 것을 특징으로 하는,
    영상 분할을 위한 학습시스템.
  6. 제5항에 있어서,
    상기 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되는 것은,
    상기 복수의 레이어 각각에 대하여 전부 실시되되, 각각의 레이어 연결의 삭제가 순차적으로 실시되는 것으로,
    제1 레이어에서 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되고,
    상기 연결이 삭제된 제1레이어가 이용되여 재학습되고,
    상기 재학습에 의해 네트워크의 퍼포먼스가 변경되면 제2레이어에서 미리 정해진 값 이하의 가중치를 가진 연결이 전부 삭제되는 것을 특징으로 하는,
    영상 분할을 위한 학습시스템.
  7. 제1항에 있어서,
    상기 가중된 크로스 엔트로피 손실 함수는,
    각 클래스에 대한 불균형을 해결하기 위해 클래스별 상이한 가중치를 적용하여 가중된 크로스 엔트로피 손실값을 산출하는 것이고,
    상기 다이스 손실 함수는,
    혼합 매트릭스를 기초로 제1 영역과 제2 영역의 유사도인 다이스 손실값을 산출하는 것이고,
    상기 제1 영역은 원본 이미지에서 추출한 영역이고, 상기 제2 영역은 라벨 이미지에서 추출한 영역이고,
    상기 제1 영역 및 상기 제2 영역은 원본 이미지 및 라벨 이미지 각각에서 크기가 같은 영역인 것을 특징으로 하는,
    영상 분할을 위한 학습시스템.
  8. 제7항에 있어서,
    상기 결합된 손실 함수는,
    영상 분할의 정확도를 향상시키기 위해 산출된 상기 가중된 크로스 엔트로피 손실값 및 상기 다이스 손실값을 합산하여 결합된 손실값을 산출하되, 상기 가중된 크로스 엔트로피 손실값 및 상기 다이스 손실값에 각각 상이한 가중 파라미터를 적용하여 합산하는 것을 특징으로 하는,
    영상 분할을 위한 학습시스템.
  9. 제8항에 있어서,
    상기 결합된 손실 함수는 하기의 수학식 1을 만족하는 것을 특징으로 하는,
    영상 분할을 위한 학습시스템.
    <수학식 1>
    Figure 112020052357772-pat00008

    상기 수학식 1에서 LCE+dice는 크로스 엔트로피와 다이스 값이 반영된 손실값, λCE는 크로스 엔트로피 손실값에 대한 가중 파라미터, λdice는 다이스 손실값에 대한 가중 파라미터, LCE는 가중된 크로스 엔트로피 손실값, Ldice는 다이스 손실값.
KR1020180097139A 2018-08-21 2018-08-21 연산량을 줄이는 학습 시스템 KR102149355B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180097139A KR102149355B1 (ko) 2018-08-21 2018-08-21 연산량을 줄이는 학습 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180097139A KR102149355B1 (ko) 2018-08-21 2018-08-21 연산량을 줄이는 학습 시스템

Publications (2)

Publication Number Publication Date
KR20200023695A KR20200023695A (ko) 2020-03-06
KR102149355B1 true KR102149355B1 (ko) 2020-08-31

Family

ID=69802565

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180097139A KR102149355B1 (ko) 2018-08-21 2018-08-21 연산량을 줄이는 학습 시스템

Country Status (1)

Country Link
KR (1) KR102149355B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240045688A (ko) 2022-09-30 2024-04-08 서울여자대학교 산학협력단 복수의 손실 함수 기반의 인공지능 모델을 이용하여 종양 악성도를 예측하는 방법 및 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102472397B1 (ko) * 2020-04-17 2022-11-29 인천대학교 산학협력단 합성곱 신경망 모델에 포함된 합성곱 필터의 개수 조정을 통해 합성곱 연산의 효율을 향상시키기 위한 컴퓨팅 장치 및 그 동작 방법
CN113807231B (zh) * 2021-09-14 2024-02-13 西安电子科技大学 基于unet下采样卷积神经网络的x光违禁物检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101847874B1 (ko) 2017-06-28 2018-05-25 서경대학교 산학협력단 합성곱 신경망을 이용한 이미지 인식 방법 및 그 기록 매체

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11423311B2 (en) * 2015-06-04 2022-08-23 Samsung Electronics Co., Ltd. Automatic tuning of artificial neural networks
KR20170083419A (ko) 2016-01-08 2017-07-18 마우키스튜디오 주식회사 레이블링되지 않은 다수의 학습 데이터를 이용하여 딥 러닝의 모델을 트레이닝하는 방법 및 이를 수행하는 딥 러닝 시스템
KR102608467B1 (ko) * 2016-07-28 2023-12-04 삼성전자주식회사 뉴럴 네트워크의 경량화 방법, 이를 이용한 인식 방법, 및 그 장치
KR102415506B1 (ko) * 2016-10-26 2022-07-01 삼성전자주식회사 뉴럴 네트워크 간소화 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101847874B1 (ko) 2017-06-28 2018-05-25 서경대학교 산학협력단 합성곱 신경망을 이용한 이미지 인식 방법 및 그 기록 매체

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240045688A (ko) 2022-09-30 2024-04-08 서울여자대학교 산학협력단 복수의 손실 함수 기반의 인공지능 모델을 이용하여 종양 악성도를 예측하는 방법 및 장치

Also Published As

Publication number Publication date
KR20200023695A (ko) 2020-03-06

Similar Documents

Publication Publication Date Title
CN109829057B (zh) 一种基于图二阶相似性的知识图谱实体语义空间嵌入方法
CN111882040B (zh) 基于通道数量搜索的卷积神经网络压缩方法
CN112861722B (zh) 一种半监督深度图卷积的遥感土地利用语义分割方法
KR102149355B1 (ko) 연산량을 줄이는 학습 시스템
CN111860771B (zh) 一种应用于边缘计算的卷积神经网络计算方法
JP2018085063A (ja) 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
Zhu et al. Nasb: Neural architecture search for binary convolutional neural networks
CN113592060A (zh) 一种神经网络优化方法以及装置
US20220156508A1 (en) Method For Automatically Designing Efficient Hardware-Aware Neural Networks For Visual Recognition Using Knowledge Distillation
CN112183742A (zh) 基于渐进式量化和Hessian信息的神经网络混合量化方法
CN109448039B (zh) 一种基于深度卷积神经网络的单目视觉深度估计方法
CN114332075A (zh) 基于轻量化深度学习模型的结构缺陷快速识别与分类方法
Gao et al. Deep learning for sequence pattern recognition
CN113743594A (zh) 网络流量预测模型建立方法、装置、电子设备及存储介质
CN110517272B (zh) 基于深度学习的血细胞分割方法
He et al. Bd-net: a multiplication-less dnn with binarized depthwise separable convolution
CN113887653B (zh) 一种基于三元网络的紧耦合弱监督学习的定位方法及系统
CN115170599A (zh) 通过图神经网络的链路预测进行血管分割的方法和装置
CN114581789A (zh) 一种高光谱图像分类方法及系统
CN113962262A (zh) 一种基于连续学习的雷达信号智能分选方法
WO2021055364A1 (en) Efficient inferencing with fast pointwise convolution
CN111899161A (zh) 一种超分辨率重建方法
CN113076962B (zh) 一种基于可微神经网络搜索技术的多尺度目标检测方法
CN116402554B (zh) 一种广告点击率预测方法、系统、计算机及可读存储介质
CN113837360B (zh) 一种基于关系图的dnn鲁棒模型加固方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant