KR20220154472A - 엣지 중요도 산출 장치 및 방법 - Google Patents

엣지 중요도 산출 장치 및 방법 Download PDF

Info

Publication number
KR20220154472A
KR20220154472A KR1020210062057A KR20210062057A KR20220154472A KR 20220154472 A KR20220154472 A KR 20220154472A KR 1020210062057 A KR1020210062057 A KR 1020210062057A KR 20210062057 A KR20210062057 A KR 20210062057A KR 20220154472 A KR20220154472 A KR 20220154472A
Authority
KR
South Korea
Prior art keywords
edge
message
graph
importance
edges
Prior art date
Application number
KR1020210062057A
Other languages
English (en)
Inventor
전은주
조현철
오영록
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020210062057A priority Critical patent/KR20220154472A/ko
Publication of KR20220154472A publication Critical patent/KR20220154472A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

엣지 중요도 산출 장치 및 방법이 개시된다. 일 실시예에 따른 엣지 중요도 산출 장치는 복수의 노드 및 복수의 엣지를 포함하는 그래프를 사전 학습된 그래프 신경망(GNN; Graph Neural Network)에 입력하여 그래프에 대한 예측을 수행하는 순전파부; 예측이 수행된 그래프 신경망 내 각 컨볼루션 레이어마다 복수의 엣지 별 메시지(Message) 및 메시지 그래디언트(Message Gradient)를 추출하는 추출부; 복수의 엣지 별 메시지 및 메시지 그래디언트에 기초하여 각 컨볼루션 레이어에서의 엣지 중요도를 산출하는 제1 산출부; 및 각 컨볼루션 레이어에서의 엣지 중요도에 기초하여 그래프 전체에서의 엣지 중요도를 산출하는 제2 산출부를 포함한다.

Description

엣지 중요도 산출 장치 및 방법{APPRATUS AND METHOD FOR CALCULATING IMPORTANCE OF EDGE}
개시되는 실시예들은 그래프 신경망의 예측에 관한 입력 그래프의 엣지(Edge) 중요도를 산출하는 기술과 관련된다.
인공지능(AI; Artificial Intelligence)은 4차 산업혁명의 선두에서 다양한 분야에 활용되는 미래 핵심 기술이다. 일반적으로 인공지능 학습 모델은 자율주행, 의료, 제조 분야에서 종래 기술 대비 개선된 성능을 보이는 것으로 알려져 있다.
하지만, 인공지능 학습 모델은 특정 결론에 이르는 과정이 불투명하고, 따라서 외부의 사용자가 왜 그러한 결론에 이르렀는지 이유를 파악하기 어려운 단점이 있다. 때문에 적대적 공격(Adversarial Attack) 등 인공지능 학습 모델의 신뢰도를 떨어뜨리려는 악의적인 시도에 의해 잘못된 결론이 도출되는 경우, 사용자는 그 원인을 찾지 못해 인공지능 학습 모델을 개선하기 어렵게 된다.
이러한 문제를 해결하기 위해, 최근 설명 가능한 인공지능(XAI; eXplainable AI)에 대한 연구가 여럿 등장하고 있다. 이를 통해 외부 사용자는 인공지능 학습 모델의 결론(예측)에 대한 근거를 쉽게 파악하여, 인공지능에 대한 신뢰를 높일 수 있다.
그러나, 현재 그래프 신경망에 적용되는 XAI 기법들은 크게 (1)그래디언트(Gradient) 기반 기법, (2)특징(Feature) 및 그래디언트 기반 기법, (3)섭동(Perturbation) 기반 기법으로 나뉘는데, 각 기법 모두 뚜렷한 한계점을 지닌다.
구체적으로, 그래디언트 기반 기법은 그래디언트 계산 시에 그래프의 노드나 엣지 중 어느 하나의 요소만을 활용할 수 있고, 특징 및 그래디언트 기반 기법은 특징 값이 노드에 대해서만 추출될 수 있어서 엣지의 중요도는 간접적으로만 파악 가능하며, 섭동 기반 기법은 그래프 신경망에 입력되는 그래프 일부를 마스킹(Masking)하기 위해 별도의 신경망을 학습해야 하므로 즉각적인 엣지 중요도 계산이 불가하고 리소스가 많이 소요된다.
따라서 상술한 한계점을 극복하여, 그래프 신경망에 대해 범용성이 높고 별도의 신경망 학습을 필요로 하지 않는 새로운 XAI 기법이 필요한 실정이다.
개시되는 실시예들은 그래프 신경망의 예측에 관해 입력된 그래프의 노드 및 엣지의 정보가 고루 반영된 엣지 중요도를 산출하는 수단을 제공하기 위한 것이다.
개시되는 일 실시예에 따른 엣지 중요도 산출 장치는, 복수의 노드 및 복수의 엣지를 포함하는 그래프를 사전 학습된 그래프 신경망(GNN; Graph Neural Network)에 입력하여 그래프에 대한 예측을 수행하는 순전파부; 예측이 수행된 그래프 신경망 내 각 컨볼루션 레이어마다 복수의 엣지 별 메시지(Message) 및 메시지 그래디언트(Message Gradient)를 추출하는 추출부; 복수의 엣지 별 메시지 및 메시지 그래디언트에 기초하여 각 컨볼루션 레이어에서의 엣지 중요도를 산출하는 제1 산출부; 및 각 컨볼루션 레이어에서의 엣지 중요도에 기초하여 그래프 전체에서의 엣지 중요도를 산출하는 제2 산출부를 포함한다.
추출부는, 그래프 신경망의 예측 값과 복수의 엣지 별 메시지에 기초하여 복수의 엣지 별 메시지 그래디언트를 추출할 수 있다.
추출부는, 그래프 신경망의 예측 값을 복수의 엣지 별 메시지에 대해 편미분 함으로써 복수의 엣지 별 메시지 그래디언트를 추출할 수 있다.
제1 산출부는, 복수의 엣지 별 메시지와 복수의 엣지 별 메시지 각각에 대응되는 메시지 그래디언트에 대해 내적(Inner Product)을 수행함으로써 각 컨볼루션 레이어에서의 엣지 중요도를 산출할 수 있다.
제1 산출부는, 복수의 엣지 별 메시지, 복수의 엣지 별 메시지 그래디언트 및 각 컨볼루션 레이어에서의 엣지 중요도 중 적어도 하나를 기 정의된 후처리 함수에 기초하여 가공할 수 있다.
제2 산출부는, 각 컨볼루션 레이어에서의 엣지 중요도를 기 정의된 대푯값 출력 함수에 입력하여 그래프 전체에서의 엣지 중요도를 산출할 수 있다.
개시되는 일 실시예에 따른 엣지 중요도 산출 방법은, 복수의 노드 및 복수의 엣지를 포함하는 그래프를 사전 학습된 그래프 신경망(GNN; Graph Neural Network)에 입력하여 그래프에 대한 예측을 수행하는 단계; 예측이 수행된 그래프 신경망 내 각 컨볼루션 레이어마다 복수의 엣지 별 메시지(Message) 및 메시지 그래디언트(Message Gradient)를 추출하는 단계; 복수의 엣지 별 메시지 및 메시지 그래디언트에 기초하여 각 컨볼루션 레이어에서의 엣지 중요도를 산출하는 단계; 및 각 컨볼루션 레이어에서의 엣지 중요도에 기초하여 그래프 전체에서의 엣지 중요도를 산출하는 단계를 포함한다.
추출하는 단계는, 그래프 신경망의 예측 값과 복수의 엣지 별 메시지에 기초하여 복수의 엣지 별 메시지 그래디언트를 추출할 수 있다.
추출하는 단계는, 그래프 신경망의 예측 값을 복수의 엣지 별 메시지에 대해 편미분 함으로써 복수의 엣지 별 메시지 그래디언트를 추출할 수 있다.
각 컨볼루션 레이어에서의 엣지 중요도를 산출하는 단계는, 복수의 엣지 별 메시지와 복수의 엣지 별 메시지 각각에 대응되는 메시지 그래디언트에 대해 내적(Inner Product)을 수행함으로써 각 컨볼루션 레이어에서의 엣지 중요도를 산출할 수 있다.
각 컨볼루션 레이어에서의 엣지 중요도를 산출하는 단계는, 복수의 엣지 별 메시지를 기 정의된 후처리 함수에 기초하여 가공하는 단계; 복수의 엣지 별 메시지 그래디언트를 기 정의된 후처리 함수에 기초하여 가공하는 단계; 및 각 컨볼루션 레이어에서의 엣지 중요도를 기 정의된 후처리 함수에 기초하여 가공하는 단계 중 적어도 하나를 포함할 수 있다.
그래프 전체에서의 엣지 중요도를 산출하는 단계는, 각 컨볼루션 레이어에서의 엣지 중요도를 기 정의된 대푯값 출력 함수에 입력하여 그래프 전체에서의 엣지 중요도를 산출할 수 있다.
개시되는 실시예들에 따르면, 입력된 그래프의 메시지 및 메시지 그래디언트를 이용하여 엣지 중요도를 산출함으로써, 엣지 중요도에 그래프 내 노드 및 엣지의 정보를 고루 반영할 수 있다.
또한 개시되는 실시예들에 따르면, 입력된 그래프에 대한 예측 이후에 곧바로 엣지 중요도를 계산함으로써, 입력된 그래프 이외의 별도의 그래프에 대해 그래프 신경망을 추가 학습시키지 않고도 신속, 정확하게 엣지 중요도를 산출할 수 있다.
또한 개시되는 실시예들에 따르면, 하나의 엣지에 대해서도 전달 방향에 따라 서로 다른 메시지를 추출하므로, 엣지의 방향성이 없는 그래프 및 엣지의 방향성이 있는 그래프 모두에 대해 적용할 수 있다.
또한 개시되는 실시예들에 따르면, 엣지 중요도를 산출함에 있어 사전 학습된 그래프 신경망의 내부 구조에 따라 제약을 받지 않으므로, 다양한 구조의 그래프 신경망에 대해 범용적으로 활용될 수 있다.
도 1은 일 실시예에 따른 엣지 중요도 산출 시스템을 설명하기 위한 블록도
도 2는 일 실시예에 따른 엣지 중요도 산출 장치를 설명하기 위한 블록도
도 3은 일 실시예에 따른 엣지 중요도 산출 방법을 설명하기 위한 흐름도
도 4는 추가적인 실시예에 따른 330 단계를 상세히 설명하기 위한 흐름도
도 5는 일 실시예에 따라 엣지 중요도를 산출하는 과정을 개괄적으로 설명하기 위한 도면
도 6은 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 개시되는 실시예들은 이에 제한되지 않는다.
실시예들을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 개시되는 실시예들의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 개시되는 실시예들에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다.
특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다. 또한 본 명세서에 있어서, 2 이상의 데이터 또는 정보가 "관련"된다는 것은 하나의 데이터(또는 정보)를 획득하면, 그에 기초하여 다른 데이터(또는 정보)의 적어도 일부를 획득할 수 있음을 의미한다.
또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
도 1은 일 실시예에 따른 엣지 중요도 산출 시스템(100)을 설명하기 위한 블록도이다.
도 1을 참조하면, 엣지 중요도 산출 시스템(100) 내 엣지 중요도 산출 장치(110)는 임의의 그래프에 대한 그래프 신경망(GNN; Graph Neural Network)의 예측이 수행되면, 예측을 수행한 그래프 신경망 내에서 전달된 '그래프에 관한 정보'를 바탕으로 그래프 신경망의 예측 결과에 그래프의 각 요소가 미친 영향이 어느 정도인지를 엣지 중요도로 산출한다.
이를 통해, 종래에 그래프 신경망이 블랙 박스(Black Box)처럼 취급되어 외부에서 그래프 신경망의 예측 결과에 대해 분석하기 어려웠던 것과는 달리, 엣지 중요도를 바탕으로 그래프 신경망의 예측 결과에 주로 영향을 미친 그래프의 요소가 무엇인지 용이하게 분석할 수 있게 된다.
설명의 편의를 위해, 도 1에서는 그래프가 입력되는 그래프 신경망을 학습 또는 실행하는 컴퓨팅 장치가 엣지 중요도 산출 장치(110) 내에 포함된 것으로 도시되었으나, 이는 예시적인 것으로, 실시예에 따라서는 그래프 신경망을 학습 또는 실행하는 컴퓨팅 장치는 엣지 중요도 산출 장치(110) 외부에 별도로 구비될 수도 있음에 유의해야 한다.
이와 관련하여, 그래프 신경망을 학습 또는 실행하는 컴퓨팅 장치와 엣지 중요도 산출 장치(110)는 통신 네트워크로 일련의 정보를 주고 받을 수 있으며, 이때 통신 네트워크는 인터넷, 하나 이상의 로컬 영역 네트워크(local area networks), 광역 네트워크(wire area networks), 셀룰러 네트워크, 모바일 네트워크, 그 밖에 다른 종류의 네트워크들, 또는 이러한 네트워크들의 조합을 포함할 수 있다.
이하의 실시예들에서, '그래프'란 복수의 노드(Node) 및 각 노드 사이를 연결하는 엣지(Edge)로 구성된 네트워크로서, 노드 사이의 관계나 상호 작용을 나타내는 데이터를 의미한다. 다만, 수학적인 연산을 위해서, 이하에서 '그래프'는 복수의 노드 및 복수의 엣지를 포함하는 집합으로 취급되어, 인접 행렬(Adjacency Matrix)의 형태로 표현될 수 있다.
한편 이하의 실시예들에서, '그래프 신경망'은 그래프를 학습할 수 있는 신경망을 의미한다. '그래프 신경망'의 종류로는 정규화된 인접 행렬을 이용하는 그래프 컨볼루셔널 네트워크(GCN; Graph Convolutional Network), 그래프의 압축된 형태를 학습하고 원래 그래프의 형태를 구현하는 그래프 오토-인코더 네트워크(Graph Auto-Encoder Network) 등이 있으나, 이하에서는 '그래프 신경망'을 노드 및 엣지의 정보를 통합한 메시지 전달 방식을 이용하는 메시지 전달 그래프 신경망(MP-GNN; Message Passing-GNN)이라 전제하기로 한다.
도 2는 일 실시예에 따른 엣지 중요도 산출 장치(110)를 설명하기 위한 블록도이다.
도시된 바와 같이, 일 실시예에 따른 엣지 중요도 산출 장치(110)는 순전파부(111), 추출부(113), 제1 산출부(115) 및 제2 산출부(117)를 포함한다.
도시된 실시예에서, 각 구성들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 구성을 포함할 수 있다.
또한, 일 실시예에서, 순전파부(111), 추출부(113), 제1 산출부(115) 및 제2 산출부(117)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.
순전파부(111)는 복수의 노드 및 복수의 엣지를 포함하는 그래프를 사전 학습된 그래프 신경망에 입력하여 입력된 그래프에 대한 예측을 수행한다.
구체적으로, 순전파부(111)는 복수의 노드 및 복수의 엣지를 포함하는 그래프를 사전 학습된 그래프 신경망에 입력하고, 순전파(Feedforward) 과정을 통해 그래프에 대한 그래프 신경망의 예측 값을 획득할 수 있다.
일 실시예에 따르면, 그래프 신경망은 예측에 앞서 별도의 데이터베이스(미도시)에 미리 저장된 데이터셋을 이용하거나, 사용자가 입력한 데이터셋을 이용하여 학습될 수 있으며, 이때 데이터셋을 구성하는 데이터 역시 노드 및 엣지로 구성된 그래프 데이터일 수 있다.
이하의 실시예들에서, '그래프 신경망의 예측 값'은 그래프 신경망이 해결하고자 하는 문제에 대한 답을 추론하기 위해 사용되는 데이터로서, 각 원소가 스칼라 값 또는 벡터 값으로 이루어진 행렬일 수 있다. 예시적으로, '그래프 신경망의 예측 값'은 예측 시 입력된 그래프 내 엣지의 수와 동일한 차원을 갖는 행렬일 수 있다.
추출부(113)는 예측이 수행된 그래프 신경망 내 각 컨볼루션 레이어마다 그래프 내 복수의 엣지 별 메시지(Message) 및 메시지 그래디언트(Message Gradient)를 추출한다.
메시지 전달 그래프 신경망에서는 각 노드로 다른 주변 노드로부터 엣지를 거쳐 전달된 정보들이 모이고, 각 노드는 이렇게 모인 정보들을 다시 새로운 정보로 통합하여 다른 노드로 전달함으로써 학습 및 예측이 수행된다. 이때 엣지를 이루는 출발 노드와 도착 노드에 대한 정보와, 두 노드를 잇는 엣지에 대한 정보를 통합한 정보를 메시지라 지칭하고, 자연히 이러한 메시지는 그래프를 구성하는 모든 엣지에 대해 생성된다. 만일 그래프 신경망이 복수의 컨볼루션 레이어를 갖는 경우, 메시지는 모든 엣지에 대해 각 컨볼루션 레이어 별로 생성된다.
예를 들어, 그래프 신경망 내 3개의 컨볼루션 레이어가 존재하는 경우, 추출부(113)는 3개의 컨볼루션 레이어 각각마다 복수의 엣지 별 메시지 및 메시지 그래디언트를 추출할 수 있다. 즉, 하나의 엣지에 대해서 3개의 각기 다른 메시지와 메시지 그래디언트가 추출될 수 있다.
일 실시예에 따르면, 추출부(113)는 그래프 신경망의 예측 값과 복수의 엣지 별 메시지에 기초하여 복수의 엣지 별 메시지 그래디언트를 추출할 수 있다.
구체적으로, 추출부(113)는 그래프 신경망의 예측 값을 복수의 엣지 별 메시지에 대해 편미분 함으로써 복수의 엣지 별 메시지 그래디언트를 추출할 수 있다.
제1 산출부(115)는 추출된 복수의 엣지 별 메시지 및 메시지 그래디언트에 기초하여 각 컨볼루션 레이어에서의 엣지 중요도를 산출한다.
일 실시예에 따르면, 제1 산출부(115)는 복수의 엣지 별 메시지와 복수의 엣지 별 메시지 각각에 대응되는 메시지 그래디언트에 대해 내적(Inner Product)을 수행함으로써 각 컨볼루션 레이어에서의 엣지 중요도를 산출할 수 있다.
예를 들어, 제1 산출부(115)는 각 엣지 별 메시지의 전치(Transpose) 행렬과 각 엣지 별 메시지에 대응되는 메시지 그래디언트에 대해 내적을 수행하여 생성된 각 스칼라 값을, 각 엣지에 대응되는 각 컨볼루션 레이어에서의 엣지 중요도로 산출할 수 있다.
다른 실시예에 따르면, 제1 산출부(115)는 복수의 엣지 별 메시지 각각에 대응되는 메시지 그래디언트의 평균 값으로 구성된 행렬과 복수의 엣지 별 메시지 각각을 내적함으로써 각 컨볼루션 레이어에서의 엣지 중요도를 산출할 수도 있다.
한편 실시예에 따라서는, 제1 산출부(115)는 복수의 엣지 별 메시지, 복수의 엣지 별 메시지 그래디언트 및 각 컨볼루션 레이어에서의 엣지 중요도 중 적어도 하나를 기 정의된 후처리 함수에 기초하여 가공할 수도 있다.
즉 다시 말하면, 제1 산출부(115)는 복수의 엣지 별 메시지, 복수의 엣지 별 메시지 그래디언트 및 각 컨볼루션 레이어에서의 엣지 중요도 모두를 각기 기 정의된 후처리 함수에 기초하여 가공할 수도 있고, 이 세 가지 종류의 행렬 중 일부 종류만을 가공할 수도 있다. 이때, 각 행렬을 가공하기 위해 사용되는 후처리 함수는 동일할 수도 있으나, 서로 다를 수도 있음에 유의해야 한다.
또한 구체적으로, 후처리 함수는 각 행렬의 값은 변화시키되 행렬의 차원(dimension)은 변화시키지 않는 임의의 함수를 의미할 수 있다. 예를 들어, 후처리 함수로는 절대값 함수, ReLU 함수, min-max 정규화 함수 등이 이용될 수 있으나, 상기 정의를 만족하는 한 다른 함수도 후처리 함수로 기능할 수 있음은 자명하다.
제2 산출부(117)는 각 컨볼루션 레이어에서의 엣지 중요도에 기초하여 입력된 그래프 전체에서의 엣지 중요도를 산출한다.
즉 이를 통해, 사용자는 추가적으로 그래프 신경망을 학습하지 않고도 그래프 신경망의 예측 결과에 대한 그래프 내 엣지들과 노드들의 영향을 직관적으로 파악할 수 있게 된다.
일 실시예에 따르면, 제2 산출부(117)는 각 컨볼루션 레이어에서의 엣지 중요도를 기 정의된 대푯값 출력 함수에 입력하여 그래프 전체에서의 엣지 중요도를 산출할 수 있다.
구체적으로, 대푯값 출력 함수는 각 컨볼루션 레이어에서의 엣지 중요도를 변수로 하여 그래프 전체에서의 엣지 중요도를 대푯값으로써 출력하는 함수를 의미할 수 있다. 예를 들어, 대푯값 출력 함수로는 합계(Sum) 함수, 평균 함수, 최댓값 함수, 최솟값 함수, 첫번째 컨볼루션 레이어의 엣지 중요도를 선택하는 함수, 마지막 컨볼루션 레이어의 엣지 중요도를 선택하는 함수 등이 이용될 수 있으나, 상기 정의를 만족하는 한 다른 함수도 대푯값 출력 함수로 기능할 수 있음은 자명하다.
도 3은 일 실시예에 따른 엣지 중요도 산출 방법을 설명하기 위한 흐름도이다.
도 3에 도시된 방법은 예를 들어, 상술한 엣지 중요도 산출 장치(110)에 의해 수행될 수 있다.
우선, 엣지 중요도 산출 장치(110)는 복수의 노드 및 복수의 엣지를 포함하는 그래프를 사전 학습된 그래프 신경망(GNN; Graph Neural Network)에 입력하여 입력된 그래프에 대한 예측을 수행한다(310).
이후, 엣지 중요도 산출 장치(110)는 예측이 수행된 그래프 신경망 내 각 컨볼루션 레이어마다 복수의 엣지 별 메시지(Message) 및 메시지 그래디언트(Message Gradient)를 추출한다(320).
이후, 엣지 중요도 산출 장치(110)는 복수의 엣지 별 메시지 및 메시지 그래디언트에 기초하여 각 컨볼루션 레이어에서의 엣지 중요도를 산출한다(330).
이후, 엣지 중요도 산출 장치(110)는 각 컨볼루션 레이어에서의 엣지 중요도에 기초하여 입력된 그래프 전체에서의 엣지 중요도를 산출한다(340).
상기 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 4는 추가적인 실시예에 따른 330 단계를 상세히 설명하기 위한 흐름도이다.
도 4에 도시된 방법은 예를 들어, 상술한 엣지 중요도 산출 장치(110)에 의해 수행될 수 있다.
우선, 엣지 중요도 산출 장치(110)는 예측이 수행된 그래프 신경망 내 각 컨볼루션 레이어마다 추출된 복수의 엣지 별 메시지 및 메시지 그래디언트를 각각 기 정의된 후처리 함수에 기초하여 가공한다(410, 420).
일 실시예에 따르면, 410 단계 및 420 단계는 동시에 수행되거나 어느 한 단계가 다른 단계에 앞서 수행될 수 있으며, 410 단계 및 420 단계에서 이용되는 각 후처리 함수의 종류는 동일하거나 상이할 수 있다.
이후, 엣지 중요도 산출 장치(110)는 가공된 복수의 엣지 별 메시지 및 가공된 복수의 엣지 별 메시지 그래디언트에 기초하여 각 컨볼루션 레이어에서의 엣지 중요도를 산출한다(430).
이후, 엣지 중요도 산출 장치(110)는 산출된 각 컨볼루션 레이어에서의 엣지 중요도를 기 정의된 후처리 함수에 기초하여 가공한다(440).
일 실시예에 따르면, 440 단계에서 이용되는 후처리 함수의 종류는 410 단계 또는 420 단계에서 이용된 후처리 함수와 동일하거나 상이할 수 있다.
상기 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
특히, 상기 410 단계, 420 단계 및 440 단계는 모두 수행될 수도 있으나, 이 중 두 단계 또는 한 단계만 수행될 수도 있다.
즉, 만일 410 단계가 수행되지 않는 경우, 430 단계에서 엣지 중요도 산출 장치(110)는 가공되지 않은 복수의 엣지 별 메시지 및 가공된 복수의 엣지 별 메시지 그래디언트에 기초하여 각 컨볼루션 레이어에서의 엣지 중요도를 산출할 수 있다.
또한, 만일 420 단계가 수행되지 않는 경우, 430 단계에서 엣지 중요도 산출 장치(110)는 가공된 복수의 엣지 별 메시지 및 가공되지 않은 복수의 엣지 별 메시지 그래디언트에 기초하여 각 컨볼루션 레이어에서의 엣지 중요도를 산출할 수 있다.
한편, 만일 410 단계 및 420 단계가 모두 수행되지 않는 경우, 403 단계에서 엣지 중요도 산출 장치(110)는 가공되지 않은 복수의 엣지 별 메시지 및 가공되지 않은 복수의 엣지 별 메시지 그래디언트에 기초하여 각 컨볼루션 레이어에서의 엣지 중요도를 산출할 수 있다.
도 5는 일 실시예에 따라 엣지 중요도를 산출하는 과정을 개괄적으로 설명하기 위한 도면(500)이다.
도 5를 참조하면, 총 3개의 컨볼루션 레이어(Layer 1, Layer 2, Layer 3)를 포함하는 그래프 신경망에 입력된 그래프에 대해 엣지 중요도를 산출하는 과정이 도시된다.
먼저, 그래프 신경망에서 그래프를 입력 받아 예측을 수행한 결과, 각 컨볼루션 레이어에서 엣지 별 메시지(m1(1), m2(1), ..., mN(1))와 엣지 별 메시지 그래디언트(g1(1), g2(1), ..., gN(1))가 추출된다. 도 5에서는 편의상 Layer 1, Layer 2, Layer 3에서의 메시지와 메시지 그래디언트가 동일한 문자로 표기되어 있으나, 실시예에 따라서 각 메시지 및 메시지 그래디언트를 구성하는 행렬의 원소 값은 상이할 수 있다.
이후, 추출된 각 컨볼루션 레이어에서의 엣지 별 메시지 및 엣지 별 메시지 그래디언트들은 기 정의된 후처리 함수에 기초하여 가공된다. 도 5에서는 예시적으로 엣지 별 메시지는 항등 함수(Identity function)에 의해, 엣지 별 메시지 그래디언트는 절대값 함수(Absolute value function)에 의해 가공되는 것으로 도시되었으나, 실시예에 따라서 이용되는 후처리 함수는 이외에도 다양할 수 있다.
이후, 항등 함수에 의해 가공된 엣지 별 메시지-가공되기 전의 엣지 별 메시지와 동일함- 및 절대값 함수에 의해 가공된 엣지 별 메시지 그래디언트는 서로 내적 연산된다.
이후, 각 컨볼루션 레이어 별 내적 연산 결과 값은 기 정의된 후처리 함수에 기초하여 가공되어 각 컨볼루션 레이어에서의 엣지 중요도로 산출된다. 도 5에서는 예시적으로 내적 연산 결과 값은 ReLU 함수에 의해 가공되는 것으로 도시되었으나, 실시예에 따라서 이용되는 후처리 함수는 이외에도 다양할 수 있다. 산출된 각 컨볼루션 레이어에서의 엣지 중요도는 도 5에서 각 컨볼루션 레이어 별 열 벡터(Column vector)로 도시되었으며, 각 열 벡터의 원소 값은 각각 대응되는 엣지의 엣지 중요도 값을 의미한다.
이후, 각 컨볼루션 레이어에서의 엣지 중요도는 기 정의된 대푯값 출력 함수에 입력되어 그래프 전체에서의 엣지 중요도(S(1), S(2), ..., S(N))로 산출된다. 도 5에서는 예시적으로 각 컨볼루션 레이어에서의 엣지 중요도가 합계(sum) 함수에 입력되어 요소 별로(element-wise) 합산되는 것으로 도시되었으나, 실시예에 따라서 이용되는 대푯값 출력 함수는 이외에도 다양할 수 있다.
도 6은 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 엣지 중요도 산출 장치(110)일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 청구범위 뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.
10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 엣지 중요도 산출 시스템
110: 엣지 중요도 산출 장치
111: 순전파부
113: 추출부
115: 제1 산출부
117: 제2 산출부

Claims (12)

  1. 복수의 노드 및 복수의 엣지를 포함하는 그래프를 사전 학습된 그래프 신경망(GNN; Graph Neural Network)에 입력하여 상기 그래프에 대한 예측을 수행하는 순전파부;
    예측이 수행된 상기 그래프 신경망 내 각 컨볼루션 레이어마다 상기 복수의 엣지 별 메시지(Message) 및 메시지 그래디언트(Message Gradient)를 추출하는 추출부;
    상기 복수의 엣지 별 메시지 및 메시지 그래디언트에 기초하여 상기 각 컨볼루션 레이어에서의 엣지 중요도를 산출하는 제1 산출부; 및
    상기 각 컨볼루션 레이어에서의 엣지 중요도에 기초하여 상기 그래프 전체에서의 엣지 중요도를 산출하는 제2 산출부를 포함하는, 엣지 중요도 산출 장치.
  2. 청구항 1항에 있어서,
    상기 추출부는,
    상기 그래프 신경망의 예측 값과 상기 복수의 엣지 별 메시지에 기초하여 상기 복수의 엣지 별 메시지 그래디언트를 추출하는, 엣지 중요도 산출 장치.
  3. 청구항 2항에 있어서,
    상기 추출부는,
    상기 그래프 신경망의 예측 값을 상기 복수의 엣지 별 메시지에 대해 편미분 함으로써 상기 복수의 엣지 별 메시지 그래디언트를 추출하는, 엣지 중요도 산출 장치.
  4. 청구항 1항에 있어서,
    상기 제1 산출부는,
    상기 복수의 엣지 별 메시지와 상기 복수의 엣지 별 메시지 각각에 대응되는 메시지 그래디언트에 대해 내적(Inner Product)을 수행함으로써 상기 각 컨볼루션 레이어에서의 엣지 중요도를 산출하는, 엣지 중요도 산출 장치.
  5. 청구항 1항에 있어서,
    상기 제1 산출부는,
    상기 복수의 엣지 별 메시지, 상기 복수의 엣지 별 메시지 그래디언트 및 상기 각 컨볼루션 레이어에서의 엣지 중요도 중 적어도 하나를 기 정의된 후처리 함수에 기초하여 가공하는, 엣지 중요도 산출 장치.
  6. 청구항 1항에 있어서,
    상기 제2 산출부는,
    상기 각 컨볼루션 레이어에서의 엣지 중요도를 기 정의된 대푯값 출력 함수에 입력하여 상기 그래프 전체에서의 엣지 중요도를 산출하는, 엣지 중요도 산출 장치.
  7. 복수의 노드 및 복수의 엣지를 포함하는 그래프를 사전 학습된 그래프 신경망(GNN; Graph Neural Network)에 입력하여 상기 그래프에 대한 예측을 수행하는 단계;
    예측이 수행된 상기 그래프 신경망 내 각 컨볼루션 레이어마다 상기 복수의 엣지 별 메시지(Message) 및 메시지 그래디언트(Message Gradient)를 추출하는 단계;
    상기 복수의 엣지 별 메시지 및 메시지 그래디언트에 기초하여 상기 각 컨볼루션 레이어에서의 엣지 중요도를 산출하는 단계; 및
    상기 각 컨볼루션 레이어에서의 엣지 중요도에 기초하여 상기 그래프 전체에서의 엣지 중요도를 산출하는 단계를 포함하는, 엣지 중요도 산출 방법.
  8. 청구항 7항에 있어서,
    상기 추출하는 단계는,
    상기 그래프 신경망의 예측 값과 상기 복수의 엣지 별 메시지에 기초하여 상기 복수의 엣지 별 메시지 그래디언트를 추출하는, 엣지 중요도 산출 방법.
  9. 청구항 8항에 있어서,
    상기 추출하는 단계는,
    상기 그래프 신경망의 예측 값을 상기 복수의 엣지 별 메시지에 대해 편미분 함으로써 상기 복수의 엣지 별 메시지 그래디언트를 추출하는, 엣지 중요도 산출 방법.
  10. 청구항 7항에 있어서,
    상기 각 컨볼루션 레이어에서의 엣지 중요도를 산출하는 단계는,
    상기 복수의 엣지 별 메시지와 상기 복수의 엣지 별 메시지 각각에 대응되는 메시지 그래디언트에 대해 내적(Inner Product)을 수행함으로써 상기 각 컨볼루션 레이어에서의 엣지 중요도를 산출하는, 엣지 중요도 산출 방법.
  11. 청구항 7항에 있어서,
    상기 각 컨볼루션 레이어에서의 엣지 중요도를 산출하는 단계는,
    상기 복수의 엣지 별 메시지를 기 정의된 후처리 함수에 기초하여 가공하는 단계;
    상기 복수의 엣지 별 메시지 그래디언트를 기 정의된 후처리 함수에 기초하여 가공하는 단계; 및
    상기 각 컨볼루션 레이어에서의 엣지 중요도를 기 정의된 후처리 함수에 기초하여 가공하는 단계 중 적어도 하나를 포함하는, 엣지 중요도 산출 방법.
  12. 청구항 7항에 있어서,
    상기 그래프 전체에서의 엣지 중요도를 산출하는 단계는,
    상기 각 컨볼루션 레이어에서의 엣지 중요도를 기 정의된 대푯값 출력 함수에 입력하여 상기 그래프 전체에서의 엣지 중요도를 산출하는, 엣지 중요도 산출 방법.
KR1020210062057A 2021-05-13 2021-05-13 엣지 중요도 산출 장치 및 방법 KR20220154472A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210062057A KR20220154472A (ko) 2021-05-13 2021-05-13 엣지 중요도 산출 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210062057A KR20220154472A (ko) 2021-05-13 2021-05-13 엣지 중요도 산출 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20220154472A true KR20220154472A (ko) 2022-11-22

Family

ID=84236488

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210062057A KR20220154472A (ko) 2021-05-13 2021-05-13 엣지 중요도 산출 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20220154472A (ko)

Similar Documents

Publication Publication Date Title
Xiao et al. Graph neural networks in node classification: survey and evaluation
Chien et al. Deep unfolding for topic models
JP2020191080A (ja) 増分学習のためのデータ認識方法
US20220027777A1 (en) Generalized expectation maximization
Ray* Signed real measure of regular languages for discrete event supervisory control
KR102378887B1 (ko) 객체 탐지에서의 둘레기반 IoU 손실함수를 통한 효율적인 바운딩 박스 회귀 학습 방법 및 장치
Bagirov et al. A novel piecewise linear classifier based on polyhedral conic and max–min separabilities
CN112149809A (zh) 模型超参数的确定方法及设备、计算设备和介质
Senapati et al. Hybrid approach using KPSO and RLS for RBFNN design for breast cancer detection
CN113065997A (zh) 一种图像处理方法、神经网络的训练方法以及相关设备
Sharma et al. Opposition learning based phases in artificial bee colony
Zhang et al. A bagging dynamic deep learning network for diagnosing COVID-19
US20230229570A1 (en) Graph machine learning for case similarity
Arebi et al. An effective approach based on temporal centrality measures for improving temporal network controllability
Tsukada et al. OS-ELM-FPGA: An FPGA-based online sequential unsupervised anomaly detector
US11915120B2 (en) Flexible parameter sharing for multi-task learning
Bagirov et al. Classification through incremental max–min separability
US20210049469A1 (en) Memory remapping for sparse neural networks
KR20220154472A (ko) 엣지 중요도 산출 장치 및 방법
Guo et al. Dynamic neural network structure: A review for its theories and applications
US9600777B2 (en) Configuring and optimizing computational structure for a machine learning application using a tuple of vectors
KR102430989B1 (ko) 인공지능 기반 콘텐츠 카테고리 예측 방법, 장치 및 시스템
Ripon et al. A multi-objective evolutionary algorithm for color image segmentation
Mansuri et al. Modified DMGC algorithm using ReLU-6 with improved learning rate for complex cluster associations
KR102090109B1 (ko) 학습 및 추론 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination