KR102608304B1 - 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법 - Google Patents

컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법 Download PDF

Info

Publication number
KR102608304B1
KR102608304B1 KR1020210127616A KR20210127616A KR102608304B1 KR 102608304 B1 KR102608304 B1 KR 102608304B1 KR 1020210127616 A KR1020210127616 A KR 1020210127616A KR 20210127616 A KR20210127616 A KR 20210127616A KR 102608304 B1 KR102608304 B1 KR 102608304B1
Authority
KR
South Korea
Prior art keywords
module
task module
information
guide
task
Prior art date
Application number
KR1020210127616A
Other languages
English (en)
Other versions
KR20230045133A (ko
Inventor
차병래
Original Assignee
제노테크 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제노테크 주식회사 filed Critical 제노테크 주식회사
Priority to KR1020210127616A priority Critical patent/KR102608304B1/ko
Publication of KR20230045133A publication Critical patent/KR20230045133A/ko
Application granted granted Critical
Publication of KR102608304B1 publication Critical patent/KR102608304B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법에 관한 것으로, 보다 상세하게는 컴퓨터 비전을 위한 복잡한 딥 러닝 모델을 여러 개의 단순한 모델로 분할 및 조합하여 종래의 기능들과 확장성을 제공하는 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법에 관한 것이다.
본 발명은, 딥 러닝 시스템으로써, 컴퓨터 비전(Computer Vision)을 위한 이미지 또는 동영상 데이터를 학습데이터(Training Data: 100)로 입력받고, 상기 입력된 이미지 또는 동영상 데이터에서 인식 가능한 여러 객체들을 탐지 및 탐지된 객체의 캡션정보(Information)를 출력하기 위한 가이드과제(Guide task) 모듈(200)과, 상기 가이드과제 모듈(200)에서 생성된 이미지 객체 정보와 캡션의 파싱 정보를 이용하여 매핑정보와 인터페이스를 지원하기 위한 글루코드(Glue code) 모듈(300)과, 상기 글루코드 모듈(300)의 매핑 정보와 상기 가이드과제 모듈(200)의 정보에 의해 각각의 이미지 객체 정보의 세부적인 분류 및 상세한 정보를 각각 제공받아 상기 이미지 객체를 세부적으로 인식하는 기능을 갖는 다수의 부과제(Sub task) 모듈(400)과, 상기 다수의 부과제 모듈(400)에 의해 수행된 과제를 통합하여 출력하기 위한 집약 모듈(Integration module: 500)과, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습 데이터가 미리 설정된 임계치 이상의 변경 또는 추가되면 자동적으로 재학습을 진행시키기 위한 RPA(Robotic Process Automation: 600)을 포함하고, 상기 RPA(600)는, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습이 완료되면 가이드과제 모듈(200) 또는 부과제 모듈(400)의 가중치를 수정하며, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 버전 정보의 갱신 및 버전 관리 및 상기 글루코드 모듈(300)의 글루코드와 집약 모듈(500)의 집약 코드를 재작성 및 재배치하는 기능을 수행하고, 상기 각 모듈과 코드 중의 문제가 발생하면 시스템의 사용을 철회하여, 이전 시스템의 상태로 롤백(Rollback)하는 기능을 수행하도록 구성될 수 있다.

Description

컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법{TASK-BASED DEEP LEARNING SYSTEM AND METHOD FOR INTELLIGENCE AUGMENTED OF COMPUTER VISION}
본 발명은 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법에 관한 것으로, 보다 상세하게는 컴퓨터 비전을 위한 복잡한 딥 러닝 모델을 여러 개의 단순한 모델로 분할 및 조합하여 종래의 기능들과 확장성을 제공하는 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법에 관한 것이다.
AI는 크게 AGI(Artificial General Intelligence)와 Narrow AI로 구분한다. AGI는 인간이 할 수 있는 모든 지적 작업을 이해하거나 학습하는 지능형 에이전트의 가상 능력을 의미하며, Strong AI 또는 Full AI라 부른다. Narrow AI는 weak AI라고 하며, 사전 학습된 특정 문제 해결 또는 추론 작업(전문가 시스템)을 연구하거나 달성하기 위해 소프트웨어를 사용하는 것으로 제한된다. AI는 인간 지능의 한계를 확장하는 도구이며, AI 라기 보다는 IA(Intelligence Augmented, 지능 확장)의 개념이다. 현실에서는 도구론의 IA 개념을 적용한 다양한 서비스가 경계를 넘어 실용화가 되고 있다.
상기 AI에서 사람의 신경세포(Biological Neuron)를 모사하여 기계가 학습하도록 하는 인공신경망(Artificial Neural Network) 기반의 기계 학습법을 의미하는 딥 러닝이 있다.
특히, 상기 딥 러닝 기술은 이미지 인식, 음성 인식, 자연어 처리의 발전에 기여하면서 크게 주목받고 있다. 그리고 오늘날의 딥 러닝 모델들은 응용의 인식 성능을 높이기 위해 모델의 계층이 깊어지고(Deep), 특징(Feature)이 많아지는(Wide) 대규모 모델로 진화하고 있다.
그러나, 대형화되는 딥 러닝 모델과 대규모의 학습 데이터를 단일 머신에서 처리하기에는 한계가 있어, 대규모 분산 컴퓨팅 자원을 활용하려는 노력의 일환으로 딥 러닝 분산 플랫폼 기술이 개발되고 있으며, 이러한 딥 러닝 분산 플랫폼에서는 분산 병렬 처리를 통하여 딥 러닝 트레이닝 가속을 시도하는데, 분산 병렬 처리 방법으로 데이터 병렬 처리(Data Parallelism)와 모델 병렬 처리(Model Parallelism) 방법이 제안된 바 있다.
그러나, 상기와 같은 딥 러닝 분산 플랫폼 기술은 대용량의 학습 데이터를 학습하는데 있어 학습 속도를 향상시킬 수 있다는 장점을 제공하고 있지만, 최종적으로 학습된 학습 모델의 정확도를 함께 보장하는 것은 아니다. 즉, 딥 러닝 시스템에서 학습 속도 뿐만 아니라 주요한 요소가 학습된 모델의 정확도에 있어 이를 보장하지 못할 때 해당 딥 러닝 시스템은 정확한 결과를 출력하지 못하는 문제점이 있다.
공개특허 제10-2018-0120061호(공개일자: 2018.11.05)는 최소값과 최대값이 정해져 있지 않은 특정한 데이터(예를 들면, 재무제표 데이터)를 효율적으로 학습할 수 있는 인공 신경망 모델을 제안하고 있다.
위 인공 신경만 모델은 딥 러닝 시스템으로서, 인공 신경망 모델을 학습하는데 이용되는 적어도 하나의 학습 데이터를 획득하는 획득모듈-여기서 상기 학습 데이터 각각은, 제1특징 내지 제M특징(M은 2이상의 정수) 각각에 상응하는 M개의 특징 값을 포함함- 및 상기 적어도 하나의 학습 데이터를 이용하여 상기 인공 신경망 모델을 학습하는 학습모듈을 포함하되, 상기 인공 신경망 모델은, 입력 레이어(input layer), 변환 함수 레이어(modification function layer), 적어도 하나의 이너 프로덕트 레이어(inner product layer), 및 출력 레이어(output layer)를 포함하도록 구성되며, 상기 변환 함수 레이어는, K개(K는 2 이상의 자연수)의 변환 함수 노드를 포함하도록 구성되며, k번째 변환 함수 노드(k는 1<=k<=K를 만족하는 임의의 자연수)는, 상기 입력 레이어로부터 학습 데이터에 상응하는 M차원 벡터를 입력받고, 입력된 M차원 벡터에 포함된 각각의 특징 값에 소정의 제k 변환 함수를 적용하여 M차원 변환 값 벡터를 생성하고, 생성된 M차원 변환 값 벡터를 최상단 이너 프로덕트 레이어의 각 노드로 출력하도록 구성되는 딥 러닝 시스템이 제공된다.
즉, 최소값과 최대값이 정해져 있지 않은 특정한 데이터를 효율적으로 학습할 수 있는 인공 신경망 모델을 제안하고 있다.
상기와 같은 종래의 일반적인 딥 러닝 태스크는 도 10에 도시된 바와 같이 이미지나 동영상 데이터를 학습데이터 또는 테스트 데이터로 입력받아, 딥 러닝을 수행하여 출력하는 것으로 도시할 수 있으나, 이러한 딥 러닝은 계산 복잡성 및 다항시간 알고리즘, 차원의 저주(Curse of Dimensionality), 휴즈 현상(Hughes phenomenon), 과적합(Overfitting)문제 등의 문제점이 있다.
본 발명은 상술한 문제점을 해결하기 위해 제안된 것으로, 컴퓨터 비전을 위한 복잡한 딥 러닝 모델을 여러 개의 단순한 모델로 분할 및 조합하여 종래의 기능들과 확장성을 제공할 수 있도록 한다. 즉, 딥 러닝의 복잡한 과제(Task)를 여러 개의 단순한 부과제(Sub-task)들로 기능을 분할하며, 글루코드(Glue code)와 집약(Integration) 모듈에 의한 기능별로 조합 및 통합하여 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법을 제공하는 목적이 있다.
또한, 본 발명은 RPA 기술을 통한 여러 부과제 모듈들을 비동기적으로 훈련시키고, 주기적으로 업데이트 내용을 공유하며, 모든 업데이트를 가이드과제 모듈과 재동기화(resynchronize)할 수 있으며, 전역 지능화(Global Intelligence)에 기여할 수 있는 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법을 제공하는 목적이 있다.
한편, 본 발명은 집약 모듈을 통해 가이드과제 모듈과 단일 또는 다중 부과제 모듈들 간의 통합 및 일정 부분의 설명 가능한 XAI(Explainable AI) 기능도 제공함에 따른 통합된 지능 확장(IA, Intelligent Augmented) 기능을 수행할 수 있는 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법을 제공하는 목적이 있다.
본 발명이 해결하려는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기의 목적을 달성하기 위한 본 발명은, 딥 러닝 시스템으로써, 컴퓨터 비전(Computer Vision)을 위한 이미지 또는 동영상 데이터를 학습데이터(Training Data: 100)로 입력받고, 상기 입력된 이미지 또는 동영상 데이터에서 인식 가능한 여러 객체들을 탐지 및 탐지된 객체의 캡션정보(Information)를 출력하기 위한 가이드과제(Guide task) 모듈(200)과, 상기 가이드과제 모듈(200)에서 생성된 이미지 객체 정보와 캡션의 파싱 정보를 이용하여 매핑정보와 인터페이스를 지원하기 위한 글루코드(Glue code) 모듈(300)과, 상기 글루코드 모듈(300)의 매핑 정보와 상기 가이드과제 모듈(200)의 정보에 의해 각각의 이미지 객체 정보의 세부적인 분류 및 상세한 정보를 각각 제공받아 상기 이미지 객체를 세부적으로 인식하는 기능을 갖는 다수의 부과제(Sub task) 모듈(400)과, 상기 다수의 부과제 모듈(400)에 의해 수행된 과제를 통합하여 출력하기 위한 집약 모듈(Integration module: 500)과, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습 데이터가 미리 설정된 임계치 이상의 변경 또는 추가되면 자동적으로 재학습을 진행시키기 위한 RPA(Robotic Process Automation: 600)을 포함하고, 상기 RPA(600)는, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습이 완료되면 가이드과제 모듈(200) 또는 부과제 모듈(400)의 가중치를 수정하며, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 버전 정보의 갱신 및 버전 관리 및 상기 글루코드 모듈(300)의 글루코드와 집약 모듈(500)의 집약 코드를 재작성 및 재배치하는 기능을 수행하고, 상기 각 모듈과 코드 중의 문제가 발생하면 시스템의 사용을 철회하여, 이전 시스템의 상태로 롤백(Rollback)하는 기능을 수행하도록 구성할 수 있다.
한편 본 발명은 인공 신경망 모델 학습방법으로써, 딥 러닝 시스템이, 컴퓨터 비전(Computer Vision)을 위한 이미지 또는 동영상 데이터를 학습데이터(Training Data: 100)로 입력받고, 상기 입력된 이미지 또는 동영상 데이터에서 가이드과제(Guide task) 모듈(200)을 통해 인식 가능한 여러 객체들을 탐지하고, 탐지된 객체의 캡션정보(Information)를 출력하는 단계와, 상기 가이드과제 모듈(200)에서 생성된 이미지 객체 정보와 캡션의 파싱 정보를 이용하여 매핑정보와 인터페이스를 포함하는 글루코드(Glue code) 모듈(300)을 통해 상기 이미지 객체를 세부적으로 인식하는 기능을 갖는 다수의 부과제(Sub task) 모듈(400)을 호출하는 단계와, 상기 다수의 부과제 모듈(400)에 의해 수행된 과제를 통합하여 집약 모듈(Integration module: 500)을 통해 출력하는 단계와, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습 데이터가 미리 설정된 임계치 이상의 변경 또는 추가되면 RPA(Robotic Process Automation: 600)를 통해 자동적으로 재학습을 진행시키기 위한 단계를 포함하고, 상기 RPA(600)는, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습이 완료되면 가이드과제 모듈(200) 또는 부과제 모듈(400)의 가중치를 수정하며, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 버전 정보의 갱신 및 버전 관리 및 상기 글루코드 모듈(300)의 글루코드와 집약 모듈(500)의 집약 코드를 재작성 및 재배치하는 과정을 수행하도록 구성될 수 있다.
삭제
삭제
삭제
삭제
삭제
상술한 바와 같이 본 발명에 따르면, 본 발명은 딥 러닝의 복잡한 과제(Task)를 여러 개의 단순한 부과제(Sub-task) 모듈들로 기능을 분할하며, 글루코드(Glue code) 모듈과 집약(Integration) 모듈에 의한 기능별로 조합하고 통합할 수 있는 효과가 있다. 따라서, 본 발명은 종래의 기능들과 확장성을 제공하는 지능 확장을 제안한다.
또한, 본 발명은 집약 모듈을 통해 가이드과제 모듈과 단일 또는 다중 부과제 모듈들 간의 통합 및 일정 부분의 설명 가능한 XAI(Explainable AI) 기능도 제공함에 따른 통합된 지능 확장(IA, Intelligent Augmented) 기능을 수행할 수 있다.
한편, 본 발명은 RPA 기술을 통한 여러 부과제 모듈들을 비동기적으로 훈련시키고, 주기적으로 업데이트 내용을 공유하며, 모든 업데이트를 가이드과제 모듈과 재동기화(resynchronize)할 수 있으며, 전역 지능화(Global Intelligence)에 기여가 가능한 효과가 있다.
도 1은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 다이아그램,
도 2a 및 도 2b는 본 발명의 일 실시 예에 의한 이미지 객체의 캡션 정보,
도 3은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템에서 가이드과제 모듈과 글루코드 모듈 간의 다이아그램,
도 4는 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 부과제 모듈에서 가이드과제 모듈를 통해 입력된 데이터 기반으로 지능적이고 세부적인 정보의 생성을 설명하기 위한 다이아그램,
도 5는 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 가이드과제 모듈에서 생성한 정보에 의해 다중 부과제 모듈들에 할당되는 것을 설명하기 위한 다이아그램,
도 6은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 가이드과제 모듈를 통해 생성된 정보에 의해 부과제 모듈를 할당 및 수행 결과를 표현한 다이아그램,
도 7은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 집약 모듈을 통해 수행 결과를 표현한 다이아그램,
도 8은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 다른 실시 예로서 RPA 및 제어관리시스템의 개략적인 구성도,
도 9a 및 도 9b는 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 다른 실시 예로서 RPA 및 제어관리시스템의 동작을 설명하기 위한 다이아그램,
도 10은 종래의 일반적인 딥 러닝의 다이아그램.
이하, 첨부된 도면을 참조하여 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법을 상세히 설명한다.
도 1은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 다이아그램이고, 도 2a 및 도 2b는 본 발명의 일 실시 예에 의한 이미지 객체의 캡션 정보이며, 도 3은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템에서 가이드과제 모듈과 글루코드 모듈 간의 다이아그램이다.
또한, 도 4는 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 부과제 모듈에서 가이드과제 모듈를 통해 입력된 데이터 기반으로 지능적이고 세부적인 정보의 생성을 설명하기 위한 다이아그램이고, 도 5는 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 가이드과제 모듈에서 생성한 정보에 의해 다중 부과제 모듈들에 할당되는 것을 설명하기 위한 다이아그램이며, 도 6은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 가이드과제 모듈를 통해 생성된 정보에 의해 부과제 모듈를 할당 및 수행 결과를 표현한 다이아그램이고, 도 7은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 집약 모듈을 통해 수행 결과를 표현한 다이아그램이다.
한편, 도 8은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 다른 실시 예로서 RPA 및 제어관리시스템의 개략적인 구성도이고, 도 9a 및 도 9b는 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 다른 실시 예로서 RPA 및 제어관리시스템의 동작을 설명하기 위한 다이아그램이다.
상기 도면의 구성 요소들에 인용부호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있으며, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 설명은 생략한다. 또한, '상부', '하부', '앞', '뒤', '선단', '전방', '후단' 등과 같은 방향성 용어는 개시된 도면(들)의 배향과 관련하여 사용된다. 본 발명의 실시 예의 구성요소는 다양한 배향으로 위치설정될 수 있기 때문에 방향성 용어는 예시를 목적으로 사용되는 것이지 이를 제한하는 것은 아니다.
본 발명은 딥 러닝의 복잡한 과제(Task)를 여러 개의 단순한 부과제(Sub-task) 모듈들로 기능을 분할하며, 글루코드(Glue code) 모듈과 집약(Integration) 모듈에 의한 기능별로 조합하고 통합하도록 한다.
본 발명은 도 1에 도시된 바와 같이, 컴퓨터 비전(Computer Vision)을 위한 이미지 또는 동영상 데이터를 학습데이터(Training Data: 100)로 입력받고, 상기 입력된 이미지 또는 동영상 데이터에서 인식 가능한 여러 객체들을 탐지 및 탐지된 객체의 캡션정보(Information)를 출력하기 위한 가이드과제 모듈(200)과, 상기 가이드과제 모듈(200)에서 생성된 이미지 객체 정보와 캡션의 파싱 정보를 이용하여 매핑정보와 인터페이스를 지원하기 위한 글루코드(Glue code) 모듈(300)과, 상기 글루코드 모듈(300)의 매핑 정보와 상기 가이드과제 모듈(200)의 정보에 의해 각각의 이미지 객체의 세부적인 분류 및 상세한 정보를 각각 제공받아 상기 이미지 객체를 세부적으로 인식하는 기능들을 갖는 다수의 부과제 모듈(400)과, 상기 다수의 부과제 모듈(400)에 의해 수행된 과제를 통합하고 화이트 박스 모델을 지원하기 위한 집약 모듈(Integration module: 500)을 포함하여 구성될 수 있다.
컴퓨터 비전(Computer Vision)이 어려운 본질적인 이유는, 역 문제(inverse problem)라는 점이다. 입력 영상은 3차원 세계를 투영하여 얻은 것인데, 컴퓨터 비전은 2차원 영상으로부터 역으로 3차원 세계를 알아내는 과정이지만, 불행하게도 투영과정에서 물체까지의 거리와 같은 중요한 정보는 사라지게 된다. 다른 이유는 컴퓨터 비전이 풀어야 하는 문제의 대부분이 불량 문제(ill-posed problem)이며, 즉 문제의 답이 유일하지 않다는 것이다. 또한 영상 획득 과정에서 발생하는 여러 종류의 광학적 잡음도 어려움의 원인이 되고 있다.
컴퓨터 비전 연구는 특정 응용 상황을 염두에 두고, 상황에 맞는 높은 성능의 알고리즘을 확보하려고 노력하는 경향이 매우 짙다.
한편, 차원의 저주(Curse of Dimensionality)는 저차원 환경에서는 발생하지 않지만 고차원 공간에서 데이터를 분석하고 정리할 때 발생하는 다양한 현상을 의미하며, 차원의 저주 현상은 수치 분석, 샘플링, 조합론, 기계 학습, 데이터 마이닝 및 데이터베이스 등과 같은 영역에서 발생한다.
이러한 문제의 공통 주제는 차원이 증가하면 공간의 양이 너무 빨리 증가하여 사용 가능한 데이터가 희박해진다는 것이다. 이 희소성은 통계적 유의성이 필요한 모든 방법에 문제가 된다. 통계적으로 건전하고 신뢰할 수 있는 결과를 얻기 위해 결과를 지원하는 데 필요한 데이터의 양이 차원에 따라 기하급수적으로 증가하는 경우가 많다. 또한 데이터를 구성하고 검색하는 것은 객체가 유사한 속성을 가진 그룹을 형성하는 영역을 감지하는 데 의존하는 경우가 많다. 그러나 고차원 데이터에서는 모든 개체가 여러 면에서 희소하고 유사하지 않은 것처럼 보이기 때문에 일반적인 데이터 구성 전략이 효율적이지 못하다.
또한, 상기 차원의 저주와 과적합(Overfitting) 문제 사이에는 차원이 과적합에 정비례하는 관계가 있다. 즉, 차원이 증가함에 따라 과적합의 기회도 증가한다.
이에 본 발명은, 모든 경우에 있어 '오컴의 면도날'과 같은 간단한 가설이 최상의 선택이 될 수 있다고 가정한다. 가장 간단한 가설을 가장 먼저 고려해야 하며, 이 가설이 적합하지 않다면 모델이 보다 복잡해질 수 있다. 경험상 가장 쉬운 해결책은 간단한 모델을 구하는 것이다. 파라미터의 수를 늘리거나 복잡한 모델을 사용하면 노이즈가 추가되고 과적합할 가능성이 높아진다.
본 발명에서는 컴퓨터 비전을 위한 복잡한 딥 러닝 모델을 여러 개의 단순한 모델로 분할 및 조합하여 종래의 기능들과 확장성을 제공하는 지능 확장을 제안한다.
본 발명은 도 1에 도시된 바와 같이, 딥 러닝의 복잡한 과제(Task)를 여러 개의 단순한 부과제(Sub-task) 모듈(400)들로 기능을 분할하며, 글루코드(Glue code) 모듈(300)과 집약(Integration) 모듈(500)에 의한 기능별로 조합 및 통합하고자 다음의 절차로 진행한다.
제1 단계: 가이드과제 모듈(200)을 통해 컴퓨터 비전을 위한 이미지에서 객체 탐지를 수행함.
제2 단계: 가이드과제 모듈(200)에서 생성된 정보를 이용하여 글루코드 모듈(300)은 부과제 모듈(400)을 호출함.
제3 단계: 부과제 모듈(400)은 이미지 객체를 세부적으로 인식하는 다양한 기능들을 구성함.
제4 단계; 집약 모듈(500)을 통해 과제(Task) 통합과 화이트 박스 모델을 지원하고자 함.
상기 도 2a 및 도 2b는 본 발명의 일 실시 예에 의한 이미지 객체의 캡션 정보를 도시한 것이고, 도 3은 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템에서 가이드과제 모듈과 글루코드 모듈 간의 다이아그램이다.
상기 가이드과제 모듈(200)은 이미지 객체를 분류하는 기능 및 단순한 캡션 정보를 제공하며 세부적인 업무를 위한 부과제 모듈들(400)의 사전 가이드 역할을 수행한다.
상기 부과제 모듈(400)은 가이드과제 모듈(200)의 정보와 글루코드 모듈(300)의 매핑 정보에 의해서 부과제 모듈(400)에 각각의 이미지 객체의 세부적인 분류 및 상세한 정보를 제공하게 된다.
도 4 내지 도 7는 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 각 모듈을 통해 수행된 결과를 설명하기 위한 다이아그램으로, 상기 글루코드 모듈(300)은 가이드과제 모듈(200)과 단일 또는 다중 부과제 모듈(400) 간의 매핑(mapping) 및 인터페이스를 제공한다. 또한 글루코드 모듈(300)은 상기 가이드과제 모듈(200)의 이미지 객체 정보와 캡션의 파싱 정보를 이용하여 적합한 부과제 모듈(400)과의 매핑과 입력 데이터의 부과제 모듈(400)의 인터페이스를 지원하게 된다. 이러한 기능에 의해서 복잡한 다중 업무 수행을 위한 지능 확장(Intelligence Augmented)이 가능하게 된다.
상기 집약 모듈(500)은 가이드과제 모듈(200)과 단일 또는 다중 부과제 모듈들(400) 간의 통합 및 일정 부분의 설명 가능한 XAI(Explainable AI) 기능도 제공함에 따른 통합된 지능 확장(IA, Intelligent Augmented) 기능을 수행한다.
도 3은 본 발명에 의한 가이드과제 모듈과 글루코드 모듈 간의 개념 다이어그램을 보여준다.
이하, 상기와 같이 구성된 본 발명에 의한 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템의 내부동작을 상세히 설명한다.
상기 가이드과제 모듈(200)은 학습데이터(100)로 입력된 이미지 또는 동영상 데이터에서 인식 가능한 여러 객체들을 탐지 및 탐지된 객체의 캡션 정보(information)를 출력하여 글루코드 모듈(300)에게 전달하게 된다.
상기 글루코드 모듈(300)은 부과제 모듈(400)을 호출한다. 즉, 캡션정보를 파싱하여 부과제 모듈들(400)에서 적합한 부과제 모듈을 선택하고, 원본 데이터를 선택된 부과제 모듈로 매핑한다.
상기 가이드과제 모듈(200)과 글루코드 모듈(300)은 항상 우선적으로 가이드과제를 수행하면서 자동적으로 글루코드를 연달아 수행하는 등의 상관관계가 존재하게 된다.
상기 글루코드 모듈(300)은 입력되어 탐지된 객체 정보와 캡션 정보를 파싱하여 가장 적합한 부과제 모듈을 선택 및 매핑하게 된다. 즉, 도 3에 도시된 바와 같이, 부과제 모듈 #1(401)은 가이드과제 모듈(300) 보다 입력된 데이터 기반으로 지능적이고 세부적인 정보(knowledge)를 생성하게 된다.
상기 글루코드 모듈(300)은 상기 가이드과제 모듈(300)에서 생성된 정보(객체와 캡션)를 입력받아 가장 적합한 부과제 모듈(400)을 할당하는 것으로, 상기 가이드과제 모듈(300)에서 생성한 정보에 의해 다중 부과제 모듈 #2(402)와 부과제 모듈 #n(400n)이 할당되게 된다. 즉, 가이드과제 모듈(300)에서 생성한 정보에 의해 부과제 모듈(400)을 할당하고 각각의 학습을 수행하게 된다.
상기 가이드과제 모듈(200)은 이미지 또는 동영상에서 객체를 탐지하고, 부과제 모듈들(400)은 객체의 세부적인 내용을 분석하게 된다. 그러므로 집약모듈(500)에서 지능확장이 가능하게 된다.
상기 집약모듈(500)은 가이드과제 모듈(300)의 정보와 부과제 모듈(400)의 지식을 통합한 정보체계를 제공함으로 지능 확장(IA) 기능을 제공할 수 있게 된다.
상기와 같이, 학습이 완료되면 평가(1차 훈련 데이터, 2차 테스트 데이터)에 의해서 학습된 가중치의 적용 여부를 결정하게 된다.
새롭게 학습된 가중치를 적용하면 기존 버전 정보(v.1 -> v.1.1)를 증가시키고 추가한다.
학습데이터의 임계치는 크게 3가지로 분류할 수 있다.
학습 데이터의 증가로 기존 학습 데이터보다 5% 이상 증가시 RPA를 통한 재학습을 진행하고, 학습 데이터를 이용한 훈련 평가 또는 테스트 평가로 성능이 향상되면 버전 정보 생성 및 응용에 적용한다.
한편 본 발명은 상기 도 8에 도시된 바와 같이, RPA 기술을 통한 여러 부과제 모듈(400)들을 비동기적으로 훈련시키고, 주기적으로 업데이트 내용을 공유하며, 모든 업데이트를 가이드과제 모듈(200)과 재동기화(resynchronize)할 수 있으며, 전역 지능화(Global Intelligence)에 기여가 가능하다. 또한, RPA 기술을 이용하여 특정 상황에서 여러 부과제 모듈(400)의 머신러닝 모델을 결합해 적용해볼 경우 종종 상대적으로 작은 시나리오에 영향을 미치는 많은 제약사항을 제거해 기대 이상의 결과를 얻어낼 수 있었다.
RPA를 이용한 다양한 모델들의 학습이 진행되며, 훈련 평가 또는 테스트 평가로 성능이 향상되면 버전 정보 생성 및 응용에 적용한다.
성능 향상된 학습 가중치를 이용하여 버전정보 관리와 글르코드, 집약 모듈의 정보를 재작성 및 재배치하게 된다.
상기 RPA는, 로봇 프로세스 자동화(Robotic Process Automation)로 비즈니스 과정 중 반복적이고 단순한 업무 프로세스에 소프트웨어를 적용해 자동화하는 것을 뜻한다. 로봇과 인공지능, 드론 등 인간의 일을 대신해줄 수 있는 기술 발전이 폭발적으로 이뤄지면서 주목을 받고 있다.
RPA 솔루션 기업들은 AI와 RPA를 보다 유기적으로 연결하는 시도를 하고 있다. RPA와 상호 작용할 수 있도록 플랫폼과 연결한다. 플랫폼은 기업의 머신 러닝 모델과 RPA 디자인 툴 사이에서 가교 역할을 한다. 로봇의 업무 수행시 바로 업로드 되는 데이터가 머신 러닝 모델을 재학습하게 하고, 실제 데이터에 기반을 둔 모델을 빠르게 진화할 수 있다는 것이 바로 RPA + AI 플랫폼 아이디어이다. 물론 그 진화의 과정에서 머신 러닝 버전과 RPA와 연결됨으로써 자동 관리될 것이다.
상기 가이드과제 모듈(200)과 다중 부과제 모듈(400)이 비동기적으로 훈련이 진행되므로 개별적으로 버전 관리가 되어야 하며 수행할 업무에 따른 가이드과제 모듈(200)과 다중 부과제 모듈(400)들의 버전에 의한 글루코드 모듈(300)의 글루코드를 재작성하여 전역 지능화를 통한 태스트를 수행하게 된다.
본 발명은 외부 지원을 위한 딥 러닝 구조를 상기 도 8과 같이 구성할 수 있을 뿐만 아니라 CDA(Connected Data Architecture)의 인터페이스에 의한 태스크 기반 딥 러닝 구조(Deep Learning Architecture)를 위한 컴퓨팅 자원들을 지원하게 할 수도 있다.
상기 CDA의 인터페이스는 클라우드 컴퓨팅 자원과의 원격 인터페이스(Remote Interface)를 의미하며, CDA 인터페이스는 데이터 레이크(Data Lake) 자원과의 원격 인터페이스를 포함한다.
위와 같이 외부 자원을 지원하기 위해서는 1차적으로 데이터 레이크(Data Lake) 스토리지와 프레임워크가 필요하며, 2차적으로는 CDA(Connected Data Architecture)의 지원이 필요하다(특허 제10-2084219호, “데이터레이크 프레임워크의 연결 데이터 아키텍쳐”참조). 여기서 상기 데이터 레이크 스토리지와 프레임워크는 내부의 확장성을 지원하며, CDA는 외부 및 응용영역의 확장성을 지원하기 위한 구성이다.
RPA(Robot Process Automation: 600)는 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습 데이터가 임의의 임계치 이상의 변경 또는 추가되면 자동적으로 재학습을 진행하게 된다.
상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습이 완료되면 가이드과제 모듈(200) 또는 부과제 모듈(400)의 가중치를 수정하게 된다.
더불어, 상기 RPA(600)을 통해 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 버전 정보의 갱신 및 버전 관리가 진행됨과 동시에 글루코드 모듈(300)의 글루코드와 집약 모듈(500)의 집약 코드가 재작성 및 재배치하게 된다. 또한 상기 글루코드와 집약코드의 버전 관리도 진행된다.
위의 모든 절차는 2PC(Two-phase commit protocol)에 의하여 완료되어야 시스템의 무결성을 지원할 수 있게 된다.
즉, 상기 도 9a에 도시된 바와 같이, 상기 RPA(600)는 커밋 요청단계Commit-request phase)를 수행한다. 다시 말해, 상기 가이드과제 모듈(200), 부과제 모듈(400) 또는 상기 글루코드 및 집약코드(Integration code)의 버전 정보가 갱신되거나 추가적인 학습 또는 코드 수정이 완료되면 완료를 요청한다.
한편, 상기 모든 모델과 코드들이 완료되면 시스템의 사용을 허가하게 되며, 상기 도 9b에 도시된 바와 같이 모든 모델과 코드 중의 하나라도 문제가 발생하면 시스템의 사용을 철회하게 되며, 이전 시스템의 상태로 롤백(Rollback)하게 된다.
본 실시예에 따른 각 순서도에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 순서도에 기재된 과정을 변경하여 실행하거나 하나 이상의 과정을 병렬적으로 실행하는 것이 적용 가능할 것이므로, 순서도는 시계열적인 순서로 한정되는 것은 아니다.
본 명세서에 설명되는 시스템들 및 기법들의 다양한 구현예들은, 디지털 전자 회로, 집적 회로, FPGA(field programmable gate array), ASIC(application specific integrated circuit), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합으로 실현될 수 있다. 이러한 다양한 구현예들은 프로그래밍가능 시스템 상에서 실행가능한 하나 이상의 컴퓨터 프로그램들로 구현되는 것을 포함할 수 있다. 프로그래밍가능 시스템은, 저장 시스템, 적어도 하나의 입력 디바이스, 그리고 적어도 하나의 출력 디바이스로부터 데이터 및 명령들을 수신하고 이들에게 데이터 및 명령들을 전송하도록 결합되는 적어도 하나의 프로그래밍가능 프로세서(이것은 특수 목적프로세서일 수 있거나 혹은 범용 프로세서일 수 있음)를 포함한다. 컴퓨터 프로그램들(이것은 또한 프로그램들, 소프트웨어, 소프트웨어 애플리케이션들 혹은 코드로서 알려져 있음)은 프로그래밍가능 프로세서에 대한 명령어들을 포함하며 "컴퓨터가 읽을 수 있는 기록매체"에 저장된다.
컴퓨터가 읽을 수 있는 기록매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 이러한 컴퓨터가 읽을 수 있는 기록매체는 ROM, CD-ROM, 자기 테이프, 플로피디스크, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등의 비휘발성(non-volatile) 또는 비일시적인(non-transitory) 매체일 수 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송) 및 데이터 전송 매체(data transmission medium)와 같은 일시적인(transitory) 매체를 더 포함할 수도 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다.
본 명세서에 설명되는 시스템들 및 기법들의 다양한 구현예들은, 프로그램가능 컴퓨터에 의하여 구현될 수 있다. 여기서, 컴퓨터는 프로그램가능 프로세서, 데이터 저장 시스템(휘발성 메모리, 비휘발성 메모리, 또는 다른 종류의 저장 시스템이거나 이들의 조합을 포함함) 및 적어도 한 개의 커뮤니케이션 인터페이스를 포함한다.
예컨대, 프로그램가능 컴퓨터는 서버, 네트워크 기기, 셋탑 박스, 내장형 장치, 컴퓨터 확장 모듈, 개인용 컴퓨터, 랩탑, PDA(Personal Data Assistant), 클라우드 컴퓨팅 시스템 또는 모바일 장치 중 하나일 수 있다.
앞에서 설명되고, 도면에 도시된 본 발명의 실시 예들은 본 발명의 기술적 사상을 한정하는 것으로 해석되어서는 안 된다. 본 발명의 보호범위는 청구범위에 기재된 사항에 의하여만 제한되고, 본 발명의 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 다양한 형태로 개량 변경하는 것이 가능하다. 따라서 이러한 개량 및 변경은 통상의 지식을 가진 자에게 자명한 것인 경우에는 본 발명의 보호범위에 속하게 될 것이다.
100: 학습 데이터(Training Data)
200: 가이드과제 모듈(Guide task module)
300: 글루코드 모듈(Glue code module)
400: 부과제 모듈(Sub task modules)
500: 집약 모듈(Integration module)
600: RPA

Claims (5)

  1. 딥 러닝 시스템으로써,
    컴퓨터 비전(Computer Vision)을 위한 이미지 또는 동영상 데이터를 학습데이터(Training Data: 100)로 입력받고,
    상기 입력된 이미지 또는 동영상 데이터에서 인식 가능한 여러 객체들을 탐지 및 탐지된 객체의 캡션정보(Information)를 출력하기 위한 가이드과제(Guide task) 모듈(200)과,
    상기 가이드과제 모듈(200)에서 생성된 이미지 객체 정보와 캡션의 파싱 정보를 이용하여 매핑정보와 인터페이스를 지원하기 위한 글루코드(Glue code) 모듈(300)과,
    상기 글루코드 모듈(300)의 매핑 정보와 상기 가이드과제 모듈(200)의 정보에 의해 각각의 이미지 객체 정보의 세부적인 분류 및 상세한 정보를 각각 제공받아 상기 이미지 객체를 세부적으로 인식하는 기능을 갖는 다수의 부과제(Sub task) 모듈(400)과,
    상기 다수의 부과제 모듈(400)에 의해 수행된 과제를 통합하여 출력하기 위한 집약 모듈(Integration module: 500)과,
    상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습 데이터가 미리 설정된 임계치 이상의 변경 또는 추가되면 자동적으로 재학습을 진행시키기 위한 RPA(Robotic Process Automation: 600)을 포함하고,
    상기 RPA(600)는, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습이 완료되면 가이드과제 모듈(200) 또는 부과제 모듈(400)의 가중치를 수정하며, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 버전 정보의 갱신 및 버전 관리 및 상기 글루코드 모듈(300)의 글루코드와 집약 모듈(500)의 집약 코드를 재작성 및 재배치하는 기능을 수행하고, 상기 각 모듈과 코드 중의 문제가 발생하면 시스템의 사용을 철회하여, 이전 시스템의 상태로 롤백(Rollback)하는 기능을 수행하는 것을 특징으로 하는 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템.
  2. 인공 신경망 모델 학습방법으로써,
    딥 러닝 시스템이, 컴퓨터 비전(Computer Vision)을 위한 이미지 또는 동영상 데이터를 학습데이터(Training Data: 100)로 입력받고,
    상기 입력된 이미지 또는 동영상 데이터에서 가이드과제(Guide task) 모듈(200)을 통해 인식 가능한 여러 객체들을 탐지하고, 탐지된 객체의 캡션정보(Information)를 출력하는 단계와,
    상기 가이드과제 모듈(200)에서 생성된 이미지 객체 정보와 캡션의 파싱 정보를 이용하여 매핑정보와 인터페이스를 포함하는 글루코드(Glue code) 모듈(300)을 통해 상기 이미지 객체를 세부적으로 인식하는 기능을 갖는 다수의 부과제(Sub task) 모듈(400)을 호출하는 단계와,
    상기 다수의 부과제 모듈(400)에 의해 수행된 과제를 통합하여 집약 모듈(Integration module: 500)을 통해 출력하는 단계와,
    상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습 데이터가 미리 설정된 임계치 이상의 변경 또는 추가되면 RPA(Robotic Process Automation: 600)를 통해 자동적으로 재학습을 진행시키기 위한 단계를 포함하고,
    상기 RPA(600)는, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 학습이 완료되면 가이드과제 모듈(200) 또는 부과제 모듈(400)의 가중치를 수정하며, 상기 가이드과제 모듈(200) 또는 부과제 모듈(400)의 버전 정보의 갱신 및 버전 관리 및 상기 글루코드 모듈(300)의 글루코드와 집약 모듈(500)의 집약 코드를 재작성 및 재배치하는 과정을 수행하는 것을 특징으로 하는 컴퓨터 비전의 지능확장을 위한 딥 러닝 방법.
  3. 삭제
  4. 삭제
  5. 삭제
KR1020210127616A 2021-09-28 2021-09-28 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법 KR102608304B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210127616A KR102608304B1 (ko) 2021-09-28 2021-09-28 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210127616A KR102608304B1 (ko) 2021-09-28 2021-09-28 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20230045133A KR20230045133A (ko) 2023-04-04
KR102608304B1 true KR102608304B1 (ko) 2023-12-01

Family

ID=85928689

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210127616A KR102608304B1 (ko) 2021-09-28 2021-09-28 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102608304B1 (ko)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102137329B1 (ko) * 2018-12-24 2020-07-23 주식회사 포스코아이씨티 딥러닝 기반의 얼굴인식모델을 이용하여 특징벡터를 추출하는 얼굴인식시스템

Also Published As

Publication number Publication date
KR20230045133A (ko) 2023-04-04

Similar Documents

Publication Publication Date Title
Imambi et al. PyTorch
US11836610B2 (en) Concurrent training of functional subnetworks of a neural network
Jia et al. Caffe: Convolutional architecture for fast feature embedding
US11907675B2 (en) Generating training datasets for training neural networks
CN113449858A (zh) 一种神经网络模型的处理方法以及相关设备
Han et al. Parameter-efficient fine-tuning for large models: A comprehensive survey
US20210133630A1 (en) Model induction method for explainable a.i.
KR102405578B1 (ko) 지식 그래프를 이용한 상황 인지형 다중 문장 관계 추출 방법 및 장치
Sarang Artificial neural networks with TensorFlow 2
CN112465147A (zh) 机器学习的随机数据增强
JP7451015B2 (ja) オブジェクト検出のための訓練データの生成
US20220036232A1 (en) Technology for optimizing artificial intelligence pipelines
KR20210076691A (ko) 프레임워크 간 뉴럴 네트워크의 학습을 검증하는 방법 및 장치
CN113316790B (zh) 用于自主学习代理中的无监督域适应的系统、方法和介质
US20220358658A1 (en) Semi Supervised Training from Coarse Labels of Image Segmentation
Bobek et al. KnAC: an approach for enhancing cluster analysis with background knowledge and explanations
US11989628B2 (en) Machine teaching complex concepts assisted by computer vision and knowledge reasoning
US20220121924A1 (en) Configuring a neural network using smoothing splines
KR102608304B1 (ko) 컴퓨터 비전의 지능확장을 위한 딥 러닝 시스템 및 방법
CN112748953A (zh) 基于神经网络模型的数据处理方法、装置及电子设备
CN110889316B (zh) 一种目标对象识别方法、装置及存储介质
US20220375205A1 (en) Aggregating Nested Vision Transformers
US20220366188A1 (en) Parameterized neighborhood memory adaptation
US20190065586A1 (en) Learning method, method of using result of learning, generating method, computer-readable recording medium and learning device
CN111062477A (zh) 一种数据处理方法、装置及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant