KR102430743B1 - 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 - Google Patents
데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 Download PDFInfo
- Publication number
- KR102430743B1 KR102430743B1 KR1020210007411A KR20210007411A KR102430743B1 KR 102430743 B1 KR102430743 B1 KR 102430743B1 KR 1020210007411 A KR1020210007411 A KR 1020210007411A KR 20210007411 A KR20210007411 A KR 20210007411A KR 102430743 B1 KR102430743 B1 KR 102430743B1
- Authority
- KR
- South Korea
- Prior art keywords
- spatial image
- image
- model
- class
- generating
- Prior art date
Links
- 238000013434 data augmentation Methods 0.000 title claims abstract description 41
- 238000004458 analytical method Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims description 28
- 238000002372 labelling Methods 0.000 claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 29
- 230000008859 change Effects 0.000 claims description 20
- 238000004422 calculation algorithm Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 230000009471 action Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims 2
- 238000007635 classification algorithm Methods 0.000 abstract description 2
- 238000013473 artificial intelligence Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 24
- 230000003416 augmentation Effects 0.000 description 23
- 230000003190 augmentative effect Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000000746 purification Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G06T5/002—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Architecture (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른 데이터 증강 기반 사물 분석 모델 학습 장치의 기능 블록도이다.
도 3은 본 발명의 일 실시예에 따른 데이터 증강 기반 사물 분석 모델 학습 장치가 수행하는 학습 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 데이터 증강 기반 사물 분석 모델 학습 장치가 수행하는 동작의 개념도이다.
도 5는 제1 공간 이미지에 포함된 사물 이미지를 레이블링하는 경우 복수의 클래스를 저장한 세트가 생성되는 동작의 예시도이다.
도 6은 제1 공간 이미지에 포함된 픽셀 정보를 변경하여 데이터를 증강하는 실시예에 따라 생성된 제2 공간 이미지의 예시도이다.
도 7A는 제1 공간 이미지에 포함된 픽셀 정보에 그레이 스케일을 적용하여 데이터를 증강하는 실시예에 따라 생성된 제2 공간 이미지의 예시도이다.
도 7B는 제1 공간 이미지에 포함된 픽셀 정보의 일부에 노이즈를 추가하여 데이터를 증강하는 실시예에 따라 생성된 제2 공간 이미지의 예시도이다.
도 8은 제1 공간 이미지에 포함된 사물의 테두리 영역을 구분하고, 테두리가 아닌 영역에 블러를 적용하여 제2 공간 이미지를 생성하는 방법을 설명하기 위한 예시도이다.
도 9는 제1 공간 이미지에 가우시안 정규 분포에 따른 노이즈 정보를 추가하여 데이터를 증강하는 실시예에 따라 생성된 제2 공간 이미지의 예시도이다.
Claims (16)
- 데이터 증강 기반 사물 분석 모델 학습 장치에 있어서,
소정의 동작을 수행하도록 하는 명령어들을 저장하는 하나 이상의 메모리; 및 상기 하나 이상의 메모리와 동작할 수 있도록 연결되어 상기 명령어들을 실행하도록 설정된 하나 이상의 프로세서를 포함하고,
상기 프로세서가 수행하는 동작은,
제1 사물 이미지를 포함하는 제1 공간 이미지를 획득하여, 상기 제1 공간 이미지가 포함하는 픽셀 정보를 변경한 제2 공간 이미지를 생성하는 동작;
상기 제1 공간 이미지 내의 상기 제1 사물 이미지를 포함하는 영역에 바운딩 박스(bounding box)를 지정하고, 상기 바운딩 박스에 상기 제1 사물 이미지를 특정하는 제1 클래스를 레이블링하는 동작;
소정의 객체 검출알고리즘 기반으로 설계된 모델에 상기 제1 공간 이미지를 입력하여, 상기 바운딩 박스 내 상기 제1 사물 이미지와 상기 제1 클래스와의 상관관계를 도출하는 상기 모델의 가중치를 1차 학습시킴으로써, 상기 상관관계를 기초로 공간 이미지에 포함된 사물 이미지를 특정하고 클래스를 판별하는 모델을 생성하는 동작;
상기 1차 학습된 모델에 상기 제2 공간 이미지를 입력하여, 상기 모델이 상기 제2 공간 이미지 내의 제2 사물 이미지를 특정한 바운딩 박스와, 상기 모델이 상기 제2 사물 이미지에 대해 판별한 제2 클래스를 상기 제2 공간 이미지에 레이블링하는 동작; 및
상기 제2 공간 이미지를 기초로 상기 모델의 가중치를 2차 학습시킨 모델을 생성하는 동작을 포함하고,
상기 제2 공간 이미지를 생성하는 동작은,
상기 제1 공간 이미지가 포함하는 모든 픽셀의 개수만큼, 평균 0 및 표준편차 100의 표준 가우시안 정규 분포를 따르는 난수 정보를 생성하고, 상기 모든 픽셀의 각각에 상기 난수 정보 각각을 합산하여 노이즈가 삽입된 상기 제2 공간 이미지를 생성하는 동작을 포함하는,
데이터 증강 기반 사물 분석 모델 학습 장치.
- 제1항에 있어서,
상기 동작은,
사물 정보를 특정하는 복수의 클래스를 저장한 세트를 생성하는 동작을 더 포함하고,
상기 레이블링하는 동작은,
상기 제1 공간 이미지 내의 제1 사물 이미지의 영역에 바운딩 박스(bounding box)가 지정되면, 상기 세트를 출력하여 상기 제1 사물 이미지를 특정하는 제1 클래스를 선택받아, 상기 바운딩 박스에 상기 제1 클래스를 레이블링하는 동작을 포함하는,
데이터 증강 기반 사물 분석 모델 학습 장치.
- 제1항에 있어서,
상기 2차 학습시킨 모델을 생성하는 동작은,
상기 1차 학습된 모델에 상기 제2 공간 이미지를 입력하여, 상기 제2 사물 이미지와 상기 제2 클래스와의 상관관계를 도출하는 모델의 가중치를 2차 학습시킴으로써, 상기 상관관계를 기초로 공간 이미지에 포함된 사물 이미지를 특정하고 클래스를 판별하는 모델을 생성하는 동작을 포함하는,
데이터 증강 기반 사물 분석 모델 학습 장치.
- 제1항에 있어서,
상기 제2 공간 이미지에 레이블링하는 동작은,
상기 1차 학습된 모델에 상기 제2 공간 이미지를 입력하여, 상기 모델이 상기 제2 사물 이미지에 대해 판별한 제2 클래스를 상기 제1 클래스와 비교하여, 상기 제2 클래스와 상기 제1 클래스가 동일한 경우, 상기 제2 클래스의 값을 유지하고, 상기 제2 클래스와 상기 제1 클래스가 상이한 경우, 상기 제2 클래스의 값을 상기 제1 클래스와 동일한 값으로 수정하는 동작을 포함하는,
데이터 증강 기반 사물 분석 모델 학습 장치.
- 제1항에 있어서,
상기 바운딩 박스는,
하나의 바운딩 박스당 하나의 사물 이미지를 포함하되 바운딩 박스 내부에 사물 이미지의 테두리 영역이 모두 포함되도록 설정되는 것을 특징으로 하는,
데이터 증강 기반 사물 분석 모델 학습 장치.
- 제1항에 있어서,
상기 제2 공간 이미지를 생성하는 동작은,
상기 제1 공간 이미지에 포함된 픽셀 정보의 RGB 정보를 구성하는 (x, y, z) 원소값에 대하여, 소정의 기준값보다 큰 값을 가지는 원소값이 더 큰 값을 갖도록 변경하고, 상기 기준값보다 작은 값을 가지는 원소값이 더 작은 원소값을 갖도록 변경하여 상기 제2 공간 이미지를 생성하는 동작을 포함하는,
데이터 증강 기반 사물 분석 모델 학습 장치.
- 제1항에 있어서,
상기 제2 공간 이미지를 생성하는 동작은,
[수학식 3]
(src(I): 픽셀 정보의 변경 전 원소값 (x, y, z), : 상수, : 상수, dst(I): 픽셀 정보의 변경 후 원소값 (x', y', z'))
[수학식 4]
(R: 상기 dst(I)의 (x', y', z') 중 x', G: 상기 dst(I)의 (x', y', z') 중 y', B: 상기 dst(I)의 (x', y', z') 중 z', Y: 픽셀 정보의 변경 후 원소값 (x'', y'', z''))
상기 수학식 3 및 4를 기초로 상기 제1 공간 이미지로부터 상기 제2 공간 이미지를 생성하는 동작을 포함하는,
데이터 증강 기반 사물 분석 모델 학습 장치.
- 제1항에 있어서,
상기 제2 공간 이미지를 생성하는 동작은,
상기 제1 공간 이미지에 포함된 픽셀 정보의 일부에 노이즈 정보를 추가하여 상기 제2 공간 이미지를 생성하는 동작을 포함하는,
데이터 증강 기반 사물 분석 모델 학습 장치.
- 삭제
- 제1항에 있어서,
상기 모델을 생성하는 동작은,
Faster R-CNN(region-based convolutional neural network) 알고리즘을 기초로 설계된 신경망의 입력 레이어에 사물 이미지가 포함된 공간 이미지가 입력되도록 설정하고, 출력 레이어에 사물 이미지를 포함하는 바운딩 박스 및 사물 이미지의 클래스가 입력되도록 설정하여, 입력되는 공간 이미지로부터 입력되는 공간 이미지에 포함된 사물 이미지의 바운딩 박스 영역의 상관관계 및 입력되는 공간 이미지에 포함된 사물 이미지의 클래스를 판별하는 상관관계를 도출하는 신경망의 가중치를 학습시키는 동작을 포함하는,
데이터 증강 기반 사물 분석 모델 학습 장치.
- 제1항 내지 제11항 및 제13항 중 어느 한 항의 장치가 생성한 데이터 증강 기반 사물 분석 모델을 포함하는 장치.
- 데이터 증강 기반 사물 분석 모델 학습 장치가 수행하는 방법에 있어서,
제1 사물 이미지를 포함하는 제1 공간 이미지를 획득하여, 상기 제1 공간 이미지가 포함하는 픽셀 정보를 변경한 제2 공간 이미지를 생성하는 단계;
상기 제1 공간 이미지 내의 상기 제1 사물 이미지를 포함하는 영역에 바운딩 박스(bounding box)를 지정하고, 상기 바운딩 박스에 상기 제1 사물 이미지를 특정하는 제1 클래스를 레이블링하는 단계;
소정의 객체 검출알고리즘 기반으로 설계된 모델에 상기 제1 공간 이미지를 입력하여, 상기 바운딩 박스 내 상기 제1 사물 이미지와 상기 제1 클래스와의 상관관계를 도출하는 상기 모델의 가중치를 1차 학습시킴으로써, 상기 상관관계를 기초로 공간 이미지에 포함된 사물 이미지를 특정하고 클래스를 판별하는 모델을 생성하는 단계;
상기 1차 학습된 모델에 상기 제2 공간 이미지를 입력하여, 상기 모델이 상기 제2 공간 이미지 내의 제2 사물 이미지를 특정한 바운딩 박스와 상기 모델이 상기 제2 사물 이미지에 대해 판별한 제2 클래스를 상기 제2 공간 이미지에 레이블링하는 단계; 및
상기 제2 공간 이미지를 기초로 상기 모델의 가중치를 2차 학습시킨 모델을 생성하는 단계를 포함하고,
상기 제2 공간 이미지를 생성하는 단계에서,
상기 제2 공간 이미지를 생성하는 동작은 상기 제1 공간 이미지가 포함하는 모든 픽셀의 개수만큼, 평균 0 및 표준편차 100의 표준 가우시안 정규 분포를 따르는 난수 정보를 생성하고, 상기 모든 픽셀의 각각에 상기 난수 정보 각각을 합산하여 노이즈가 삽입된 상기 제2 공간 이미지를 생성하는 동작을 포함하는,
데이터 증강 기반 사물 분석 모델 학습 방법.
- 제15항의 방법을 프로세서가 수행하도록 하는 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210007411A KR102430743B1 (ko) | 2020-07-23 | 2021-01-19 | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200091759A KR102208688B1 (ko) | 2020-07-23 | 2020-07-23 | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 |
KR1020210007411A KR102430743B1 (ko) | 2020-07-23 | 2021-01-19 | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200091759A Division KR102208688B1 (ko) | 2020-07-23 | 2020-07-23 | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220012785A KR20220012785A (ko) | 2022-02-04 |
KR102430743B1 true KR102430743B1 (ko) | 2022-08-11 |
Family
ID=74239288
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200091759A KR102208688B1 (ko) | 2020-07-23 | 2020-07-23 | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 |
KR1020210007411A KR102430743B1 (ko) | 2020-07-23 | 2021-01-19 | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200091759A KR102208688B1 (ko) | 2020-07-23 | 2020-07-23 | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220358411A1 (ko) |
EP (1) | EP4040349A4 (ko) |
JP (1) | JP7336033B2 (ko) |
KR (2) | KR102208688B1 (ko) |
CN (1) | CN114830145A (ko) |
WO (1) | WO2022019390A1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021067234A1 (en) * | 2019-09-30 | 2021-04-08 | Pricewaterhousecoopers Llp | Systems and methods for training image detection systems for augmented and mixed reality applications |
KR102568482B1 (ko) * | 2023-03-02 | 2023-08-23 | (주) 씨이랩 | 군사용 영상분석을 위한 데이터증강 서비스 제공 시스템 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018169672A (ja) | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
JP6612487B1 (ja) * | 2019-05-31 | 2019-11-27 | 楽天株式会社 | 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58220524A (ja) * | 1982-06-16 | 1983-12-22 | Mitsubishi Electric Corp | 信号切換装置 |
JP2006048370A (ja) * | 2004-08-04 | 2006-02-16 | Kagawa Univ | パターン認識方法、それに用いられる教示データ生成方法およびパターン認識装置 |
KR20100102772A (ko) | 2009-03-12 | 2010-09-27 | 주식회사 퍼시스 | 실내환경 분석 시스템 및 그 방법 |
US8903167B2 (en) | 2011-05-12 | 2014-12-02 | Microsoft Corporation | Synthesizing training samples for object recognition |
US20170256038A1 (en) * | 2015-09-24 | 2017-09-07 | Vuno Korea, Inc. | Image Generating Method and Apparatus, and Image Analyzing Method |
US9864931B2 (en) | 2016-04-13 | 2018-01-09 | Conduent Business Services, Llc | Target domain characterization for data augmentation |
US10289824B2 (en) | 2016-07-22 | 2019-05-14 | Nec Corporation | Security system for facility access control |
CN108520278A (zh) | 2018-04-10 | 2018-09-11 | 陕西师范大学 | 一种基于随机森林的路面裂缝检测方法及其评价方法 |
US10565475B2 (en) * | 2018-04-24 | 2020-02-18 | Accenture Global Solutions Limited | Generating a machine learning model for objects based on augmenting the objects with physical properties |
US10489683B1 (en) | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
JP2020098455A (ja) | 2018-12-18 | 2020-06-25 | 国立大学法人豊橋技術科学大学 | 物体識別システム、物体識別方法、並びに、画像識別プログラム |
KR102646889B1 (ko) * | 2018-12-21 | 2024-03-12 | 삼성전자주식회사 | 스타일 변환을 위한 영상 처리 장치 및 방법 |
-
2020
- 2020-07-23 KR KR1020200091759A patent/KR102208688B1/ko active IP Right Grant
- 2020-11-24 WO PCT/KR2020/016741 patent/WO2022019390A1/ko unknown
- 2020-11-24 EP EP20946328.0A patent/EP4040349A4/en not_active Withdrawn
- 2020-11-24 CN CN202080085324.3A patent/CN114830145A/zh not_active Withdrawn
- 2020-11-24 JP JP2022531445A patent/JP7336033B2/ja active Active
-
2021
- 2021-01-19 KR KR1020210007411A patent/KR102430743B1/ko active IP Right Grant
-
2022
- 2022-07-21 US US17/870,519 patent/US20220358411A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018169672A (ja) | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | 教師画像を生成する方法、コンピュータおよびプログラム |
JP6612487B1 (ja) * | 2019-05-31 | 2019-11-27 | 楽天株式会社 | 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP4040349A1 (en) | 2022-08-10 |
US20220358411A1 (en) | 2022-11-10 |
KR102208688B1 (ko) | 2021-01-28 |
JP7336033B2 (ja) | 2023-08-30 |
CN114830145A (zh) | 2022-07-29 |
EP4040349A4 (en) | 2024-01-03 |
KR20220012785A (ko) | 2022-02-04 |
JP2023508641A (ja) | 2023-03-03 |
WO2022019390A1 (ko) | 2022-01-27 |
KR102208688B9 (ko) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102192899B1 (ko) | 이미지에 보케 효과를 적용하는 방법 및 기록매체 | |
Matern et al. | Exploiting visual artifacts to expose deepfakes and face manipulations | |
CN109325954B (zh) | 图像分割方法、装置及电子设备 | |
KR102485503B1 (ko) | 이미지 데이터베이스 분석 기반 상품 추천 장치 및 방법 | |
US9111375B2 (en) | Evaluation of three-dimensional scenes using two-dimensional representations | |
Nestmeyer et al. | Reflectance adaptive filtering improves intrinsic image estimation | |
US12026892B2 (en) | Figure-ground neural radiance fields for three-dimensional object category modelling | |
US11468571B2 (en) | Apparatus and method for generating image | |
Blanch et al. | End-to-end conditional gan-based architectures for image colourisation | |
KR102430743B1 (ko) | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 | |
US20210150274A1 (en) | Object recognition from images using cad models as prior | |
KR102430742B1 (ko) | 데이터 증강 기반 공간 분석 모델 학습 장치 및 방법 | |
CN113870314A (zh) | 一种动作迁移模型的训练方法及动作迁移方法 | |
JP6622150B2 (ja) | 情報処理装置および情報処理方法 | |
Burlin et al. | Deep image inpainting | |
CN117853612A (zh) | 利用人类修复模型生成经修改的数字图像 | |
CN117495894A (zh) | 图像生成处理方法及电子设备 | |
Górriz et al. | End-to-end conditional GAN-based architectures for image colourisation | |
KR102157005B1 (ko) | 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법 | |
Deshpande et al. | Fusion of handcrafted edge and residual learning features for image colorization | |
KR101117543B1 (ko) | 표지판 평가 시스템 | |
US20240428564A1 (en) | Digital image reposing techniques | |
Galdran et al. | Weakly supervised fog detection | |
Lipina | Image Colorization | |
Lebron Rivera | Underwater Image Enhancement: A Pipeline for Underwater Computer Visions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0107 | Divisional application |
Comment text: Divisional Application of Patent Patent event date: 20210119 Patent event code: PA01071R01D Filing date: 20200723 Application number text: 1020200091759 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20211215 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20220722 |
|
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20220804 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20220805 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |