KR20180065950A - 이미지 처리 시스템 - Google Patents

이미지 처리 시스템 Download PDF

Info

Publication number
KR20180065950A
KR20180065950A KR1020170167636A KR20170167636A KR20180065950A KR 20180065950 A KR20180065950 A KR 20180065950A KR 1020170167636 A KR1020170167636 A KR 1020170167636A KR 20170167636 A KR20170167636 A KR 20170167636A KR 20180065950 A KR20180065950 A KR 20180065950A
Authority
KR
South Korea
Prior art keywords
neural network
image
processing
images
preprocessing
Prior art date
Application number
KR1020170167636A
Other languages
English (en)
Inventor
사라 랑느
뱅상 데스피에쥬
얀 라파엘 리프쉬츠
스테빤 장트릭
Original Assignee
아이데미아 아이덴티티 앤드 시큐리티 프랑스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이데미아 아이덴티티 앤드 시큐리티 프랑스 filed Critical 아이데미아 아이덴티티 앤드 시큐리티 프랑스
Publication of KR20180065950A publication Critical patent/KR20180065950A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/00268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/009
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Signal Processing (AREA)

Abstract

이미지들 (4) 의 처리를 위한 시스템 (1) 으로서, 바람직하게는 컨볼루션 기반의 (CNN), 메인 신경 네트워크 (2) 및 상기 메인 신경 네트워크 (2) 의 업스트림에 있는, 상기 메인 신경 네트워크 (2) 에 의해 처리되기 이전에, 파라미터들에 대해 미분가능한 적어도 하나의 파라메트릭 변환 (f) 을 실행하기 위한, 바람직하게는 컨볼루션 기반의, 적어도 하나의 전처리 신경 네트워크 (6) 를 포함하고, 이 변환은 이미지의 픽셀들 중 적어도 일부에 적용되고, 형태
Figure pat00007
(여기서 p는 원래 이미지의 또는 이 이미지 분해의 처리된 픽셀이며, p'는 변환된 이미지의 또는 그 분해의 픽셀이며, V(p)는 픽셀 p의 이웃이며, 그리고 Θ는 파라미터들의 벡터임) 이며, 상기 전처리 신경 네트워크 (6) 는 상기 메인 신경 네트워크 (2) 의 학습과 동시에 수행되는 학습의 적어도 일부를 갖는, 이미지 처리 시스템.

Description

이미지 처리 시스템{SYSTEM FOR PROCESSING IMAGES}
본 발명은 신경 네트워크들을 사용하여 이미지를 처리하는 시스템에 관한 것으로, 보다 상세하게는 전적으로는 아니지만 바이오메트리 (biometry), 특히 얼굴들의 인식을 목적으로 하는 것들에 관한 것이다.
얼굴들 또는 다른 대상들을 인식하기 위해 소위 컨볼루션 신경 네트워크 (CNN; convolution neural network) 들을 사용하는 것이 제안되었다. Yann Le Cun 외, 436 NATURE VOL 521, 2015년 5월 28일의 Deep Learning 기사는 이러한 신경 네트워크들의 소개를 포함한다.
또한, 예를 들어 감마 또는 로컬 콘트라스트를 보정함으로써 예를 들어 콘트라스트의 결여와 같은 이미지의 결함을 보정하기 위해 이미지의 전처리를 수행하려는 것이 일반적이다.
얼굴들의 바이오메트릭 인식은 이미지 획득 및 조명 조건들이 매우 다양하므로 행해질 보정을 선택하는데 어려움을 겪는다. 더욱이, 컨볼루션 신경 네트워크들의 성능 향상은 완전히 학습된 숨겨진 계층들과 관련되기 때문에, 이러한 네트워크들의 업스트림에 적용하는 것이 유용할 수 있는 이미지 처리를 이해하는데 어려움을 겪는다.
결과적으로, 보다 더 강력한 프로세서들의 빠른 개발에 고취되어, 현재의 경향은 컨볼루션 신경 네트워크들의 파워를 증가시키고, 어떠한 전처리와도 무관하게 이들 네트워크들의 성능을 향상시키기 위해 다양하게 변경된 이미지들에 대한 학습을 확대하는 것이다.
그러나, 더 효과적일지라도, 이들 시스템은 아티팩트들의 존재 및 이미지 품질의 저하에 대해 완전히 견고하지 않다. 또한, 컴퓨팅 리소스들의 계산 파워를 증가시키 것은 비교적 비싼 솔루션이며, 항상 적합한 것은 아니다.
따라서, 문제가 되는 이미지들의 예들에 의해 학습 기반들을 풍부하게 하거나, 또는 배우고자 하는 문제와 관계없이 이미지 처리를 업스트림으로 수행하는 것으로 이루어지는, 이미지 품질의 문제들에 대한 기존 솔루션은 완전히 만족스럽지 않다.
결과적으로, 특히 다양한 노이즈에 대해 보다 견고하게 하고, 따라서 더 낮은 품질의 이미지들과 관련하여 인식 성능을 향상시키도록, 컨볼루션 신경 네트워크들에 기초한 바이오메트릭 체인들을 더욱 강화할 필요가 여전히 있다.
Peng Xi 외의 기사: "심신경 네트워크들를 이용한 제한된 훈련 데이터로부터의 얼굴 인식 학습 (Learning face recognition from limited training data using deep neural networks)", 제 23 회 패턴 인식 국제 회의, 2016년 12월 4일, 1442-1447 페이지는, 이미지에 아핀 변환을 적용하기 위한 제 1 신경 네트워크, 및 이로써 변환된 이미지들의 인식을 위한 제 2 신경 네트워크를 사용하여 얼굴을 인식하는 방식을 설명한다.
Svoboda Pavel 외의 기사: "번호판 이동 디블러링에 대한 CNN (CNN for license plate motion deblurring)", 이미지 처리에 관한 국제 회의, 2016년 9월 25일, 3832-3836 페이지는, CNN 네트워크를 사용하여 등록판을 소멸시키는 방법을 설명한다.
Chakrabarti Ayan의 기사: "맹인 이동 디블러링에 대한 신경 접근 (A Neural Approach to Blind Motion Deblurring)", ECCV 2016, 9907권, 221-235 페이지는 노이즈 제거 목적을 위한 컨벌루션 파라미터들을 추정하기 위해 신경 네트워크에 의해 이들 데이터를 학습하기 전에 주파수 영역으로 이미지들을 변환하는 것을 설명한다.
기사 공간 변환자 네트워크들 (Spatial Transformer Networks), Max Jaderberg, Karen Simonyan, Andrew Zisserman, Koray Kavukcuoglu, NIPS 2015 는 문자 인식을 위해 설계된 처리 시스템을 설명하며, 회전 및 스케일링과 같은 공간 변환을 실행하기 위해 컨벌루션 사전처리 신경 네트워크이 사용된다. 바이오메트리와 관련된 문제는 이 기사에서 다루지 않는다. 픽셀들에 적용된 변환들은 전체 이미지에 적용된다.
본 발명은, 그 양태들 중 하나에 따라, 바람직하게는 컨볼루션 기반의 (CNN), 메인 신경 네트워크 및 메인 신경 네트워크의 업스트림에 있는, 메인 신경 네트워크에 의해 처리되기 이전에, 파라미터들에 대해 미분가능한 적어도 하나의 파라메트릭 변환을 실행하기 위한, 바람직하게는 컨볼루션 기반의, 적어도 하나의 전처리 신경 네트워크를 포함하는 이미지 처리 시스템에 의해, 상기에서 호출된 요구를 충족하며, 이 변환은 이미지의 픽셀들의 적어도 일부에 적용되고, 전처리 신경 네트워크는 메인 신경 네트워크과 동시에 수행되는 학습의 적어도 일부를 갖는다.
본 발명의 이러한 제 1 양태에 따른 변환 (f) 은 다음의 형태이며,
Figure pat00001
여기서, p는 원래 이미지의 또는 이 이미지 분해의 처리된 픽셀이며, p'는 변환된 이미지의 또는 그 분해의 픽셀이며, V(p)는 픽셀 p의 이웃 (neighborhood) 이며 (용어의 수학적 의미에서), 그리고 Θ는 파라미터들의 세트이다. 이웃 V(p)는 전체 이미지를 포괄하지 않는다.
따라서, 전처리 네트워크는 변환 (f) 을 적용함으로써 파라미터들의 적어도 하나의 벡터 Θ의 하나 이상의 맵들을 추정하는 것을 가능하게 하며, Θ= {Θ1, Θ2, ..., Θn} 이다.
"맵"이란 해상도가 이미지의 것과 같거나 다를 수 있는 매트릭스를 의미한다.
이미지의 분해는, 예를 들어 위상과 모듈러스를 분리하는 것에 의한 푸리에 변환을 통해, 이미지를 여러 컴포넌트들로 분리하는 것을 의미하는 것으로 이해된다.
하나의 픽셀에 적용된 변환은 이미지의 다른 픽셀들에 적용되는 변환과는 독립적일 수 있다. 따라서, 전처리 네트워크에 의해 수행된 변환은 이미지의 픽셀들의 일부에만 적용될 수 있다.
적용되는 변환은 위에서 기술한 공간 변환자 네트워크 (Spatial Transformer Networks) 의 기사에서처럼 전체 이미지에 적용된 공간 변환 이외의 것이며, 결과적으로 자르기, 이동, 회전, 상상 (homothety), 평면상의 투영 또는 대칭 이외의 것이다.
적용되는 변환은 공간 불변일 수 있으며, 즉 이미지 상의 픽셀들의 어떠한 변위도 수반하지 않을 수 있다.
메인 신경 네트워크로 전처리 네트워크를 훈련하는 것은, 훈련된 메인 신경 네트워크에 의해 결정되는 것과 같은 디스크립터들의 분석의 필요성에 완벽하게 맞는 보정을 하는 것을 가능하게 한다.
따라서, 화상 처리 시스템의 성능은, 학습 데이터의 풍부화에 기초한 공지된 솔루션들과 대조적으로, 디스크립터들의 학습을 위한 메인 네트워크의 깊은 계층들의 용량 보존을 가능하게 하면서, 이미지 품질 문제들의 보완에 전념해야 하는 것을 회피하면서, 개선된다.
다른 예들 중에서, 전처리 신경 네트워크는 이미지 압축 아티팩트들 및/또는 이미지의 선예도에 대해 작용하도록 구성될 수 있다.
신경 네트워크는 또한 시작 이미지에 표색 변환을 적용하도록 구성될 수 있다.
보다 일반적으로, 실행되는 이미지 전처리는 다음 이미지 처리 연산자들 중 하나 이상으로 구성될 수 있다.
- 픽셀 단위 (또는 포인트 단위) 수정 연산자들. 이것은 예를 들어 컬러, 색조 또는 감마 보정들 또는 노이즈 임계화 (thresholding) 연산들과 관련된다.
- 로컬 연산자들, 특히 로컬 블러 또는 콘트라스트를 관리하는 로컬 연산자들, 픽셀의 이웃에 의존하는 로컬 연산자, 즉 하나 초과의 픽셀이지만 전체 이미지보다 적음; 로컬 연산자는 입력 픽셀의 이웃에 기초하여 출력 픽셀을 획득하는 것을 가능하게 한다;
- (이미지 변환 후의) 주파수 공간에서 연산자들, 및
- 보다 일반적으로, 원래 이미지로부터 추론된 다중 이미지 표현에 대한 임의의 연산.
하나 이상의 연산자들을 주파수 공간에 포함시킴으로써 압축 아티팩트를 감소시키거나 이미지의 선예도, 선명도 또는 콘트라스트를 향상시키는 것과 같이 아날로그 또는 디지털 노이즈를 감소시키기 위한 다양한 가능성을 마련했다.
이들 연산자들은 히스토그램 균등화, 이미지의 동적 스윙의 보정, 패턴 (예를 들어, 디지털 워터마크 또는 "워터 마킹" 유형) 의 삭제 또는 주파수 보정과 같은 다양한 필터링들 및 이미지에서 관련 정보를 복구하는 시스템을 설정하는 것에 의한 이미지의 클리닝을 허용한다.
예를 들어, 전처리 신경 네트워크는 하나 이상의 컨볼루션 계층들 (CONV; convolution layer) 및/또는 하나 이상의 완전히 연결된 계층들 (FC; fully connected layer) 을 포함한다.
처리 시스템은, 전처리 신경 네트워크의 업스트림에 있는, 시작 이미지들에 기초하여 시작 이미지들과 다른 공간에 데이터를 생성하도록 시작 이미지들에 입력 변환을 적용할 수 있게 하는 입력 연산자를 포함하고, 전처리 신경 네트워크는 이들 데이터에 작용하도록 구성되고, 이 시스템은 입력 변환에 대한 역의 출력 변환에 의해, 시작 이미지들의 처리 공간에서 전처리 신경 네트워크에 의해 처리된 데이터를 복원하고 이에 따라서 메인 신경 네트워크에 의해 처리되는 보정된 이미지를 생성하도록 설계된 출력 연산자를 포함한다.
입력 연산자는 예를 들어 웨이브렛 변환을 적용하고 출력 연산자는 역변환을 적용하도록 구성된다.
본 발명의 구현예들에서, 전처리 신경 네트워크는 저해상도 맵에 대응하는 벡터들의 세트를 생성하도록 구성되고, 시스템은 보다 고해상도 맵에 대응하는, 바람직하게는 시작 이미지들과 동일한 해상도를 갖는 벡터들의 세트를 보간, 특히 쌍선형 보간 (bilinear interpolation) 에 의해, 생성하도록 구성된 연산자를 포함하다.
메인 신경 네트워크 및 전처리 신경 네트워크는 특히 얼굴들의 인식, 분류 또는 검출을 수행하도록 훈련될 수 있다.
본 발명의 주제는 추가로, 그의 양태들 중 또 다른 양태에 따라, 앞서 정의된 바와 같은 본 발명에 따른 시스템의 메인 및 전처리 신경 네트워크들의 학습 방법이며, 전처리 신경 네트워크의 학습의 적어도 일부는 메인 신경 네트워크의 훈련과 동시에 수행된다.
학습은 특히, 변경된 이미지들, 특히 노이즈 있는 이미지들의 베이스의 도움으로 수행될 수 있다. 전처리 신경 네트워크에 의해 실행된 보정을 나타내는 비용 함수를 최소화하고자 하는 그러한 방식으로 학습이 전개되는 방향에 대하여 제약을 부과하는 것이 가능하다.
본 발명의 주제는 추가로, 그의 양태들 중 또 다른 양태에 따라, 이미지들을 처리하기 위한 방법이며, 이미지들은 앞서 정의된 바와 같은 본 발명에 따른 시스템에 의해 처리된다.
본 발명의 주제는 추가로, 그의 양태들 중 또 다른 양태에 따라, 바이오메트릭 식별 방법이며, 본 명세서에서 앞서 정의된 바와 같은 본 발명에 따른 시스템의 메인 신경 네트워크로 시스템에 의한 개인의 식별에 관련된 정보의 아이템을 생성하는 것으로 이루어진 단계를 포함한다.
본 발명의 주제는 추가로, 앞의 내용과 독립적으로 또는 결합하여, 바람직하게는 컨벌루션 기반의 (CNN), 메인 신경 네트워크, 및 메인 신경 네트워크의 업스트림에 있는, 메인 신경 네트워크에 의해 처리되기 이전에 파라미터에 대해 미분가능한 적어도 하나의 파라메트릭 변환을 실행하기 위한, 바람직하게는 컨벌루션 기반의, 적어도 하나의 전처리 신경 네트워크를 포함하는 이미지들을 처리하기 위한 시스템이며, 상기 변환은 이미지의 픽셀들의 적어도 일부에 적용되고 픽셀들을 공간적으로 불변으로 남겨두며, 전처리 신경 네트워크는 메인 신경 네트워크의 학습과 동시에 수행되는 학습의 적어도 일부를 갖는다.
본 발명은 본 발명의 구현의 비제한적인 실시예들에 대한 설명을 읽고 그리고 첨부된 도면들을 검토함으로써 보다 잘 이해될 수 있을 것이다.
도 1 은 본 발명에 따른 예시적인 처리 시스템의 블록도이며,
도 2 는 감마 보정을 수행하기 위한 예시적인 이미지 전처리를 도시하며,
도 3 은 전처리 신경 네트워크의 업스트림의 공간의 변화를 적용하는 처리를 도시하며,
도 4 는 이미지의 표색 (colorimetric) 전처리를 위한 신경 네트워크의 예시적인 구조를 도시하고,
도 5 는 전처리 네트워크의 학습에 후속하는 표색 전처리 전후의 이미지를 나타낸다.
도 1 에는 본 발명에 따른 이미지들을 처리하기 위한 예시적인 시스템 (1) 이 표현된다.
고려되는 실시예에서, 이 시스템은 바이오메트릭 컨벌루션 신경 네트워크 (2), 및 바람직하게 컨벌루션 신경 네트워크 (6) 를 또한 포함하고 바이오메트릭 네트워크 (2) 의 업스트림의 처리를 시작 이미지 (4) 에 적용하기 위해 학습하는 이미지 전처리 모듈 (3) 을 포함한다.
바이오메트릭 신경 네트워크의 업스트림에서 수행되는 이러한 처리는 본 발명에 따라, 그 파라미터에 대해 미분가능한 적어도 하나의 파라메트릭 변환에 존재한다. 본 발명에 따라, 전처리 신경 네트워크 (6) 는 바이오메트릭 신경 네트워크 (2) 로 훈련된다. 따라서, 전처리 네트워크 (6) 의 이미지 변환 파라미터들은 바이오메트릭 네트워크 (2) 와 동시에 학습된다. 전처리 신경 네트워크 (6) 의 학습 전체는 신경 네트워크 (2) 의 학습 동안 수행될 수 있다. 일 변형으로서, 네트워크 (6) 의 학습은 네트워크 (2) 와 독립적으로 초기에 수행되고, 그 후 학습은 네트워크들 (2 및 6) 의 동시 학습에 의해 완료되고, 따라서 이를테면 네트워크들을 "동기화"하는 것을 가능하게 한다.
그 품질이 다양한 이미지들은 학습을 위해 사용된다. 바람직하게는, 학습은 변경된 이미지들, 특히 노이즈 있는 이미지들의 베이스의 도움으로 수행되며, 전처리 신경 네트워크에 의해 실행된 보정을 나타내는 비용 함수를 최소화고자하는 것에 관해 그러한 방식으로 학습이 전개되는 방향에 대하여 제약을 부과하는 것이 가능하다.
전처리 네트워크 (6) 에 의해 수행되는 변환 또는 변환들은 미분가능하며, 이들 네트워크의 학습에 필요한 역 전파 프로세스를 방해하지 않는다.
전처리 신경 네트워크는 특히: 픽셀들의 감마 보정, 로컬 콘트라스트 보정, 컬러 보정, 이미지의 감마의 보정, 로컬 콘트라스트의 수정, 노이즈의 감소 및/또는 압축 아티팩트들의 감소 중에서부터 선택된 비선형 변환을 수행하도록 구성될 수 있다.
이 변환은 다음 식으로 작성될 수 있다:
Figure pat00002
여기서 p 는 원래 이미지 또는 이 이미지의 분해의 픽셀이고, p' 는 변환된 이미지 또는 그 분해의 픽셀이고, V(p) 는 픽셀 p 의 이웃이며, Θ 는 파라미터들의 세트이다.
신경 네트워크 (2) 는 임의의 유형일 수 있다.
전처리 모듈 (3) 이 감마의 보정, 즉 입력 파일의 픽셀들의 휘도의 함수로서 출력 파일의 픽셀들의 휘도를 제공하는 곡선을 적용하는, 본 발명에 따른 이미지들을 처리하기 위한 예시적인 시스템은, 지금부터 도 2 를 참조하여 설명될 것이다.
이 예에서, 전처리 신경 네트워크 (6) 는 단일 출력, 즉 전체 이미지에 적용되는 감마 보정 파라미터를 갖는다.
여기서 따라서, 본 발명에 따른 처리 시스템의 학습 동안 이미지에 대한 단일 변환 파라미터가 학습된다.
전처리 신경 네트워크 (6) 는 예를 들어, 컨벌루션 기반의 모듈 (Conv1) 및 완전히 연결된 모듈 (FC1) 을 포함한다.
네트워크 (6) 는 도 2 에 도시된 바와 같이, 이미지를 변환하기 위해 12 에서의 이미지에 적용되는 감마에 대한 보정 계수를 추정하는 것을 가능하게 하는 벡터들 (11) 을 생성한다.
학습 동안, 전처리 네트워크 (6) 는 시작 이미지들 (4) 의 함수로서 바이오메트릭 네트워크 (2) 가 효과적인 것으로 밝혀지는 감마 보정을 실행하는 것을 학습할 것이다; 실행된 보정은 인간 오퍼레이터가 이미지를 직관적으로 형성하여 그 품질을 향상시키기 위해 실행해야 하는 것은 아니다.
이미지 변환 파라미터들을 학습할 여러 전처리 네트워크들을 연속적으로 배치하는 것이 가능하다. 각 전처리 네트워크 후, 학습된 파라미터들에 따라 이미지가 변환되고, 결과 이미지는 메인 네트워크에 대한 입력에 존재할 때까지 다음 네트워크에 대한 입력으로서 기능할 수 있다.
전처리 네트워크들은 푸리에 변환 또는 웨이브렛 변환과 같은 이미지의 변환으로부터 발생하는 컴포넌트들에 적용될 수 있다. 이는 그후에, 메인 네트워크로 들어가기 위해 역변환이 적용되기 이전에, 서브-네트워크들에 대한 입력으로 기능하는 이들 변환들의 곱들이다.
도 3 은 네트워크 (6) 에 의한 전처리가 변환 후에 원래의 이미지로부터 추론된 다중-이미지 표현을 통해 수행되는, 처리 시스템의 경우를 도시한다. 이는, 수정된 서브-이미지들 (291 내지 29n) 로 변환되는 서브-이미지들 (281 내지 28n) 을 생성하는 것을 가능하게 하며, 변환은 예를 들어 웨이블릿 변환이다.
승수 인자들의 계수들 및 임계치들의 맵은 22 에서 서브-이미지들 (281 내지 28n) 에 적용된다.
이 처리는 재구성 단계가 미분가능한 임의의 이미지 분해 (예를 들면, 코사인 변환, 위상 및 모듈러스를 분리하는 것에 의한 푸리에 변환, 몇몇 이미지들의 합으로서 입력 이미지의 표현, 등) 에 적용가능하다.
색조의 문제들을 보정하고 학습의 나머지 동안 보다 바람직한 컬러 베이스를 사용하기 위해, 시작 이미지에서 컬러들을 보정하기에 적합한 예시적인 처리 시스템이 지금부터 도 4 및 도 5 를 참조하여 설명될 것이다.
전처리 네트워크 (6) 의 파라미터들의 벡터는 이 예에서, 3x3 스위칭 매트릭스 (P) 및 각 컬러 채널 R, G 및 B (아핀 변환) 에 대한 상수 시프트 (D) 의 가산, 즉 12 개의 파라미터들에 대응한다.
그러한 처리를 수행하기 위해 사용가능한 예시적인 네트워크 (6) 가 도 4 에 표현된다. 그것은 2 개의 컨벌루션 계층들, 2 개의 맥스풀링 (Maxpooling) 계층들 및 완전히 연결된 계층을 포함한다.
초기의 이미지의 각각의 픽셀
Figure pat00003
에 대하여, 다음을 갖는다:
Figure pat00004
이는 이미지의 모든 픽셀들에 대하여 다음을 제공한다:
Figure pat00005
실시예
도 4 및 도 5 를 참조하여 설명된 컬러 보정 처리가 적용된다. 도 5 는 예시적인 결과를 제공한다. 네트워크 (6) 가 컬러들의 포화도를 과장하는 경향을 가지고, 따라서 네트워크들의 전체 세트의 분리된 학습보다 결합된 학습의 이점을 가지기 때문에, 결과는 직관적으로 기대되는 결과가 아닌 것을 주목한다.
특히 임의의 색채 결함을 보이지 않는 면들의 내부 베이스에서, 3.21% 의 오류 거부들의 상대적인 저하는 1% 의 오류 허용률에 대해 관찰된다.
본 발명은 이미지 분류 애플리케이션들에 한정되지 않고, 또한 얼굴 바이오메트리에서의 식별 및 인증에도 적용된다.
본 발명에 따른 처리 시스템은 얼굴의 바이오메트리 이외의 바이오메트리들, 예를 들어 홍채의 바이오메트리뿐만 아니라 보행자 및 차량 인식에서의 애플리케이션들, 이미지들의 위치 및 합성, 및 보다 일반적으로는 이미지들의 검출, 분류 또는 자동 분석에서의 모든 분석에서의 모든 애플리케이션들에 추가로 적용될 수 있다.
따라서, 본 발명은 예를 들어, 시맨틱 세그먼테이션, (예를 들어, 유방조영술 또는 초음파 검사에서의) 자동 의학 진단, (운전자없는 차량들과 같은) 장면들의 분석, 또는 비디오들의 시맨틱 분석에 적용될 수 있다.
처리 시스템은 도입부에서 언급한 조항 공간 변환 장치 (Spatial Transformer) 에서 설명된 것처럼, 픽셀들에 공간 변환을 적용하는 컨벌루션 전처리 신경 네트워크로 추가로 보완될 수 있다.
본 발명은 임의의 유형의 하드웨어, 예를 들어 퍼스널 컴퓨터, 스마트폰, 전용 카드, 슈퍼 컴퓨터에서 구현될 수 있다.
여러 이미지들의 처리는 병렬 전처리 네트워크들에 의해 병렬로 수행될 수 있다.

Claims (17)

  1. 이미지들 (4) 의 처리를 위한 시스템 (1) 으로서,
    메인 신경 네트워크 (2), 바람직하게는 컨볼루션 기반의 메인 신경 네트워크 (2) (CNN; convolution neural network), 및 상기 메인 신경 네트워크 (2) 의 업스트림에 있는, 상기 메인 신경 네트워크 (2) 에 의해 처리되기 이전에, 파라미터들에 대해 미분가능한 적어도 하나의 파라메트릭 변환 (f) 을 실행하기 위한, 바람직하게는 컨볼루션 기반의, 적어도 하나의 전처리 신경 네트워크 (6) 를 포함하고,
    이 변환은 이미지의 픽셀들 중 적어도 일부에 적용되고, 그리고 형태
    Figure pat00006
    이고, p는 원래 이미지의 또는 이 이미지 분해의 처리된 픽셀이며, p'는 변환된 이미지의 또는 그 분해의 픽셀이며, V(p)는 픽셀 p의 이웃이며, 그리고 Θ는 파라미터들의 벡터이며,
    상기 전처리 신경 네트워크 (6) 는 상기 메인 신경 네트워크 (2) 의 학습과 동시에 수행되는 학습의 적어도 일부를 갖는, 이미지 처리 시스템.
  2. 제 1 항에 있어서,
    상기 변환 (f) 은 상기 이미지 상에 공간적으로 불변인 픽셀들을 남기는, 이미지 처리 시스템.
  3. 제 1 항에 있어서,
    상기 전처리 네트워크 (6) 는 특히 컬러, 색조 또는 감마 보정 또는 노이즈 임계화 (thresholding) 연산을 수행하기 위해 픽셀마다 수정을 수행하도록 설계되는, 이미지 처리 시스템.
  4. 제 1 항에 있어서,
    상기 전처리 네트워크 (6) 는, 특히 로컬 블러 또는 콘트라스트를 관리하기 위해, 로컬 연산자를 적용하도록 구성되는, 이미지 처리 시스템.
  5. 제 1 항에 있어서,
    상기 전처리 네트워크 (6) 는, 바람직하게는 아날로그 또는 디지털 노이즈를 감소시키기 위해, 특히 압축 아티팩트의 감소, 이미지의 선예도, 선명도 또는 콘트라스트의 향상을 수행하기 위해, 또는 히스토그램 균등화, 이미지의 동적 스윙의 보정, 디지털 워터마크 유형의 패턴들의 삭제, 주파수 보정과 같은 필터링들 및/또는 이미지의 클리닝을 실행하기 위해, 상기 이미지의 변환 이후에 주파수 공간에 연산자를 적용하도록 구성되는, 이미지 처리 시스템.
  6. 제 1 항에 있어서,
    상기 전처리 신경 네트워크 (6) 는 하나 이상의 컨볼루션 계층 (CONV; convolution layer) 들 및/또는 하나 이상의 완전히 연결된 계층 (FC; fully connected layer) 들을 포함하는, 이미지 처리 시스템.
  7. 제 1 항에 있어서,
    상기 전처리 신경 네트워크 (6) 는 비선형 변환, 특히 상기 픽셀들의 감마 보정 및/또는 로컬 콘트라스트 보정을 실행하도록 구성되는, 이미지 처리 시스템.
  8. 제 1 항에 있어서,
    상기 전처리 신경 네트워크 (6) 는 표색 (colorimetric) 변환을 적용하도록 구성되는, 이미지 처리 시스템.
  9. 제 1 항에 있어서,
    상기 전처리 신경 네트워크 (6) 의 업스트림에 있는, 시작 이미지들에 기초하여 상기 시작 이미지들과 다른 공간에 데이터를 생성하도록 상기 시작 이미지들에 입력 변환을 적용할 수 있게 하는 입력 연산자를 포함하고, 상기 전처리 신경 네트워크는 이들 데이터에 작용하도록 구성되고, 상기 시스템은 상기 입력 변환에 대한 역의 출력 변환에 의해, 상기 시작 이미지들의 처리 공간에서 전처리 신경 네트워크에 의해 처리된 데이터를 복원하고 이에 따라서 상기 메인 신경 네트워크에 의해 처리되는 보정된 이미지들을 생성하도록 설계된 출력 연산자를 포함하는, 이미지 처리 시스템.
  10. 제 9 항에 있어서,
    상기 입력 연산자는 웨이브렛 변환을 적용하고 상기 출력 연산자는 역변환을 적용하도록 구성되는, 이미지 처리 시스템.
  11. 제 9 항에 있어서,
    상기 전처리 신경 네트워크는 이미지 압축 아티팩트들 및/또는 이미지의 선예도에 대해 작용하도록 구성되는, 이미지 처리 시스템.
  12. 제 1 항에 있어서,
    상기 전처리 신경 네트워크 (6) 는 저해상도 맵 (7) 에 대응하는 벡터들의 세트 (9) 를 생성하도록 구성되고, 상기 시스템은 보다 고해상도 맵 (8) 에 대응하는, 바람직하게는 시작 이미지들과 동일한 해상도를 갖는 벡터들의 세트를 보간, 특히 쌍선형 보간 (bilinear interpolation) 에 의해, 생성하도록 구성된 연산자를 포함하는, 이미지 처리 시스템.
  13. 제 1 항에 있어서,
    상기 메인 신경 네트워크 및 상기 전처리 신경 네트워크는 특히 얼굴들의 바이오메트릭 분류, 인식 또는 검출을 수행하도록 훈련되는, 이미지 처리 시스템.
  14. 제 1 항에 기재된 시스템의 메인 신경 네트워크 (2) 및 전처리 신경 네트워크의 학습 방법으로서,
    상기 전처리 신경 네트워크의 학습의 적어도 일부는 상기 메인 신경 네트워크의 훈련과 동시에 수행되는, 방법.
  15. 제 14 항에 있어서,
    상기 학습은 변경된 이미지들, 특히 노이즈 있는 이미지들의 도움으로, 그리고 상기 전처리 신경 네트워크에 의해 행해진 보정을 나타내는 비용 함수를 최소화하고자 하는 그러한 방식으로 상기 학습이 전개되는 방향에 대하여 제약을 부과하는 것에 의해, 수행되는, 방법.
  16. 이미지들을 처리하는 방법으로서,
    상기 이미지들은 제 1 항에 기재된 시스템에 의해 처리되는, 이미지 처리 방법.
  17. 바이오메트릭 식별 방법으로서,
    제 1 항에 정의된 것과 같은 시스템의 메인 신경 네트워크를 이용하여 상기 시스템에 의해 개인의 식별과 관련된 정보의 아이템을 생성하는 것으로 이루어진 단계를 포함하는, 바이오메트릭 식별 방법.
KR1020170167636A 2016-12-07 2017-12-07 이미지 처리 시스템 KR20180065950A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1662080A FR3059804B1 (fr) 2016-12-07 2016-12-07 Systeme de traitement d'images
FR1662080 2016-12-07

Publications (1)

Publication Number Publication Date
KR20180065950A true KR20180065950A (ko) 2018-06-18

Family

ID=58707626

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170167636A KR20180065950A (ko) 2016-12-07 2017-12-07 이미지 처리 시스템

Country Status (8)

Country Link
US (1) US20180158177A1 (ko)
EP (1) EP3333765A1 (ko)
KR (1) KR20180065950A (ko)
CN (1) CN108257095B (ko)
AU (1) AU2017272164B2 (ko)
BR (1) BR102017026341A8 (ko)
CA (1) CA2987846A1 (ko)
FR (1) FR3059804B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200126881A (ko) * 2019-04-30 2020-11-09 한국과학기술원 점 확산 함수 레이어를 가진 뉴럴 네트워크를 이용한 현미경 영상 처리 방법 및 그 장치
KR102239771B1 (ko) 2019-12-30 2021-04-13 경일대학교산학협력단 다종 콘텐츠 환경에서 딥러닝 기반의 워터마크를 실행하기 위한 장치 및 이를 위한 방법
KR20210085438A (ko) 2019-12-30 2021-07-08 경일대학교산학협력단 다종 콘텐츠 환경에서 딥러닝 기반의 이미지를 탐지하기 위한 장치 및 이를 위한 방법
KR20210085491A (ko) 2019-12-30 2021-07-08 경일대학교산학협력단 다종 콘텐츠 저작권 보호를 위한 딥러닝 기반 워터마킹 시스템 및 이를 위한 방법

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10592776B2 (en) * 2017-02-08 2020-03-17 Adobe Inc. Generating multimodal image edits for a digital image
JP7242185B2 (ja) * 2018-01-10 2023-03-20 キヤノン株式会社 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体
US10991064B1 (en) 2018-03-07 2021-04-27 Adventure Soup Inc. System and method of applying watermark in a digital image
CN110675324B (zh) * 2018-07-02 2023-10-10 上海寰声智能科技有限公司 4k超高清图像清晰化处理方法
CN109101999B (zh) * 2018-07-16 2021-06-25 华东师范大学 基于支持向量机的协神经网络可信决策方法
CN109191386B (zh) * 2018-07-18 2020-11-06 武汉精测电子集团股份有限公司 一种基于BPNN的快速Gamma校正方法及装置
US11308592B2 (en) * 2018-10-04 2022-04-19 Canon Kabushiki Kaisha Image processing method, image processing apparatus, imaging apparatus, and storage medium, that correct a captured image using a neutral network
US10931853B2 (en) * 2018-10-18 2021-02-23 Sony Corporation Enhanced color reproduction for upscaling
CN109584206B (zh) * 2018-10-19 2021-07-06 中国科学院自动化研究所 零件表面瑕疵检测中神经网络的训练样本的合成方法
CN109543763B (zh) * 2018-11-28 2022-10-21 重庆大学 一种基于卷积神经网络的拉曼光谱分析方法
CN109859372A (zh) * 2018-12-07 2019-06-07 保定钞票纸业有限公司 防伪纸张的水印识别方法、装置、云端服务器及系统
CN109684973B (zh) * 2018-12-18 2023-04-07 哈尔滨工业大学 基于对称一致性的卷积神经网络的人脸图像填充系统
US11853812B2 (en) * 2018-12-20 2023-12-26 Here Global B.V. Single component data processing system and method utilizing a trained neural network
KR102097905B1 (ko) * 2019-06-04 2020-04-06 주식회사 딥엑스 이미지 객체 인식 장치 및 방법
CN110246084B (zh) * 2019-05-16 2023-03-31 五邑大学 一种超分辨率图像重构方法及其系统、装置、存储介质
US11259770B2 (en) * 2019-11-14 2022-03-01 GE Precision Healthcare LLC Methods and systems for noise reduction in x-ray imaging
CN111062880B (zh) * 2019-11-15 2023-07-28 南京工程学院 一种基于条件生成对抗网络的水下图像实时增强方法
CN111192190B (zh) * 2019-12-31 2023-05-12 北京金山云网络技术有限公司 消除图像水印的方法、装置及电子设备
CN112132760B (zh) * 2020-09-14 2024-02-27 北京大学 基于可学习可微分矩阵逆及矩阵分解的图像恢复方法
RU2764395C1 (ru) 2020-11-23 2022-01-17 Самсунг Электроникс Ко., Лтд. Способ и устройство для совместного выполнения дебайеризации и устранения шумов изображения с помощью нейронной сети
CN112950497A (zh) * 2021-02-22 2021-06-11 上海商汤智能科技有限公司 图像处理方法、装置、电子设备及存储介质
CN113822194A (zh) * 2021-09-22 2021-12-21 华能国际电力股份有限公司上海石洞口第二电厂 一种火电厂作业个人防护用品的智能监测方法及设备
CN115880125B (zh) * 2023-03-02 2023-05-26 宁波大学科学技术学院 基于Transformer的软融合鲁棒图像水印方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4594225B2 (ja) * 2005-01-18 2010-12-08 富士フイルム株式会社 画像補正装置および方法,ならびに画像補正プログラム
CN104346607B (zh) * 2014-11-06 2017-12-22 上海电机学院 基于卷积神经网络的人脸识别方法
CN105550658A (zh) * 2015-12-24 2016-05-04 蔡叶荷 一种基于高维lbp与卷积神经网络特征融合的人脸比对方法
CN106096568B (zh) * 2016-06-21 2019-06-11 同济大学 一种基于cnn和卷积lstm网络的行人再识别方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200126881A (ko) * 2019-04-30 2020-11-09 한국과학기술원 점 확산 함수 레이어를 가진 뉴럴 네트워크를 이용한 현미경 영상 처리 방법 및 그 장치
KR102239771B1 (ko) 2019-12-30 2021-04-13 경일대학교산학협력단 다종 콘텐츠 환경에서 딥러닝 기반의 워터마크를 실행하기 위한 장치 및 이를 위한 방법
KR20210085438A (ko) 2019-12-30 2021-07-08 경일대학교산학협력단 다종 콘텐츠 환경에서 딥러닝 기반의 이미지를 탐지하기 위한 장치 및 이를 위한 방법
KR20210085491A (ko) 2019-12-30 2021-07-08 경일대학교산학협력단 다종 콘텐츠 저작권 보호를 위한 딥러닝 기반 워터마킹 시스템 및 이를 위한 방법

Also Published As

Publication number Publication date
CA2987846A1 (fr) 2018-06-07
AU2017272164B2 (en) 2022-09-29
FR3059804A1 (fr) 2018-06-08
BR102017026341A2 (pt) 2018-12-18
US20180158177A1 (en) 2018-06-07
BR102017026341A8 (pt) 2023-04-11
AU2017272164A1 (en) 2018-06-21
FR3059804B1 (fr) 2019-08-02
CN108257095B (zh) 2023-11-28
CN108257095A (zh) 2018-07-06
EP3333765A1 (fr) 2018-06-13

Similar Documents

Publication Publication Date Title
KR20180065950A (ko) 이미지 처리 시스템
Jiang et al. Unsupervised decomposition and correction network for low-light image enhancement
Yang et al. Fast image super-resolution based on in-place example regression
Yoo et al. Image restoration by estimating frequency distribution of local patches
Vekkot et al. A novel architecture for wavelet based image fusion
Bourlai et al. Restoring degraded face images: A case study in matching faxed, printed, and scanned photos
Tonazzini et al. Multichannel blind separation and deconvolution of images for document analysis
Gourrame et al. A zero-bit Fourier image watermarking for print-cam process
EP2889833A1 (en) Method and apparatus for image quality assessment
JP2020197915A (ja) 画像処理装置、画像処理方法、及びプログラム
Jwaid et al. An efficient technique for image forgery detection using local binary pattern (hessian and center symmetric) and transformation method
CN114155161B (zh) 图像去噪方法、装置、电子设备与存储介质
Bella et al. Reduction of the non-uniform illumination using nonlocal variational models for document image analysis
Schwartz et al. Isp distillation
CN111275620B (zh) 一种基于Stacking集成学习的图像超分辨方法
Shirai et al. Character shape restoration of binarized historical documents by smoothing via geodesic morphology
Bourlai et al. Methodological insights on restoring face photos of multinational passports
Wang et al. A survey on facial image deblurring
Ndjiki-Nya et al. Automatic structure-aware inpainting for complex image content
Manchanda et al. An improved multifocus image fusion algorithm using deep learning and adaptive fuzzy filter
Gan et al. An Improving Infrared Image Resolution Method via Guided Image Filtering.
Bogdan et al. DDocE: Deep Document Enhancement with Multi-scale Feature Aggregation and Pixel-Wise Adjustments
CN113744141B (zh) 图像的增强方法、装置和自动驾驶的控制方法、装置
Anand et al. Tackling multiple visual artifacts: Blind image restoration using conditional adversarial networks
Sureka et al. An Iterative Image Restoration Scheme for Degraded Face Images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E902 Notification of reason for refusal