KR102230609B1 - 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체 - Google Patents

딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체 Download PDF

Info

Publication number
KR102230609B1
KR102230609B1 KR1020190153450A KR20190153450A KR102230609B1 KR 102230609 B1 KR102230609 B1 KR 102230609B1 KR 1020190153450 A KR1020190153450 A KR 1020190153450A KR 20190153450 A KR20190153450 A KR 20190153450A KR 102230609 B1 KR102230609 B1 KR 102230609B1
Authority
KR
South Korea
Prior art keywords
image
merged
color
restoration
luminance
Prior art date
Application number
KR1020190153450A
Other languages
English (en)
Inventor
정용주
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020190153450A priority Critical patent/KR102230609B1/ko
Priority to PCT/KR2020/000795 priority patent/WO2021107264A1/ko
Application granted granted Critical
Publication of KR102230609B1 publication Critical patent/KR102230609B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 매우 적은 비율의 컬러픽셀을 포함하는 컬러필터어레이를 포함하는 이미지 센서를 통해 획득한 이미지로부터 인공신경망을 통해 색상을 복원함으로써 우수한 품질의 이미지를 획득할 수 있는 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체에 관한 것이다.

Description

딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체{Deep Learning-Based Sparse Color Sensor Image Processing Apparatus, Image Processing Method and Computer-readable Medium}
본 발명은 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체에 관한 것으로서, 더욱 상세하게는 매우 적은 비율의 컬러픽셀을 포함하는 컬러필터어레이를 포함하는 이미지 센서를 통해 획득한 이미지로부터 인공신경망을 통해 색상을 복원함으로써 우수한 품질의 이미지를 획득할 수 있는 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체에 관한 것이다.
일반적으로, 이미지 센서는 광학 영상을 전기 신호로 변환시키는 반도체 소자로서, CCD(Charge Couple Device) 이미지 센서와 CMOS(Complementary Metal-Oxide Semiconductor) 이미지 센서가 널리 활용되고 있다.
이와 같은 이미지 센서에 사용되는 광 감지소자는 일반적으로 광학 신호의 세기만을 측정할 뿐 분광 특성은 감지할 수 없기 때문에 컬러 필터를 통해 일정 영역 주파수의 광학 신호만을 통과시켜 소정의 개수의 주파수 영역에 대해 각각 컬러 필터 및 광 감지소자를 구비하여, 각 주파수 영역에 대한 광학 신호의 세기를 구하고 이로부터 컬러 이미지 데이터(R, G, B 데이터)를 얻는다. 이와 같은 컬러 필터는 적색(Red), 녹색(Green), 청색(Blue) 등의 컬러필터가 규칙적으로 배열된 컬러 필터 어레이(Color Filter Array, CFA)를 사용하고 있다.
도 1은 일반적으로 사용되는 이미지 센서를 개략적으로 도시하는 도면이다. 일반적인 이미지 센서는 도 1에 도시된 것과 같이 컬러 필터 어레이(20) 및 상기 컬러 필터 어레이(20)를 통과한 빛을 감지하는 광 감지소자가 배열된 센서어레이(30)로 구성된다.
상기 컬러 필터 어레이(20)에는 적색 필터(R), 녹색 필터(G) 및 청색 필터(B)가 규칙적으로 배열되어 있다. 이와 같은 하나의 색상 필터(20.1)는 하나의 광 감지소자(30.1)에 대응되어, 상기 광 감지소자(30.1)에서는 상기 색상 필터(20.1)를 통과한 빛의 세기를 감지하여, 해당 위치에서의 해당 색상의 빛의 세기를 감지하게 된다.
도 1에 도시된 베이어 패턴의 최소 반복 단위는 공통적으로 2개의 행(Row) 및 2개의 열(Column) 즉, 2 X 2의 어레이 구조를 포함한다
베이어 패턴은 적색 필터(R), 녹색 필터(G) 및 청색 필터(B)가 1:2:1의 비율을 가진다. 이러한 베이어 패턴은 적색 필터(R)와 청색 필터(B)가 대각선 방향으로 배치되고, 이와 교차되는 대각선 방향으로 두 개의 녹색 필터 (G)들이 배치된다.
이와 같은 구성을 통해 각각의 색상 필터를 통과한 빛이 각각의 광 감지소자에서 검출되고, 이와 같이 검출된 빛의 세기에 기초하여 이미지를 형성하게 된다. 다만, 색상 필터를 통해서는 하나의 색상의 빛의 세기만을 판독할 수 있어, 인접한 다른 색상의 필터를 통해 획득한 정보에 기초하여 색을 복원하는 디모자이킹 과정이 필요하게 된다.
한편, 이와 같이 컬러 필터 어레이의 색상 필터를 통과한 빛은 상기 색상 필터에 의해 손실이 발생하게 되고, 이와 같은 특성은 특히 저조도 환경에서 이미지를 센싱 하는 경우, 약한 빛의 세기에 대한 신호를 증폭하는 과정에서 노이즈의 영향이 높아져 획득하는 이미지의 품질이 낮아지게 된다.
이를 개선하기 위해 컬러 필터 어레이에 색상 필터가 아닌, 모든 주파수의 빛을 통과시키는 화이트 필터를 배치하여, 저조도 환경에서도 노이즈에 대한 영향을 낮추고, 고품질의 이미지를 획득할 수 있도록 하는 방법이 제안되었다.
이와 같은 방법에서는 상기 화이트 필터를 사용함으로써 저조도 환경에서도 컬러 필터에 의한 빛의 손실을 줄일 수 있으나, 화이트 필터에서는 색상 정보를 획득할 수 없어 디모자이킹 과정에서 색상의 복원에 불리하게 된다. 따라서 현재의 컬러 필터 어레이는 색상 정보의 획득을 위해 화이트 필터의 비율이 매우 낮고, 화이트 패턴을 높이는 경우, 기존의 방식으로는 색상 복원에 있어서 문제점이 발생할 수 있다. 따라서, 저조도 환경에서의 새로운 기법에 의한 고품질 이미지 획득을 위한 장치 및 이미지 처리 알고리즘의 개발이 필요하다.
본 발명은 매우 적은 비율의 컬러픽셀을 포함하는 컬러필터어레이를 포함하는 이미지 센서를 통해 획득한 이미지로부터 인공신경망을 통해 색상을 복원함으로써 우수한 품질의 이미지를 획득할 수 있는 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체를 제공하는 것을 그 목적으로 한다.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는 1 이상의 프로세서 및 1 이상의 메모리를 갖고, 전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리장치로서, 상기 이미지처리장치는, 상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지입력부; 상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지입력부; 및 1이상의 학습된 인공신경망을 포함하고, 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합부; 를 포함하고, 상기 이미지병합부는, 상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원부; 및 상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 색상복원부; 를 포함하는, 이미지처리장치를 제공한다.
본 발명의 일 실시예에서는, 상기 제1이미지는 상기 병합이미지의 전체 픽셀의 수의 90% 이상의 화이트픽셀 정보를 포함하고, 상기 제2이미지는 상기 병합이미지의 전체 픽셀의 수의 10% 이하의 컬러픽셀 정보를 포함할 수 있다.
본 발명의 일 실시예에서는, 상기 색상복원부는 학습된 인공신경망에 기초하여 상기 병합이미지를 생성할 수 있다.
본 발명의 일 실시예에서는, 상기 휘도복원부 및 상기 색상복원부는 각각의 학습된 인공신경망에 기초하여 상기 휘도복원이미지 및 상기 병합이미지를 생성할 수 있다.
본 발명의 일 실시예에서는, 상기 이미지병합부는, 상기 휘도복원부를 통해 상기 휘도복원이미지의 색 경계 정보를 포함하는 경계이미지를 생성하는 경계추출부; 를 더 포함하고, 상기 색상복원부는, 상기 제2이미지, 상기 휘도복원이미지 및 상기 경계이미지에 기초하여 병합이미지를 생성할 수 있다.
본 발명의 일 실시예에서는, 상기 색상복원부는, 생성적 적대 신경망(Generative Adversarial Network, GAN)으로 구성되어 병합이미지를 생성할 수 있다.
본 발명의 일 실시예에서는, 상기 색상복원부는, 상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 색상복원모듈; 및 상기 색상복원모듈이 생성한 상기 병합이미지를 평가하는 평가모듈; 을 포함하고, 상기 색상복원모듈 및 상기 평가모듈은 상호 피드백을 수행할 수 있다.
본 발명의 일 실시예에서는, 상기 평가모듈은, 기저장된 복수의 학습 병합이미지를 입력 받아 상기 학습 병합이미지의 진위여부를 평가하고 평가결과에 기초하여 피드백을 수행하여 학습이 이루어질 수 있다.
본 발명의 일 실시예에서는, 상기 색상복원모듈은, 기저장된 복수의 학습 제2이미지, 학습 휘도복원이미지 및 학습 경계이미지 세트를 입력 받아 학습 병합이미지를 생성하고, 상기 평가모듈이 생성된 상기 학습 병합이미지를 평가한 평가결과에 기초하여 피드백을 수행하여 학습이 이루어질 수 있다.
본 발명의 일 실시예에서는, 상기 색상복원모듈은, 고밀도 U-net으로 구성되고, 상기 평가모듈은, 스택형 컨볼루션 신경망으로 구성될 수 있다.
본 발명의 일 실시예에서는, 상기 휘도복원부는, 스택형 컨볼루션 신경망으로 구성될 수 있다.
본 발명의 일 실시예에서는, 상기 휘도복원부 및 상기 색상복원부 각각의 인공신경망은 독립적으로 학습이 수행된 인공신경망일 수 있다.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅 장치에서 수행되고, 전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리방법으로서, 상기 이미지처리방법은, 상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지획득단계;
상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지획득단계; 및 1 이상의 학습된 인공신경망에 의하여 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합단계; 를 포함하고, 상기 이미지병합단계는, 상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원단계; 및 상기 제2이미지 및 상기 휘도복원이미지에 기초하여 병합이미지를 생성하는 색상복원단계; 를 포함하는, 이미지처리방법를 제공한다.
본 발명의 일 실시예에서는, 전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리방법을 구현하기 위한 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은: 상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지획득단계; 상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지획득단계; 및 1 이상의 학습된 인공신경망에 의하여 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합단계; 를 포함하고, 상기 이미지병합단계는, 상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원단계; 및 상기 제2이미지 및 상기 휘도복원이미지에 기초하여 병합이미지를 생성하는 색상복원단계; 를 포함하는, 컴퓨터-판독가능 매체를 제공한다.
본 발명의 일 실시예에 따르면 화이트픽셀의 비율이 매우 높은 컬러필터어레이를 이용하여 빛을 센싱 함으로써 저조도 환경에서 우수한 품질의 이미지를 획득할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면 매우 적은 비율의 컬러픽셀을 통해 획득한 색상정보에 기초하여 인공신경망을 통해 색상을 복원하여 높은 품질의 색상 복원을 수행할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면 경계이미지를 생성하여 색상의 복원에 사용함으로써 색상 복원 과정에서의 색번짐을 줄일 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면 생성적 적대 신경망을 통해 색상을 복원함으로써 허위 색상이 재현되는 것을 방지하는 효과를 발휘할 수 있다.
도 1은 일반적인 이미지 센서의 컬러필터어레이 및 센서어레이의 구조를 개략적으로 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 이미지 센싱장치의 구조를 개략적으로 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 이미지처리장치의 내부 구조를 개략적으로 도시하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 컬러필터어레이의 패턴을 개략적으로 도시하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 이미지병합부 및 병합이미지출력부의 동작을 개략적으로 도시하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 이미지병합부의 내부 구성을 개략적으로 도시하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 휘도복원부, 색상복원모듈 및 평가모듈의 인공신경망의 구조를 개략적으로 도시하는 도면이다.
도 8은 본 발명의 일 실시예에 따른 제1이미지, 제2이미지, 휘도복원이미지 및 경계이미지를 예시적으로 도시하는 도면이다.
도 9는 본 발명의 일 실시예에 따른 이미지병합부의 학습단계를 개략적으로 도시하는 도면이다.
도 10은 본 발명의 일 실시예에 따른 이미지처리방법의 각 단계를 개략적으로 도시하는 도면이다.
도 11은 본 발명의 일 실시예에 따른 이미지 병합 단계의 세부 단계를 개략적으로 도시하는 도면이다.
도 12는 본 발명의 일 실시예에 따라 생성된 이미지를 도시하는 도면이다.
도 13은 본 발명의 일 실시예에 따라 생성된 이미지를 도시하는 도면이다.
도 14는 본 발명의 일 실시예에 따라 생성된 이미지를 도시하는 도면이다.
도 15는 본 발명의 일 실시예에 따라 생성된 이미지를 도시하는 도면이다.
도 16은 본 발명의 일 실시예에 따른 컬러필터어레이의 패턴을 개략적으로 도시하는 도면이다.
도 17은 본 발명의 일 실시예에 따라 생성된 이미지를 도시하는 도면이다.
도 18은 본 발명의 일 실시예에 있어서, 컴퓨팅 장치의 내부 구성의 일례를 설명하기 위한 블록도이다.
이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.
또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.
본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 2는 본 발명의 일 실시예에 따른 이미지 센싱장치의 구조를 개략적으로 도시하는 도면이다.
도 2를 참조하면 본 발명의 일 실시예에 따른 이미지 센싱장치는 복수의 픽셀에 대한 필터를 포함하는 컬러필터어레이(2000); 상기 컬러필터어레이의 복수의 픽셀에 대응되어 빛을 감지하는 복수의 센서가 배열된 센서어레이(3000); 및 상기 센서어레이로부터 센싱 된 데이터에 기초하여 이미지데이터를 생성하는, 이미지센서기판(4000); 을 포함하는 이미지센서(5000); 및 상기 이미지센서(5000)에 전기적으로 접속되고, 상기 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리장치(1000)를 포함한다.
상기 컬러필터어레이(2000)는 복수의 픽셀에 대한 필터를 포함하고, 상기 필터는 빛을 통과시켜 센서어레이(3000)의 각각의 센서가 빛을 감지할 수 있도록 한다. 상기 컬러필터어레이는 대응하는 센서에 빛을 모아 전달할 수 있도록 하는 복수의 마이크로 렌즈를 포함할 수 있다.
상기 센서어레이(3000)는 빛을 감지하는 복수의 센서가 상기 컬러필터어레이(2000)의 필터에 대응하여, 상기 필터를 통과한 빛을 감지한다. 본 발명의 일 실시예에서 상기 센서는 CCD 혹은 CMOS로 구성되어 빛을 감지할 수 있다.
상기 이미지센서기판(4000)은 상기 센서어레이(3000)의 각각의 센서가 감지한 정보로부터 이미지데이터를 생성한다. 상기 이미지데이터는 상기 센서어레이(3000)의 각각의 센서가 감지한 빛의 정보 및 상기 센서의 위치에 대한 정보를 포함하여, 2차원 이미지를 생성할 수 있도록 한다.
상기 픽셀은 모든 색상의 빛을 통과시키는 화이트픽셀; 혹은 기설정된 색상의 빛만을 통과시키는 컬러픽셀; 이다. 상기 화이트픽셀은 모든 색상의 빛을 통과시켜, 상기 화이트픽셀에 대응되는 센서에서는 빛의 세기를 감지하여 밝기 정보를 제공하게 되고, 상기 컬러픽셀은 기설정된 색상의 빛(예를 들어 적색, 녹색 혹은 청색)만을 통과시켜, 상기 컬러픽셀에 대응되는 센서에서는 상기 기설정된 색상의 빛의 세기를 감지하여 색상 정보를 제공하게 된다. 상기 이미지처리장치(1000)에서는 상기 밝기 정보 및 상기 색상 정보에 기초하여 최종적인 출력이미지를 생성하게 된다.
본 발명의 일 실시예에서 상기 컬러필터어레이는, 상기 화이트픽셀의 수가 전체 픽셀의 수의 90% 이상이다. 이와 같은 실시예에서는 상기 컬러픽셀의 수는 전체 픽셀의 수의 10% 이하이다.
본 발명의 일 실시예에서 상기 컬러필터어레이는, 상기 화이트픽셀의 수가 전체 픽셀의 수의 95% 이상이다. 이와 같은 실시예에서는 상기 컬러픽셀의 수는 전체 픽셀의 수의 5% 이하이다.
바람직하게는, 상기 화이트픽셀의 수가 전체 픽셀의 수의 99% 이상이다. 이와 같이 상기 화이트픽셀의 수가 전체 픽셀의 수의 99% 이상인 경우 상기 컬러픽셀의 수는 전체 픽셀의 수의 1% 이하가 된다.
이와 같이 컬러픽셀의 수가 극히 적은 경우 상기 컬러픽셀을 통해 획득한 색상 정보에 기초하여 이미지 전체에 색상을 복원하는 과정이 필요한데, 상기 이미지처리장치(1000)에서 이와 같은 동작을 수행하게 된다. 이 때, 본 발명의 일 실시예에서 상기 이미지처리장치(1000)는 인공신경망을 통해 색상을 복원하는 과정을 수행할 수 있다.
도 3은 본 발명의 일 실시예에 따른 이미지처리장치의 내부 구조를 개략적으로 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 이미지처리장치(1000)의 내부구성요소를 블록도로 도시한다.
본 실시예에 따른 이미지처리장치(1000)는 프로세서(100), 버스(200), 네트워크 인터페이스(300) 및 메모리(400)를 포함할 수 있다. 메모리는 운영체제(410), 이미지병합루틴(420), 센서정보(430)를 포함할 수 있다. 프로세서(100)는 제1이미지입력부(110), 제2이미지입력부(120), 이미지병합부(130), 및 병합이미지출력부(140)를 포함할 수 있다. 다른 실시예들에서 이미지처리장치(1000)는 도 3의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다.
메모리는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리에는 운영체제(410), 이미지병합루틴(420), 센서정보(430)를 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스부(300)를 통해 메모리에 로딩될 수도 있다.
버스(200)는 이미지처리장치(1000)를 제어하는 컴퓨팅 장치의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.
네트워크 인터페이스부(300)는 이미지처리장치(1000)를 제어하는 컴퓨팅 장치를 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성 요소일 수 있다. 네트워크 인터페이스(300)는 이미지처리장치(1000)를 제어하는 컴퓨팅 장치를 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다. 이와 같은 네트워크 인터페이스부(300)를 통하여 이미지처리장치(1000)를 제어하는 컴퓨팅 장치가 이미지처리장치(1000)에 무선적 혹은 유선적으로 접속될 수 있다.
프로세서는 기본적인 산술, 로직 및 이미지처리장치(1000)을 제어하는 컴퓨팅 장치의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리 또는 네트워크 인터페이스부(300)에 의해, 그리고 버스(200)를 통해 프로세서(100)로 제공될 수 있다. 프로세서는 제1이미지입력부(110), 제2이미지입력부(120), 이미지병합부(130) 및 병합이미지출력부(140)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리와 같은 기록 장치에 저장될 수 있다.
상기 제1이미지입력부(110), 제2이미지입력부(120), 이미지병합부(130) 및 병합이미지출력부(140)는 이하에서 설명하게 될 이미지처리장치(1000)의 작동을 수행하기 위해 구성될 수 있다.
상기한 프로세서는 이미지처리장치(1000)를 제어하는 방법에 따라 일부 컴포넌트가 생략되거나, 도시되지 않은 추가의 컴포넌트가 더 포함되거나, 2개 이상의 컴포넌트가 결합될 수 있다.
본 발명의 일 실시예에 따른 상기 이미지처리장치(1000)는, 상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지입력부(110); 상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지입력부(120); 학습된 인공신경망에 의하여 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합부(130); 및 상기 병합이미지를 외부로 출력하는 병합이미지출력부(140); 를 포함한다.
상기 제1이미지입력부(110)는 상기 화이트픽셀에 대응되는 상기 센서어레이(3000)의 센서로부터 획득한 제1이미지를 입력 받는다. 상기 제1이미지는 상기 화이트픽셀에 대응되는 상기 센서어레이(3000)의 센서로부터 센싱 된 정보로부터 생성될 수 있다. 본 발명의 일 실시예에서 상기 제1이미지는 상기 병합이미지의 전체 픽셀의 수의 95% 이상의 화이트픽셀 정보를 포함할 수 있다.
본 발명의 일 실시예에서 상기 제1이미지는 상기 화이트픽셀에 대응되는 상기 센서어레이(3000)의 센서로부터 센싱 된 정보만을 입력 받아 생성할 수도 있고, 혹은 상기 센서어레이(3000)의 모든 센서로부터 획득한 이미지 중 상기 화이트픽셀에 대응되는 상기 센서의 위치에 해당하는 픽셀 외에 상기 컬러픽셀에 대응되는 상기 센서의 위치에 해당하는 픽셀의 정보를 제거함으로써 생성될 수 있다.
이와 같은 상기 제1이미지는 상기 화이트픽셀에 대응되는 상기 센서에 의해 획득한 정보로 구성되어 색상정보가 없는 모노 이미지로 생성될 수 있다.
상기 제2이미지입력부(120)는 상기 컬러픽셀에 대응되는 상기 센서어레이(3000)의 센서로부터 획득한 제2이미지를 입력 받는다. 상기 제2이미지는 상기 컬러픽셀에 대응되는 상기 센서어레이(3000)의 센서로부터 센싱 된 정보로부터 생성될 수 있다. 본 발명의 일 실시예에서 상기 제2이미지는 상기 병합이미지의 전체 픽셀의 수의 5% 이하의 컬러픽셀 정보를 포함할 수 있다.
본 발명의 일 실시예에서 상기 제2이미지는 상기 컬러픽셀에 대응되는 상기 센서어레이(3000)의 센서로부터 센싱 된 정보만을 입력 받아 생성할 수도 있고, 혹은 상기 센서어레이(3000)의 모든 센서로부터 획득한 이미지 중 상기 컬러픽셀에 대응되는 상기 센서의 위치에 해당하는 픽셀 외에 상기 화이트픽셀에 대응되는 상기 센서의 위치에 해당하는 픽셀의 정보를 제거함으로써 생성될 수 있다.
이와 같은 상기 제2이미지는 상기 컬러픽셀에 대응되는 상기 센서에 의해 획득한 정보로 구성되어 컬러 이미지로 생성될 수 있다.
상기 이미지병합부(130)는 상기 제1이미지입력부(110) 및 상기 제2이미지입력부(120)로부터 상기 제1이미지 및 상기 제2이미지를 전송 받고, 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성한다. 본 발명의 일 실시예에 따르면 상기 제1이미지는 밝기정보만을 포함하는 모노이미지이고, 상기 제2이미지는 색상정보를 포함하는 컬러이미지로서, 상기 제1이미지 및 상기 제2이미지를 병합함으로써 상기 이미지병합부(130)는 밝기정보 및 색상정보가 완전히 구비된 병합이미지를 생성하게 된다. 바람직하게는 상기 이미지병합부(130)는 학습된 인공신경망을 통해 상기 제1이미지 및 상기 제2이미지를 병합하여 병합이미지를 생성한다. 바람직하게는 본 발명의 일 실시예에 따른 이미지병합부(130)는 2단계의 처리를 통해 상기 제1이미지 및 상기 제2이미지를 병합할 수 있다. 제1단계에서는 상기 제1이미지의 누락된 픽셀의 휘도를 복원하여 휘도복원이미지를 생성하고, 제2단계에서는 상기 휘도복원이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성할 수 있다.
상기 병합이미지출력부(140)는 상기 이미지병합부(130)에서 생성된 병합이미지를 외부로 출력한다. 상기 병합이미지출력부(140)는 상기 이미지 센싱장치를 통해 빛을 센싱하고, 센싱 된 빛의 정보를 처리하여 생성한 상기 병합이미지를 연결된 장치로 전송하여 사용자 등이 이용할 수 있도록 한다. 상기 병합이미지출력부(140)는 네트워크인터페이스(300)를 통해 외부의 컴퓨팅 장치 등으로 상기 병합이미지를 전송할 수 있다.
도 4는 본 발명의 일 실시예에 따른 컬러필터어레이의 패턴을 개략적으로 도시하는 도면이다.
도 4를 참조하면 본 발명의 일 실시예에 따른 컬러필터어레이(2000)는 복수의 픽셀을 포함하고, 상기 픽셀은 모든 색상의 빛을 통과시키는 화이트픽셀; 혹은 기설정된 색상의 빛만을 통과시키는 컬러픽셀; 이고, 상기 컬러픽셀은, 적색 빛을 투과시키는 R픽셀; 녹색 빛을 투과시키는 G픽셀; 및 청색 빛을 투과시키는 B픽셀; 중 하나이다.
도 4를 참조하면 상기 컬러필터어레이(2000)는 3종류의 컬러픽셀(R, G, B) 및 화이트픽셀(W)를 포함하고, 상기 컬러픽셀은 상기 컬러필터어레이(2000)에 기설정된 패턴에 따라 배열되어 있다. 도 4에 도시된 상기 기설정된 패턴은 본 발명의 일 실시예일뿐, 본 발명의 컬러픽셀은 도 4에 도시되지 않은 다른 패턴으로 배열되어 있을 수 있다.
도 4를 참조하면 본 발명의 일 실시예에 따른 상기 기설정된 패턴은 18 x 18 픽셀 크기의 패턴이 반복되는 형태이다. 설명의 편의를 위해 상기 18 x 18 크기의 패턴에서 왼쪽에서 n번째, 위에서 m번째 픽셀을 (n,m)픽셀이라 한다.
도 4에 도시된 실시예에서는 (9,9)픽셀은 R픽셀, (10,9)픽셀 및 (9,10)픽셀은 G픽셀, (10,10)픽셀은 B픽셀의 컬러픽셀(2100)이고, 나머지 픽셀은 모두 화이트픽셀(2100)이다. 이와 같이 18 x 18 크기의 패턴에 4 개의 컬러픽셀이 포함됨으로써 컬러픽셀의 비율은 1.13%이고, 화이트픽셀의 비율은 98.86%로서 컬러픽셀의 비율이 극히 낮은 패턴이다.
이와 같이 배열된 화이트픽셀(2200) 및 컬러픽셀(2100)에 의해 상기 픽셀들에 대응되는 센서어레이(3000)의 센서는 각각 밝기정보 및 색상정보를 획득할 수 있게 된다.
도 5는 본 발명의 일 실시예에 따른 이미지병합부 및 병합이미지출력부의 동작을 개략적으로 도시하는 도면이다.
도 5를 참조하면 본 발명의 일 실시예에 따른 이미지병합부(130)는 상기 제1이미지입력부(110) 및 상기 제2이미지입력부(120)로부터 각각 제1이미지(1) 및 제2이미지(2)를 입력 받는다.
도 5에 도시된 상기 제1이미지(1) 및 상기 제2이미지(2)는 상기 도 4에 도시된 것과 같은 컬러필터어레이(2000)의 패턴에 의해 획득한 이미지이다. 상기 제1이미지(1)는 상기 컬러필터어레이(2000)의 컬러픽셀(2100)을 제외한 화이트픽셀(2200)에 대응되는 센서어레이의 센서로부터 획득되어 상기 컬러픽셀(2100)을 제외한 영역(흰색으로 표시)에서 각각의 픽셀의 빛의 세기를 감지함으로써 밝기 정보를 포함하게 된다. 도 5에 도시된 것과 같이 상기 제1이미지(1)는 기설정된 패턴에 의해 배열된 상기 컬러픽셀(2100)이 위치한 픽셀을 구멍으로 남겨둔 나머지 영역에 대한 밝기 정보가 포함된다.
상기 제2이미지(2)는 상기 컬러필터어레이(2000)의 컬러픽셀(2100)에 대응되는 센서어레이의 센서로부터 획득되어 상기 컬러픽셀(2100) 영역(흰색으로 표시)에서 각각의 픽셀에서 설정된 색상에 대한 빛의 세기를 감지함으로써 색상 정보를 포함하게 된다.
본 발명의 일 실시예에서, 상기 이미지병합부(130)는, 학습된 인공신경망에 기초하여 상기 제1이미지(1) 및 상기 제2이미지(2)를 병합하여 병합이미지를 생성할 수 있다. 바람직하게는 상기 인공신경망은 컨볼루션신경망이다. 컨볼루션신경망은 인공신경망에 필터 기술을 병합하여 인공신경망이 2차원 영상을 잘 습득할 수 있도록 최적화 시킨 알고리즘이다.
이와 같은 인공신경망을 통해 상기 제1이미지 및 상기 제2이미지를 병합하여 병합이미지를 생성함으로써, 더욱 높은 품질의 병합이미지를 생성할 수 있다.
상기 이미지병합부(130)를 통해 생성된 상기 병합이미지는 상기 병합이미지출력부(140)를 통해 외부의 장치 등으로 출력된다. 예를 들어 상기 병합이미지출력부(140)는 네트워크인터페이스(300)를 통해 연결된 메모리카드에 상기 병합이미지를 저장하거나, 혹은 인터넷 망을 통해 연결된 클라우드서비스 등에 상기 병합이미지를 전송하여 저장하도록 할 수도 있다.
도 6은 본 발명의 일 실시예에 따른 이미지병합부의 내부 구성을 개략적으로 도시하는 도면이다.
전술한 바와 같이 본 발명의 일 실시예에 따른 상기 이미지병합부(130)는 2단계의 처리를 통해 상기 제1이미지(1) 및 상기 제2이미지(2)를 병합하여 병합이미지(3)를 생성할 수 있다. 이를 위해 상기 이미지병합부(130)는, 상기 제1이미지(1)에 기초하여 상기 컬러픽셀(2100)이 위치하는 영역의 휘도를 도출하여 휘도복원이미지(4)를 생성하는 휘도복원부(131); 상기 휘도복원부를 통해 생성된 상기 휘도복원이미지(4)의 색 경계 정보를 포함하는 경계이미지(5)를 생성하는 경계추출부(132); 및 상기 제2이미지(2), 상기 휘도복원이미지(4) 및 상기 경계이미지(5)에 기초하여 병합이미지(3)를 생성하는 색상복원부(133); 를 포함할 수 있다.
이와 같이 본 발명의 일 실시예에 따르면 상기 휘도복원부(131) 및 경계추출부(132)에서 1차적으로 상기 제1이미지(1)에 대한 처리를 수행하여 휘도복원이미지(4) 및 경계이미지(5)를 생성하고, 상기 색상복원부(133)에서 2차적으로 상기 제2이미지(2), 상기 휘도복원이미지(4) 및 상기 경계이미지(5)에 대한 처리를 수행하여 병합이미지(3)를 생성하게 된다.
상기 제1이미지(1)는 도 5에 도시된 바와 같이 기설정된 패턴에 의해 배열된 상기 컬러픽셀(2100)이 위치한 픽셀을 구멍으로 남겨둔 나머지 영역에 대한 밝기 정보가 포함되어 있다. 상기 휘도복원부(131)에서는 상기 제1이미지(1)를 입력 받아 상기 컬러픽셀(2100)이 위치한 픽셀에 대한 밝기정보를 도출하여 채워 넣음으로써 휘도복원이미지(4)를 생성할 수 있다.
한편, 상기 색상복원부(133)는 상기 휘도복원이미지(4)의 휘도 정보에 상기 제2이미지(2)의 색상정보를 병합하여 병합이미지(2)를 생성할 수 있다.
이 때, 본 발명의 일 실시예에서 상기 휘도복원부(131) 및 상기 색상복원부(133)는 각각의 인공신경망에 기초하여 상기 휘도복원이미지(4) 및 상기 병합이미지(3)를 생성한다. 즉, 상기 휘도복원부(131)는 상기 휘도복원이미지(4)를 생성하기 위한 인공신경망을 포함하여 구성되고, 상기 색상복원부(133)는 상기 병합이미지(3)를 생성하기 위한 인공신경망을 포함하여 구성된다. 상기 경계추출부(132)는 상기 휘도복원부(131)의 인공신경망이 상기 휘도복원이미지(4)를 생성하는 과정에서 추출되는 엣지정보에 기초하여 경계이미지(5)를 생성할 수 있다. 이와 같이 생성된 경계이미지(5)는 상기 색상복원부(133)에서 병합이미지(3)를 생성하기 위한 정보로 사용되어, 상기 병합이미지(3) 생성 과정에서 발생할 수 있는 색번짐 현상을 감소시킬 수 있다.
본 발명의 다른 실시예에서는 상기 색상복원부(133)는 인공신경망에 의하여 상기 병합이미지(3)를 생성하지만, 상기 휘도복원부(131)는 공지된 픽셀 보간 (pixel interpolation) 알고리즘 등의 인공신경망을 이용하지 않는 방식으로 휘도복원이미지(4)를 생성할 수도 있다.
본 발명의 일 실시예에서 상기 색상복원부(133)는, 생성적 적대 신경망(Generative Adversarial Network, GAN)으로 구성되어 병합이미지(3)를 생성할 수 있다. 생성적 적대 신경망은 생성기(Generator) 및 판별기(Discriminator) 두 개의 신경망을 포함하고, 상기 생성기와 상기 판별기가 경쟁적으로 학습됨으로써 생성기의 성능을 향상시키는 인공신경망 구조이다.
생성적 적대 신경망에서 상기 생성기는 데이터를 생성하고, 상기 판별기는 입력되는 데이터가 실제 데이터인지 생성된 허위 데이터인지를 판별하게 된다. 따라서 상기 판별기는 학습을 통해 실제 데이터를 판별하는 능력을 향상시키게 되고, 상기 생성기는 학습을 통해 상기 판별기가 판별하지 못할 정도로 실제 데이터에 가까운 허위 데이터를 생성하는 능력을 향상시키게 된다.
본 발명의 일 실시예에서 상기 색상복원부(133)는, 상기 제2이미지(2), 상기 휘도복원이미지(4) 및 상기 경계이미지(5)에 기초하여 병합이미지를 생성하는 색상복원모듈(133a); 및 상기 색상복원모듈이 생성한 상기 병합이미지를 평가하는 평가모듈(133b); 을 포함하고, 상기 색상복원모듈 및 상기 평가모듈은 상호 피드백을 수행할 수 있다. 이와 같은 실시예에서 상기 색상복원모듈(133a)는 상기 생성적 적대 신경망의 생성기로서의 역할을 수행하고, 상기 평가모듈(133b)는 기 생성적 적대 신경망의 판별기로서의 역할을 수행하게 된다.
도 7은 본 발명의 일 실시예에 따른 휘도복원부(131), 색상복원모듈(133a) 및 평가모듈(133b)의 인공신경망의 구조를 개략적으로 도시하는 도면이다.
도 7의 (a)에는 본 발명의 일 실시예에 따른 휘도복원부(131)의 인공신경망의 구조가 도시되어 있다.
본 발명의 일 실시예에서 상기 휘도복원부(131)는 스택형 컨볼루션 신경망으로 구성될 수 있다. 더욱 상세하게는 스택형 5층 컨볼루션 신경망으로 구성될 수 있다. 상기 컨볼루션 신경망의 첫 3개의 층은 깊이가 64이고, 다음 2개의 층은 깊이가 128이다. 각 층은 3 x 3의 커널 크기를 가지고, 활성함수로 ReLU를 사용할 수 있다. 상기 컨볼루션 신경망의 최종 층은 H x W x 1의 출력을 가질 수 있다. 이 때, H 및 W는 각각 상기 제1이미지(1)의 높이 및 폭을 의미한다.
도 7의 (b)에는 본 발명의 일 실시예에 따른 휘도복원모듈(133a)의 인공신경망의 구조가 도시되어 있다.
본 발명의 일 실시예에서 상기 색상복원모듈(133a)은 고밀도 U-net으로 구성될 수 있다. 고밀도 U-net은 고밀도 컨볼루션 신경망과 U-net의 조합으로서, 전체적으로 U-net의 아키텍처 구조를 유지하면서 조밀하게 연결된 층을 통해 특징을 추출하고 전파하기 위해 고밀도 블록을 활용한다. 상기 고밀도 U-net은 상기 제2이미지(2) 및 상기 휘도복원이미지(4)를 입력으로 한다. 상기 제2이미지(2) 및 상기 휘도복원이미지(4)는 3 x 3의 커널 크기를 가지고 깊이가 15이고 활성함수로 ReLU를 사용하는 제1컨볼루션층(Conv1)을 통해 처리된다. 또한 상기 경계이미지(5)는 상기 제1컨볼루션층의 출력과 연결된다. 제1컨볼루션층 다음으로는 3개의 고밀도 블록(Dense1-3)과 3개의 전환블록(Tran1-3)이 번갈아 위치한다. 상기 제1컨볼루션층(Conv1)의 출력은 피드 포워드 방식으로 연속적인 고밀도 블록(Dense1-3)으로 공급되고, 각 고밀도 블록(Dense1-3)은 커널 크기가 3 x 3이고 스트라이드가 1인 복수의 컨볼루션층을 갖는다. 각각의 컨볼루션층은 배치 정규화로 정규화 되고, 활성함수로 ReLU를 사용한다. 3개의 상기 고밀도 블록의 출력 크기는 각각 64, 128 및 256이다. 상기 고밀도 블록의 출력은 각각의 전환블록(Dense1-3)을 통과한다. 각각의 전환블록(Dense1-3)은 컨볼루션층과 다운샘플링층으로 구성된다. 전환블록(Dense1-3)의 컨볼루션층의 커널 크기는 3 x 3이고 스트라이드는 1이고 활성함수로 ReLU를 사용한다. 다운샘플링층은 동일한 커널 크기에서 스트라이드가 2인 컨볼루션연산을 수행한다. 세 번째 전환블록(Dense3) 다음에 세 개의 컨볼루션 블록(Conv2-4)이 이어진다. 두 번째 컨볼루션 블록(Conv2)은 두 개의 컨볼루션층을 더 갖고, 세 번째 컨볼루션 블록(Conv3)은 고레벨 특징 추출을 위한 5개의 확장 컨볼루션층(확장=2)으로 구성되고, 네 번째 컨볼루션 블록은 단일 컨볼루션층을 갖는다. 상기 세 개의 컨볼루션 블록(Conv2-4)의 각 계층은 커널 크기가 3 x 3이고 스트라이드는 1이고 깊이는 512이다. 또한 이 계층은 배치 정규화에 의해 정규화 되고 활성함수로 ReLU를 사용한다. 네 번째 컨볼루션 블록(Conv4) 다음에는 세 개의 업샘플링 블록(Conv5-7)이 이어진다. 각각의 업샘플링 블록(Conv5-7)은 2 x 2 업샘플링층과 상기 업샘플링층에 이어지는 커널 크기가 3 x 3인 컨볼루션층으로 구성된다. 상기 업샘플링 블록(Conv5-7) 또한 배치 정규화로 정규화 되고 활성함수로 ReLU를 사용한다. 세 개의 상기 업샘플링 블록(Conv5-7)의 출력 크기는 각각 256, 128, 64이다. 세 개의 상기 업샘플링 블록(Conv5-7)에는 각각 상기 고밀도 블록(Dense1-3)과 개별 스킵 연결이 존재한다. 이와 같은 스킵 연결에 의해 네트워크는 저레벨 특징을 전파할 수 있도록 하여 최종 이미지의 재구성에 기여할 수 있다. 마지막으로 제8컨볼루션층(Conv8)이 위치한다. 상기 제8컨볼루션층(Conv8)의 출력 크기는 H x W x 3이다. 최종 병합이미지는 활성함수로 tanh를 사용한다.
도 7의 (c)에는 본 발명의 일 실시예에 따른 평가모듈(133b)의 인공신경망의 구조가 도시되어 있다.
본 발명의 일 실시예에서 상기 평가모듈(133b)은 스택형 컨볼루션 신경망으로 구성될 수 있다. 더욱 상세하게는 상기 스택형 컨볼루션 신경망은 제2이미지, 휘도복원이미지, 경계이미지 및 병합이미지를 입력 받는다. 상기 스택형 컨볼루션 신경망의 첫 3개의 컨볼루션층은 깊이가 64이고, 다음 컨볼루션층은 깊이가 128이다. 각각의 컨볼루션층의 커널은 크기가 3 x 3이고 스트라이드가 1이다. 모든 컨볼루션층에서는 배치 정규화로 정규화 되고, 활성함수로 ReLU를 사용한다. 상기 스택형 컨볼루션 신경망의 마지막 층은 평탄화를 수행하고 활성함수로 시그모이드 함수를 사용한다.
본 발명의 일 실시예에서 상기 휘도복원부(131) 및 상기 색상복원부(133) 각각의 인공신경망은 독립적으로 학습이 수행된다. 이와 같이 상기 휘도복원부의 인공신경망과 상기 색상복원부의 인공신경망이 각각 학습이 수행됨으로써 각각의 인공신경망에 적합한 학습 데이터를 이용하여 효율적으로 학습을 수행할 수 있다.
도 8은 본 발명의 일 실시예에 따른 제1이미지, 제2이미지, 휘도복원이미지 및 경계이미지를 예시적으로 도시하는 도면이다.
도 8의 (a)는 본 발명의 일 실시예에 따른 제1이미지(1)를 도시한다. 이와 같은 제1이미지(1)는 색상정보를 포함하지 않고 밝기정보만을 포함하고 있으며, 컬러픽셀(2100)에 해당하는 픽셀에는 밝기정보가 존재하지 않아 검은 구멍과 같이 표현되어 있다.
도 8의 (b)는 본 발명의 일 실시예에 따른 제2이미지(2)를 도시한다. 이와 같은 제2이미지(2)는 컬러픽셀(2100)에 해당하는 픽셀에서만 색상정보가 포함되어 있고, 화이트픽셀(2200)에 해당하는 픽셀에서는 색상정보가 존재하지 않아 검게 표현되어 있다.
도 8의 (c)는 본 발명의 일 실시예에 따른 휘도복원이미지(4)를 도시한다. 상기 휘도복원이미지(4)는 상기 휘도복원부(131)가 도 8의 (a)에 도시된 상기 제1이미지(1)의 상기 컬러픽셀(2100)에 해당하는 픽셀의 밝기정보를 도출하여 채움으로써 생성될 수 있다.
도 8의 (d)는 본 발명의 일 실시예에 따른 경계이미지(5)를 도시한다. 상기 경계이미지(5)는 상기 경계추출부(132)에서 상기 휘도복원이미지(4)를 처리하여 생성될 수 있다.
도 9는 본 발명의 일 실시예에 따른 이미지병합부의 학습단계를 개략적으로 도시하는 도면이다.
도 9의 (a)는 상기 평가모듈(133b)의 학습이 이루어지는 과정을 도시한다. 도 9의 (a)를 참조하면 본 발명의 일 실시예에 따른 상기 평가모듈(133b)은, 기저장된 복수의 학습 병합이미지를 입력 받아 상기 학습 병합이미지의 진위여부를 평가하고 평가결과에 기초하여 피드백을 수행하여 학습이 이루어진다. 상기 학습 병합이미지는 학습 진실 병합이미지 및 학습 허위 병합이미지를 포함할 수 있다. 상기 평가모듈(133b)은 이와 같은 학습 병합이미지를 입력 받아 상기 학습 병합이미지의 진위 여부를 평가하여 평가결과를 도출하고, 상기 평가결과를 피드백 하여 상기 평가모듈(133b)의 인공신경망을 학습함으로써 상기 평가모듈(133b)의 평가 능력을 향상시킬 수 있다.
도 9의 (b)는 상기 색상복원모듈(133a)의 학습이 이루어지는 과정을 도시한다. 도 9의 (b)를 참조하면 본 발명의 일 실시예에 따른 상기 색상복원모듈(133a)은, 기저장된 복수의 학습 제2이미지, 학습 휘도복원이미지 및 학습 경계이미지 세트를 입력 받아 학습 병합이미지를 생성하고, 상기 평가모듈(133b)이 생성된 상기 학습 병합이미지를 평가한 평가결과에 기초하여 피드백을 수행하여 학습이 이루어진다. 즉, 상기 색상복원모듈(133a)는 학습을 위한 이미지세트를 입력 받아 학습 병합이미지를 생성하고, 상기 평가모듈(133b)이 상기 학습 병합이미지의 인위 여부를 평가한 평가결과를 피드백 하여 상기 색상복원모듈(133a)의 생성 능력을 향상시킬 수 있다. 이 때, 상기 색상복원모듈(133a)은 상기 학습 병합이미지가 상기 평가모듈(133b)에서 진실 병합이미지로 판단될 수 있는 방향으로 학습을 수행하여 진위 병합이미지에 가까운 병합이미지를 생성할 수 있도록 생성 능력을 향상시킬 수 있다.
도 10은 본 발명의 일 실시예에 따른 이미지처리방법의 각 단계를 개략적으로 도시하는 도면이다.
도 10을 참조하면 본 발명의 일 실시예에 따른 이미지처리방법은 전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리방법으로서, 상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지획득단계(S110); 상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지획득단계(S120); 학습된 인공신경망에 의하여 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합단계(S200); 및 상기 병합이미지를 외부로 출력하는 병합이미지출력단계(S300); 를 포함한다.
상기 제1이미지획득단계(S110)는 전술한 상기 제1이미지입력부(110)의 동작과 동일한 동작을 수행한다. 연결된 센서어레이(3000)의 센서 중 상기 화이트픽셀(2100)에 대응되는 센서로부터 센싱 된 정보를 입력 받아 제1이미지를 획득한다. 이와 같은 제1이미지는 상기 화이트픽셀(2100)에 대응되는 센서로부터 센싱 된 정보만을 입력 받아 구성될 수도 있고, 혹은 상기 센서어레이(3000)의 센서 전부로부터 센싱 된 정보를 입력 받은 후, 상기 화이트픽셀(2100)에 대응되는 센서로부터 센싱 된 정보를 선별하여 구성될 수도 있다.
상기 제2이미지획득단계(S120)는 전술한 상기 제2이미지입력부(120)의 동작과 동일한 동작을 수행한다. 연결된 센서어레이(3000)의 센서 중 상기 컬러픽셀(2200)에 대응되는 센서로부터 센싱 된 정보를 입력 받아 제2이미지를 획득한다. 이와 같은 제2이미지는 상기 컬러픽셀(2200)에 대응되는 센서로부터 센싱 된 정보만을 입력 받아 구성될 수도 있고, 혹은 상기 센서어레이(3000)의 센서 전부로부터 센싱 된 정보를 입력 받은 후, 상기 컬러픽셀(2200)에 대응되는 센서로부터 센싱 된 정보를 선별하여 구성될 수도 있다.
본 발명의 일 실시예에서 상기 제1이미지획득단계(S110) 및 상기 제2이미지획득단계(S120)는 동시에 수행될 수 있다.
상기 이미지병합단계(S200)는 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성한다. 본 발명의 일 실시예에서 상기 이미지병합단계(S200)에서는 상기 제1이미지획득단계(S110) 및 상기 제2이미지획득단계(S120)에서 획득한 상기 제1이미지 및 상기 제2이미지를 전송 받고, 상기 제1이미지 및 상기 제2이미지를 병합하여 병합이미지를 생성한다. 본 발명의 일 실시예에 따르면 상기 제1이미지는 밝기정보만을 포함하는 모노이미지이고, 상기 제2이미지는 색상정보를 포함하는 컬러이미지로서, 상기 제1이미지 및 상기 제2이미지를 병합함으로써 상기 이미지병합단계(S200)에서는 밝기정보 및 색상정보가 완전히 구비된 병합이미지를 생성하게 된다. 바람직하게는 상기 이미지병합단계(S200)에서는 학습된 인공신경망을 통해 상기 제1이미지 및 상기 제2이미지를 병합하여 병합이미지를 생성한다.
상기 병합이미지출력단계(S300)는 상기 병합이미지를 외부로 출력한다. 상기 병합이미지출력단계(S300)에서는 상기 이미지 센싱장치를 통해 빛을 센싱하고, 센싱 된 빛의 정보를 처리하여 생성한 상기 병합이미지를 연결된 장치로 전송하여 사용자 등이 이용할 수 있도록 한다. 상기 병합이미지출력단계(S300)에서는 네트워크인터페이스(300)를 통해 외부의 컴퓨팅 장치 등으로 상기 병합이미지를 전송할 수 있다.
도 11은 본 발명의 일 실시예에 따른 이미지 병합 단계의 세부 단계를 개략적으로 도시하는 도면이다.
도 11을 참조하면 본 발명의 일 실시예에 따른 상기 이미지병합단계(S200)는, 상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원단계(S210); 상기 휘도복원부를 통해 상기 휘도복원이미지의 색 경계 정보를 포함하는 경계이미지를 생성하는 경계추출단계(S220); 상기 제2이미지, 상기 휘도복원이미지 및 상기 경계이미지에 기초하여 병합이미지를 생성하는 색상복원단계(S230); 및 상기 색상복원단계에서 생성한 상기 병합이미지를 평가하는 평가단계(S240); 를 포함할 수 있다.
상기 휘도복원단계(S210)는 상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성한다. 상기 휘도복원단계(S210)에서는 상기 제1이미지(1)를 입력 받아 상기 컬러픽셀(2100)이 위치한 픽셀에 대한 밝기정보를 도출하여 채워 넣음으로써 휘도복원이미지(4)를 생성할 수 있다. 바람직하게는 상기 휘도복원단계(S210)에서는 인공신경망에 기초하여 상기 휘도복원이미지를 생성한다.
상기 경계추출단계(S220)는 상기 휘도복원단계(S210)를 통해 생성된 상기 휘도복원이미지의 색 경계 정보를 포함하는 경계이미지를 생성한다. 이와 같은 경계이미지는 상기 휘도복원이미지에 대한 필터 처리를 통해 회득될 수 있다.
상기 색상복원단계(S230)는 상기 제2이미지, 상기 휘도복원이미지 및 상기 경계이미지에 기초하여 병합이미지를 생성한다. 바람직하게는 상기 색상복원단계(S230)에서는 상기 휘도복원이미지의 밝기정보 및 상기 제2이미지의 색상정보에 기초하여 상기 휘도복원이미지에 색상정보를 복원함으로써 병합이미지를 생성할 수 있다. 이 때 상기 경계이미지를 색상정보를 복원하는 가이드로 사용하여 더욱 정확하게 색상을 복원할 수 있다. 바람직하게는 상기 색상복원단계(S230)에서는 인공신경망에 기초하여 상기 병합이미지를 생성한다.
상기 평가단계(S240)는 상기 색상복원단계(S230)에서 생성한 상기 병합이미지를 평가한다. 상기 평가단계(S240)는 상기 병합이미지를 평가하여 상기 병합이미지가 실제 이미지인지 생성된 허위 이미지인지를 판별하여 평가하게 된다. 이와 같은 평가 결과는 상기 색상복원단계(S230)에 피드백 되어 상기 색상복원단계(S230)에서 실제 이미지에 더욱 가까운 병합이미지를 생성할 수 있도록 할 수 있다. 바람직하게는 상기 평가단계(S240)에서는 인공신경망에 기초하여 상기 병합이미지를 평가한다.
도 12 내지 도 15는 본 발명의 일 실시예에 따라 생성된 이미지를 도시하는 도면이다.
도 12 내지 도 15에는 본 발명의 일 실시예에 따라 생성된 이미지들이 도시되어 있다. 각각의 도면에서 (a)는 원본(Ground Truth) 이미지이고, (b)는 상기 원본 이미지의 일부를 확대한 이미지이고, (c)는 본 발명의 일 실시예에 따른 이미지 처리장치 중 평가모듈(133b) 없이 색상복원모듈(133a)을 포함하는 색상복원부(133)에 의해 생성된 병합이미지의 일부를 확대한 이미지이고, (d)는 본 발명의 일 실시예에 따른 이미지 처리장치 중 평가모듈(133b)을 포함하여 색상복원모듈(133a)과 생성적 적대 신경망을 구성하는 색상복원부(133)에 의해 생성된 병합이미지의 일부를 확대한 이미지이다.
본 발명에서의 휘도복원이미지(4) 및 제2이미지(2)와 같이 컬러힌트(제2이미지)에 기초하여 흑백이미지(휘도복원이미지)의 색상을 재현하는데 있어 색번짐 및 허위 색 재현이 중요한 문제이다. 색번짐은 인접한 영역의 색상에 영향을 받아 인접한 영역의 색상이 번져 나와 원래와 다른 색상을 재현하는 문제로서 마치 피가 배어 나와 흐르는 것과 같아 color bleeding이라고도 한다. 또한, 허위 색 재현은 컬러 힌트가 존재하지 않는 작고 복잡한 객체 영역이 포함되는 경우 실제 색상을 복구하지 못하여 부자연스러운 색상으로 재현되는 문제이다.
도 12 및 도 13을 참조하면 모두 원본 이미지(a)(b)와 병합이미지들(c)(d)이 거의 차이가 없이 색상복원이 이루어졌음을 확인할 수 있다. 특히, 인접한 색상에 영향을 받는 색번짐 현상이 거의 나타나지 않았는데 이는 본 발명의 실시예에서 경계이미지를 사용하여 색상을 복원함으로써 색번짐을 억제하였기 때문이다.
도 14 및 도 15를 참조하면 역시 원본 이미지(a)(b)과 병합이미지들(c)(d)이 거의 차이가 없이 색상복원이 이루어졌음을 확인할 수 있다. 다만, 평가모듈(133b) 없이 병합이미지를 생성한 도 14의 (c) 및 도 15의 (c)는 일부 영역에서 원본 이미지와 다른 색상이 나타났으나, 평가모듈(133b)을 포함하여 생성적 적대 신경망을 통해 병합이미지를 생성한 도 14의 (d) 및 도 15의 (d)는 원본 이미지와 거의 동일하게 색상 복원이 이루어졌다.
도 16은 본 발명의 일 실시예에 따른 컬러필터어레이의 패턴을 개략적으로 도시하는 도면이다.
본 발명의 일 실시예에서 상기 이미지병합부(130)는 경계이미지(5)를 통해 색번짐을 억제하고, 생성적 적대 신경망을 통해 색상을 복원함으로써 병합이미지(3)에서 매우 우수한 색 재현을 나타낸다. 이에, 본 발명의 일 실시예에 따른 상기 제1이미지 및 상기 제2이미지를 획득하기 위한 컬러필터어레이(2000)는 매우 낮은 컬러픽셀(2200)의 비율을 가질 수 있다.
도 16에는 이와 같이 매우 낮은 비율의 컬러픽셀(2200)을 갖는 컬러필터어레이(2000)의 일 예가 도시되어 있다.
도 4에서와 같은 방법으로 픽셀을 표시하면, 도 16에 도시된 실시예에서는 (4,4)픽셀은 R픽셀, (17,6)픽셀 및 (5,15)픽셀은 G픽셀, (14,19)픽셀은 B픽셀의 컬러픽셀(2200)이고, 나머지 픽셀은 모두 화이트픽셀(2100)이다. 즉, 도 16에 도시된 컬러필터어레이(2000)는 20 x 20 픽셀 크기의 컬러필터어레이(2000)에 4 개의 컬러픽셀이 포함됨으로써 컬러픽셀의 비율은 1%이고, 화이트픽셀의 비율은 99%에 달한다.
특히 도 16에 도시된 실시예에서는 상기 R픽셀, G픽셀 및 B픽셀이 기설정된 패턴으로 배열되지 않고 20 x 20 픽셀 크기의 컬러필터어레이(2000)에 무작위로 배치되어 있다.
본 발명의 일 실시예에서는 이와 같이 1% 비율을 갖는 컬러픽셀(2200)이 무작위로 배치된 컬러필터어레이(2000)에 의해 획득한 제1이미지(1) 및 제2이미지(2)로부터도 우수한 품질의 병합이미지(3)를 생성할 수 있다.
도 17은 본 발명의 일 실시예에 따라 생성된 이미지를 도시하는 도면이다.
도 17에는 도 16에서와 같이 매우 낮은 1%의 비율을 갖는 컬러픽셀(2200)이 무작위로 배치된 컬러필터어레이(2000)에 의해 획득한 이미지로부터 생성한 병합이미지(3)가 도시되어 있다.
도 17의 (a)는 원본(Ground Truth) 이미지이고, 도 17의 (c) 및 (g)는 도 17의 (a)의 원본 이미지의 일부 영역을 확대한 이미지이고, 도 17의 (e) 및 (i)는 각각 도 17의 (c) 및 (g)의 일부 영역을 다시 확대한 이미지이다. 한편, 도 17의 (b), (d), (f), (h) 및 (j)는 본 발명의 일 실시예에 따라 도 16에서와 같이 매우 낮은 1%의 비율을 갖는 컬러픽셀(2200)이 무작위로 배치된 컬러필터어레이(2000)에 의해 획득한 이미지로부터 생성한 병합이미지로서, 각각 도 17의 (a), (c), (e), (g) 및 (i)와 상응하는 영역의 이미지이다.
도 17을 참조하면 본 발명의 일 실시예에 따라 매우 낮은 1%의 컬러픽셀(2200)이 무작위로 배치된 컬러필터어레이(2000)에 의해 획득한 이미지는 심각한 오류 없이 원본 이미지와 매우 유사함을 확인할 수 있다. 도 14의 (f)나 (j)에서와 같이 매우 작은 객체에서는 부분적으로 허위 색 재현이 일어났으나, 이는 2000% 확대한 도 14의 (f) 및 (j)를 통해서나 확인되고, 도 14의 (b)와 같이 전체적인 이미지로는 매우 우수한 색 재현을 나타낸다.
도 18은 본 발명의 일 실시예에 있어서, 컴퓨팅 장치의 내부 구성의 일례를 설명하기 위한 블록도이다.
도 18에 도시한 바와 같이, 컴퓨팅 장치(11000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(11000)은 사용자단말기 혹은 상담매칭서비스제공시스템에 해당될 수 있다.
메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.
주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.
입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.
이러한 도 18의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 18에 도시된 일부 컴포넌트가 생략되거나, 도 18에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 18에도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.
본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.
본 발명의 일 실시예에 따르면 화이트픽셀의 비율이 매우 높은 컬러필터어레이를 이용하여 빛을 센싱 함으로써 저조도 환경에서 우수한 품질의 이미지를 획득할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면 매우 적은 비율의 컬러픽셀을 통해 획득한 색상정보에 기초하여 인공신경망을 통해 색상을 복원하여 높은 품질의 색상 복원을 수행할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면 경계이미지를 생성하여 색상의 복원에 사용함으로써 색상 복원 과정에서의 색번짐을 줄일 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면 생성적 적대 신경망을 통해 색상을 복원함으로써 허위 색상이 재현되는 것을 방지하는 효과를 발휘할 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (14)

1 이상의 프로세서 및 1 이상의 메모리를 갖고, 전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리장치로서,
상기 이미지처리장치는,
상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지입력부;
상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지입력부; 및
1이상의 학습된 인공신경망을 포함하고, 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합부; 를 포함하고,
상기 이미지병합부는,
상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원부; 및
상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 색상복원부; 를 포함하고,
상기 색상복원부는,
상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 색상복원모듈; 및
상기 색상복원모듈이 생성한 상기 병합이미지를 평가하는 평가모듈; 을 포함하고,
상기 색상복원모듈 및 상기 평가모듈은 상호 피드백을 수행하고,
상기 평가모듈은,
기저장된 복수의 학습 병합이미지를 입력 받아 상기 학습 병합이미지의 진위여부를 평가하고 평가결과에 기초하여 피드백을 수행하여 학습이 이루어지는, 이미지처리장치.
청구항 1에 있어서,
상기 제1이미지는 상기 병합이미지의 전체 픽셀의 수의 90% 이상의 화이트픽셀 정보를 포함하고,
상기 제2이미지는 상기 병합이미지의 전체 픽셀의 수의 10% 이하의 컬러픽셀 정보를 포함하는, 이미지처리장치.
청구항 1에 있어서,
상기 색상복원부는 학습된 인공신경망에 기초하여 상기 병합이미지를 생성하는, 이미지처리장치.
청구항 1에 있어서,
상기 휘도복원부 및 상기 색상복원부는 각각의 학습된 인공신경망에 기초하여 상기 휘도복원이미지 및 상기 병합이미지를 생성하는, 이미지처리장치.
삭제
삭제
1 이상의 프로세서 및 1 이상의 메모리를 갖고, 전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리장치로서,
상기 이미지처리장치는,
상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지입력부;
상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지입력부; 및
1이상의 학습된 인공신경망을 포함하고, 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합부; 를 포함하고,
상기 이미지병합부는,
상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원부; 및
상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 색상복원부; 를 포함하고,
상기 색상복원부는,
상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 색상복원모듈; 및
상기 색상복원모듈이 생성한 상기 병합이미지를 평가하는 평가모듈; 을 포함하고,
상기 색상복원모듈 및 상기 평가모듈은 상호 피드백을 수행하고,
상기 색상복원모듈은,
기저장된 복수의 학습 제2이미지, 학습 휘도복원이미지 및 학습 경계이미지 세트를 입력 받아 학습 병합이미지를 생성하고, 상기 평가모듈이 생성된 상기 학습 병합이미지를 평가한 평가결과에 기초하여 피드백을 수행하여 학습이 이루어지는, 이미지처리장치.
1 이상의 프로세서 및 1 이상의 메모리를 갖고, 전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리장치로서,
상기 이미지처리장치는,
상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지입력부;
상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지입력부; 및
1이상의 학습된 인공신경망을 포함하고, 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합부; 를 포함하고,
상기 이미지병합부는,
상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원부; 및
상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 색상복원부; 를 포함하고,
상기 색상복원부는,
상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 색상복원모듈; 및
상기 색상복원모듈이 생성한 상기 병합이미지를 평가하는 평가모듈; 을 포함하고,
상기 색상복원모듈 및 상기 평가모듈은 상호 피드백을 수행하고,
상기 색상복원모듈은,
고밀도 U-net으로 구성되고,
상기 평가모듈은,
스택형 컨볼루션 신경망으로 구성되는, 이미지처리장치.
청구항 1에 있어서,
상기 휘도복원부는,
스택형 컨볼루션 신경망으로 구성되는, 이미지처리장치.
청구항 1에 있어서,
상기 휘도복원부 및 상기 색상복원부 각각의 인공신경망은 독립적으로 학습이 수행된 인공신경망인, 이미지처리장치.
1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅 장치에서 수행되고, 전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리방법으로서,
상기 이미지처리방법은,
상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지획득단계;
상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지획득단계; 및
1 이상의 학습된 인공신경망에 의하여 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합단계; 를 포함하고,
상기 이미지병합단계는,
상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원단계; 및
상기 제2이미지 및 상기 휘도복원이미지에 기초하여 병합이미지를 생성하는 색상복원단계; 를 포함하고,
상기 색상복원단계는,
상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 병합이미지생성단계; 및
상기 병합이미지생성단계에서 생성한 상기 병합이미지를 평가하는 평가단계; 를 포함하고,
상기 병합이미지생성단계 및 상기 평가단계는 상호 피드백을 수행하고
상기 평가단계는,
기저장된 복수의 학습 병합이미지를 입력 받아 상기 학습 병합이미지의 진위여부를 평가하고 평가결과에 기초하여 피드백을 수행하여 학습이 이루어지는, 이미지처리방법.
1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅 장치에서 수행되고, 전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리방법으로서,
상기 이미지처리방법은,
상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지획득단계;
상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지획득단계; 및
1 이상의 학습된 인공신경망에 의하여 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합단계; 를 포함하고,
상기 이미지병합단계는,
상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원단계; 및
상기 제2이미지 및 상기 휘도복원이미지에 기초하여 병합이미지를 생성하는 색상복원단계; 를 포함하고,
상기 색상복원단계는,
상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 병합이미지생성단계; 및
상기 병합이미지생성단계에서 생성한 상기 병합이미지를 평가하는 평가단계; 를 포함하고,
상기 병합이미지생성단계 및 상기 평가단계는 상호 피드백을 수행하고,
상기 병합이미지생성단계는,
기저장된 복수의 학습 제2이미지, 학습 휘도복원이미지 및 학습 경계이미지 세트를 입력 받아 학습 병합이미지를 생성하고, 상기 평가단계가 생성된 상기 학습 병합이미지를 평가한 평가결과에 기초하여 피드백을 수행하여 학습이 이루어지는, 이미지처리방법.
1 이상의 프로세서 및 1 이상의 메모리를 갖는 컴퓨팅 장치에서 수행되고, 전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리방법으로서,
상기 이미지처리방법은,
상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지획득단계;
상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지획득단계; 및
1 이상의 학습된 인공신경망에 의하여 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합단계; 를 포함하고,
상기 이미지병합단계는,
상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원단계; 및
상기 제2이미지 및 상기 휘도복원이미지에 기초하여 병합이미지를 생성하는 색상복원단계; 를 포함하고,
상기 색상복원단계는,
상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 병합이미지생성단계; 및
상기 병합이미지생성단계에서 생성한 상기 병합이미지를 평가하는 평가단계; 를 포함하고,
상기 병합이미지생성단계 및 상기 평가단계는 상호 피드백을 수행하고,
상기 병합이미지생성단계는,
고밀도 U-net에 의하여 수행되고,
상기 평가단계는,
스택형 컨볼루션 신경망에 의하여 수행되는, 이미지처리방법.
전기적으로 접속된 이미지센서로부터 이미지데이터를 입력 받아 병합이미지를 출력하는 이미지처리방법을 구현하기 위한 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은:
상기 이미지센서의 복수의 화이트픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제1이미지를 입력 받는 제1이미지획득단계;
상기 이미지센서의 복수의 컬러픽셀에 의하여 센싱 된 정보에 기초하여 생성된 제2이미지를 입력 받는 제2이미지획득단계; 및
1 이상의 학습된 인공신경망에 의하여 상기 제1이미지 및 상기 제2이미지에 기초하여 병합이미지를 생성하는 이미지병합단계; 를 포함하고,
상기 이미지병합단계는,
상기 제1이미지에 기초하여 상기 컬러픽셀이 위치하는 영역의 휘도를 도출하여 휘도복원이미지를 생성하는 휘도복원단계; 및
상기 제2이미지 및 상기 휘도복원이미지에 기초하여 병합이미지를 생성하는 색상복원단계; 를 포함하고,
상기 색상복원단계는,
상기 제2이미지 및 상기 휘도복원이미지를 포함하는 데이터에 기초하여 병합이미지를 생성하는 병합이미지생성단계; 및
상기 병합이미지생성단계에서 생성한 상기 병합이미지를 평가하는 평가단계; 를 포함하고,
상기 병합이미지생성단계 및 상기 평가단계는 상호 피드백을 수행하고
상기 평가단계는,
기저장된 복수의 학습 병합이미지를 입력 받아 상기 학습 병합이미지의 진위여부를 평가하고 평가결과에 기초하여 피드백을 수행하여 학습이 이루어지는, 컴퓨터-판독가능 매체.
KR1020190153450A 2019-11-26 2019-11-26 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체 KR102230609B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190153450A KR102230609B1 (ko) 2019-11-26 2019-11-26 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체
PCT/KR2020/000795 WO2021107264A1 (ko) 2019-11-26 2020-01-16 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190153450A KR102230609B1 (ko) 2019-11-26 2019-11-26 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체

Publications (1)

Publication Number Publication Date
KR102230609B1 true KR102230609B1 (ko) 2021-03-19

Family

ID=75262046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190153450A KR102230609B1 (ko) 2019-11-26 2019-11-26 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체

Country Status (2)

Country Link
KR (1) KR102230609B1 (ko)
WO (1) WO2021107264A1 (ko)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9191635B2 (en) * 2012-03-19 2015-11-17 Semiconductor Components Industries, Llc Imaging systems with clear filter pixels
US8866944B2 (en) * 2012-12-28 2014-10-21 Visera Technologies Company Limited Method for correcting pixel information of color pixels on a color filter array of an image sensor
JP6514495B2 (ja) * 2014-12-03 2019-05-15 株式会社ジャパンディスプレイ 画像表示装置
FR3030885B1 (fr) * 2014-12-22 2017-12-22 E2V Semiconductors Capteur d'image en couleurs avec pixels blancs et pixels colores

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Chakrabarti et al. Rethinking color cameras. ICCP, 2014년 5월, pp. 1-8. 1부.* *
Guadarrama et al. Pixcolor: Pixel recursive colorization. arXiv, 2017년 6월, pp. 1-17. 1부.* *
Kwan & Chou. Further improvement of debayering performance of RGBW color filter arrays using deep learning and pansharpening techniques. Journal of Imaging, 2019년 8월, pp. 1-14. 1부.* *

Also Published As

Publication number Publication date
WO2021107264A1 (ko) 2021-06-03

Similar Documents

Publication Publication Date Title
US11449966B2 (en) Real-time video ultra resolution
US9147236B2 (en) Method and device for generating high dynamic range images
CN101375610B (zh) 生成数字彩色图像的方法
CN111194458A (zh) 用于处理图像的图像信号处理器
US11533458B2 (en) Image processing device including neural network processor and operating method thereof
US8417047B2 (en) Noise suppression in low light images
JP6929929B2 (ja) 複数の隣接する赤外線フィルタ要素を備えた画像センサの方法および装置
CN111402146A (zh) 图像处理方法以及图像处理装置
CN102450020A (zh) 四通道滤色器阵列内插
CN109801279B (zh) 图像中的目标检测方法及装置、电子设备、存储介质
US20140118581A1 (en) Image processing apparatus and image processing method
CN112149793A (zh) 人工神经网络模型和包括人工神经网络模型的电子设备
US20220253979A1 (en) Information processing system, endoscope system, and information storage medium
KR102083835B1 (ko) 딥 러닝 기반 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체 및 딥 러닝 기반 이미지 센싱장치
US9779486B2 (en) Image processing apparatus and image processing method
KR102230609B1 (ko) 딥 러닝 기반 희소 컬러 센서 이미지 처리장치, 이미지 처리방법 및 컴퓨터-판독가능 매체
Pan et al. Joint demosaicking and denoising for CFA and MSFA images using a mosaic-adaptive dense residual network
WO2023179520A1 (zh) 成像方法及装置、图像传感器、成像设备和电子设备
US8731281B2 (en) Wavelet transform on incomplete image data and its applications in image processing
US20220366588A1 (en) Electronic device for generating depth information of region of interest and operation method thereof
Prakash et al. Color image demosaicing using sparse based radial basis function network
US20160098843A1 (en) Image processing apparatus and method of controlling the same
US20220405972A1 (en) An imaging sensor, an image processing device and an image processing method
CN113574409A (zh) 分析部、飞行时间成像装置和方法
JP2011155365A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant