KR20210004229A - 뉴럴 네트워크 프로세서를 구비하는 이미지 프로세싱 장치 및 이의 동작 방법 - Google Patents

뉴럴 네트워크 프로세서를 구비하는 이미지 프로세싱 장치 및 이의 동작 방법 Download PDF

Info

Publication number
KR20210004229A
KR20210004229A KR1020190080308A KR20190080308A KR20210004229A KR 20210004229 A KR20210004229 A KR 20210004229A KR 1020190080308 A KR1020190080308 A KR 1020190080308A KR 20190080308 A KR20190080308 A KR 20190080308A KR 20210004229 A KR20210004229 A KR 20210004229A
Authority
KR
South Korea
Prior art keywords
image data
data
neural network
processing
image
Prior art date
Application number
KR1020190080308A
Other languages
English (en)
Inventor
김이리나
송성욱
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190080308A priority Critical patent/KR20210004229A/ko
Priority to US15/930,615 priority patent/US11533458B2/en
Publication of KR20210004229A publication Critical patent/KR20210004229A/ko
Priority to US18/068,113 priority patent/US11849226B2/en

Links

Images

Classifications

    • H04N9/04515
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N9/0455
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7908Suppression of interfering signals at the reproducing side, e.g. noise
    • H04N9/7917Suppression of interfering signals at the reproducing side, e.g. noise the interfering signals being cross-talk signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 개시의 기술적 사상에 따른 이미지 프로세싱 장치는, 제1 패턴의 컬러 필터 어레이를 포함하고, 상기 컬러 필터 어레이를 이용하여 제1 이미지 데이터를 생성하도록 구성된 이미지 센서, 상기 제1 이미지 데이터에 관한 정보를 기반으로 상기 제1 이미지 데이터에대한 프로세싱 모드로서 복수의 프로세싱 모드들 중 어느 하나를 선택하도록 구성된 프리-프로세서, 상기 프로세싱 모드들 중 제1 프로세싱 모드로 선택된 때에, 상기 제1 이미지 데이터를 재구성(reconstruction)하여 제2 이미지 데이터를 생성하도록 구성된 뉴럴 네트워크 프로세서 및 상기 제1 프로세싱 모드에서 상기 제2 이미지 데이터에 대한 포스트 프로세싱을 수행하여 제3 이미지 데이터를 생성하도록 구성된 메인 프로세서를 포함한다.

Description

뉴럴 네트워크 프로세서를 구비하는 이미지 프로세싱 장치 및 이의 동작 방법{An image processing device including a neural network processor and operating method thereof}
본 개시의 기술적 사상은 뉴럴 네트워크 프로세서를 이용한 이미지 프로세싱 동작을 수행하는 이미지 프로세싱 장치 및 이의 동작 방법에 관한 발명이다.
카메라, 스마트 폰 등과 같은 촬상 장치에 구비되는 이미지 프로세서는, 이미지 센서로부터 제공되는 이미지 데이터의 데이터 형식을 RGB, YUV 등의 데이터 형식으로 변경하거나, 이미지 데이터의 노이즈를 제거하고, 밝기를 조정하는 등의 이미지 프로세싱을 수행할 수 있다. 최근 고품질 및 고화질의 사진, 영상 등에 대한 요구가 커짐에 따라 이미지 프로세서에 오버헤드가 많이 가해지고, 이에 따라, 이미지 프로세서의 비효율적 전력 소모 및 사진, 영상 등의 품질 저하 등의 문제가 야기되었다.
본 개시의 기술적 사상이 해결하려는 과제는 뉴럴 네트워크 프로세서를 이용하여 이미지 데이터에 대한 프로세싱 동작을 프로세서와 상보적으로 수행함으로써 이미지 프로세싱 장치의 성능을 향상시키기 위한 이미지 프로세싱 장치 및 이의 동작 방법을 제공하는 데에 있다.
상기와 같은 목적을 달성하기 위하여 본 개시의 기술적 사상에 따른 이미지 프로세싱 장치는, 제1 패턴의 컬러 필터 어레이를 포함하고, 상기 컬러 필터 어레이를 이용하여 제1 이미지 데이터를 생성하도록 구성된 이미지 센서, 상기 제1 이미지 데이터에 관한 정보를 기반으로 상기 제1 이미지 데이터에대한 프로세싱 모드로서 복수의 프로세싱 모드들 중 어느 하나를 선택하도록 구성된 프리-프로세서, 상기 프로세싱 모드들 중 제1 프로세싱 모드로 선택된 때에, 상기 제1 이미지 데이터를 재구성(reconstruction)하여 제2 이미지 데이터를 생성하도록 구성된 뉴럴 네트워크 프로세서 및 상기 제1 프로세싱 모드에서 상기 제2 이미지 데이터에 대한 포스트 프로세싱을 수행하여 제3 이미지 데이터를 생성하도록 구성된 메인 프로세서를 포함한다.
본 개시의 기술적 사상에 따른 이미지 프로세싱 장치는, 제1 패턴의 컬러 필터 어레이를 포함하고, 상기 컬러 필터 어레이를 이용하여 제1 이미지 데이터를 생성하도록 구성된 이미지 센서, 상기 제1 이미지 데이터의 제N(단, N은 1 이상의 정수) 부분 데이터에 관한 정보를 기반으로 상기 제N 부분 데이터에 대한 프로세싱 모드로서 복수의 프로세싱 모드들 중 어느 하나를 선택하도록 구성된 프로세서 및상기 프로세싱 모드들 중 제1 프로세싱 모드로 선택된 때에, 상기 제N 부분 데이터에 대하여 상기 프로세서와 상보적인 제1 재구성 프로세싱을 수행하도록 구성된 뉴럴 네트워크 프로세서를 포함하고, 상기 프로세서는, 상기 제1 프로세싱 모드에서 상기 뉴럴 네트워크 프로세서와 병렬적으로 상기 제N 부분 데이터에 대하여 제2 재구성 프로세싱을 수행하고, 상기 제1 재구성 프로세싱 결과와 상기 제2 재구성 프로세싱 결과를 이용하여 제2 이미지 데이터를 생성하는 것을 특징으로 한다.
본 개시의 기술적 사상에 따른 테트라 패턴의 컬러 필터 어레이, 프로세서 및 뉴럴 네트워크 프로세서를 구비하는 이미지 프로세싱 장치의 동작 방법은, 상기 컬러 필터 어레이를 이용하여 제1 이미지 데이터를 생성하는 단계, 상기 제1 이미지 데이터에 관한 정보를 기반으로 상기 제1 이미지 데이터에 대한 프로세싱 모드로서 복수의 프로세싱 모드들 중 어느 하나를 선택하는 단계, 상기 프로세싱 모드들 중 제1 프로세싱 모드로 선택된 때에, 상기 뉴럴 네트워크 프로세서에 의해 상기 제1 이미지 데이터를 재구성함으로써 제2 이미지 데이터를 생성하는 단계 및 상기 제1 프로세싱 모드에서 상기 프로세서에 의해 상기 제2 이미지 데이터에 대한 포스트 프로세싱을 수행함으로써 제3 이미지 데이터를 생성하는 단계를 포함한다.
본 개시의 예시적 실시 예들에 따른 이미지 프로세싱 장치는 이미지 데이터의 품질 또는 노이즈에 따라 뉴럴 네트워크 프로세서가 이미지 데이터에 대한 프로세싱 동작을 프로세서를 대신하여 수행함으로써 프로세서의 로드를 줄일 수 있으며, 성능이 뛰어난 뉴럴 네트워크 프로세서의 상보적인 프로세싱 동작을 통하여 이미지 프로세싱 장치가 출력하는 이미지의 품질을 향상시킬 수 있는 효과가 있다.
본 개시의 예시적 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 기재로부터 본 개시의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 개시의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
도 1은 본 개시의 예시적 실시 예에 따른 뉴럴 네트워크 시스템을 나타내는 블록도이다.
도 2는 뉴럴 네트워크 구조의 일 예를 나타낸다.
도 3은 본 개시의 예시적 실시예에 따른 이미지 프로세싱 장치를 나타내는 블록도이다.
도 4a 내지 도 4c는 도 3의 컬러 필터 어레이에 대응하는 픽셀 어레이의 구현 예들을 나타내는 도면이다.
도 5는 본 개시의 예시적 실시 예에 따른 이미지 프로세싱 장치의 동작 방법을 설명하기 위한 도면이다.
도 6 내지 도 9는 본 개시의 예시적 실시 예에 따른 제1 프로세싱 모드에서의 뉴럴 네트워크 프로세서의 동작을 구체적으로 설명하기 위한 블록도이다.
도 10은 본 개시의 예시적 실시 예에 따른 이미지 프로세싱 시스템을 설명하기 위한 블록도이다.
도 11a 및 도 11b는 테트라 데이터를 설명하기 위한 도면이다.
도 12는 본 개시의 예시적 실시 예에 따른 이미지 프로세싱 장치의 동작 방법을 설명하기 위한 도면이다.
도 13은 본 개시의 예시적 실시예에 따른 이미지 프로세싱 장치를 나타내는 블록도이다.
이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대해 상세히 설명한다.
도 1은 본 개시의 예시적 실시 예에 따른 뉴럴 네트워크 시스템(1)을 나타내는 블록도이다.
뉴럴 네트워크 시스템(1)은 뉴럴 네트워크를 훈련(train)(또는 학습(learn))하거나, 뉴럴 네트워크를 이용하여 입력 데이터를 분석함으로써 입력 데이터에 포함된 정보를 추론(inference)할 수 있다. 뉴럴 네트워크 시스템(1)은 추론된 정보를 기초로 상황 판단을 하거나 또는 뉴럴 네트워크 시스템(1)이 탑재되는 전자 장치의 구성들을 제어할 수 있다. 예컨대, 뉴럴 네트워크 시스템(1)은 뉴럴 네트워크를 이용한 음성 인식, 영상 인식, 영상 분류, 영상 처리 등을 수행하는 스마트 폰, 태블릿 디바이스, 스마트 TV, AR(Augmented Reality) 디바이스, IoT(Internet of Things) 디바이스, 자율주행 자동차, 로보틱스, 의료기기, 드론(drone), 첨단 운전자 보조 시스템(Advanced Drivers Assistance System; ADAS), 영상 표시 장치, 계측 장치 등에 적용될 수 있으며, 이 외에도 뉴럴 네트워크 시스템(1)은 다양한 종류의 전자 장치 중 하나에 탑재될 수 있다. 실시예에 있어서, 도 1의 뉴럴 네트워크 시스템(1)은 애플리케이션 프로세서일 수 있다.
도 1을 참조하면, 뉴럴 네트워크 시스템(1)은 센서 모듈(10), 뉴럴 네트워크 프로세서(또는, 뉴럴 네트워크 장치)(20), CPU(Cenral Proccessing Unit)(30), 램(40) 및 메모리(50)를 포함할 수 있다. 뉴럴 네트워크 시스템(1)은 입출력 모듈, 보안 모듈, 전력 제어 장치 등을 더 포함할 수 있으며, 또한 다양한 종류의 프로세서들을 더 포함할 수 있다.
실시 예들에 있어서, 뉴럴 네트워크 시스템(1)의 구성들 중 일부 또는 전부는 하나의 반도체 칩에 형성될 수 있다. 예컨대, 뉴럴 네트워크 시스템(1)은 시스템-온 칩(System On Chip; SoC)으로서 구현될 수 있다. 뉴럴 네트워크 시스템(1)의 구성들은 버스(60)를 통해 서로 통신할 수 있다.
CPU(30)는 뉴럴 네트워크 시스템(1)의 전반적인 동작을 제어한다. CPU(110)는 하나의 프로세서 코어(Single Core)를 포함하거나, 복수의 프로세서 코어들(Multi-Core)을 포함할 수 있다. CPU(30)는 메모리(50)와 같은 저장 영역에 저장된 프로그램들 및/또는 데이터를 램(40)을 이용하여 처리 또는 실행할 수 있다.
예를 들어서, CPU(30)는 응용 프로그램(application)을 실행하고, 응용 프로그램의 실행에 따라 요구되는 뉴럴 네트워크 기반의 태스크들을 수행하도록 뉴럴 네트워크 프로세서(20)를 제어할 수 있다. 뉴럴 네트워크는 CNN(Convolution Neural Network), R-CNN(Region with Convolution Neural Network), RPN(Region Proposal Network), RNN(Recurrent Neural Network), S-DNN(Stacking-based deep Neural Network), S-SDNN(State-Space Dynamic Neural Network), Deconvolution Network, DBN(Deep Belief Network), RBM(Restricted Boltzman Machine), Fully Convolutional Network, LSTM(Long Short-Term Memory) Network, Classification Network, Plain Residual Network, Dense Network, Hierarchical Pyramid Network, Fully Convolutional Network 등 다양한 종류의 뉴럴 네트워크 모델들 중 적어도 하나를 포함할 수 있다.
뉴럴 네트워크 프로세서(20)는 수신되는 입력 데이터를 기초로 뉴럴 네트워크 연산을 수행할 수 있다. 나아가, 뉴럴 네트워크 장치(20)는 뉴럴 네트워크 연산의 수행 결과를 기초로 정보 신호를 생성할 수 있다. 뉴럴 네트워크 장치(20)는 뉴럴 네트워크 연산 가속기, 코프로세서(coprocessor), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit) 등으로 구현될 수 있다.
한편, 센서 모듈(10)은 뉴럴 네트워크 시스템(1)이 탑재되는 전자 장치 주변의 정보를 수집할 수 있다. 센서 모듈(10)은 전자 장치의 외부로부터 신호(예컨대 영상 신호, 음성 신호, 자기 신호, 생체 신호, 터치 신호 등)를 센싱 또는 수신하고, 센싱 또는 수신된 신호를 센싱 데이터로 변환할 수 있다. 이를 위해, 센서 모듈(10)은 센싱 장치, 예컨대 마이크, 촬상 장치, 이미지 센서, 라이더(LIDAR; light detection and ranging) 센서, 초음파 센서, 적외선 센서, 바이오 센서, 및 터치 센서 등 다양한 종류의 센싱 장치 중 적어도 하나를 포함할 수 있다.
센싱 데이터는 뉴럴 네트워크 프로세서(10)에 입력 데이터로서 제공되거나, 또는 메모리(50)에 저장될 수 있다. 메모리(50)에 저장된 센싱 데이터는 뉴럴 네트워크 프로세서(20)로 제공될 수 있다. 일부 실시 예에 있어서, 뉴럴 네트워크 프로세서(20)는 영상 데이터를 처리하는 GPU(Graphic Processing Unit)를 더 포함하고, 센싱 데이터는 GPU에서 가공 처리된 후, 메모리(50) 또는 뉴럴 네트워크 프로세서(20)에 제공될 수 있다.
예를 들어, 센서 모듈(10)은 이미지 센서를 포함할 수 있으며, 전자 장치의 외부 환경을 촬영하여 이미지 데이터를 생성할 수 있다. 센서 모듈(10)에서 출력되는 이미지 데이터는 뉴럴 네트워크 프로세서(20)에 직접 제공되거나 또는 메모리(50)에 저장된 후, 뉴럴 네트워크 프로세서(20)에 제공될 수 있다.
본 개시의 예시적 실시 예에 따른 뉴럴 네트워크 프로세서(20)는 센서 모듈(10) 또는 메모리(50)로부터 이미지 데이터를 수신하고, 이에 기반하여 뉴럴 네트워크 연산을 수행할 수 있다. 뉴럴 네트워크 프로세서(20)는 소정의 뉴럴 네트워크 모델 기반 뉴럴 네트워크 연산을 통하여 정의된 이미지 데이터 재구성 모듈(22) 및 이미지 데이터 프로세싱 모듈(24)을 포함할 수 있다. 이하에서 서술되는 모듈의 구성은 소정의 프로세서에 의해서 실행되는 소프트웨어 블록이거나, 전용의 하드웨어 블록 및 프로세싱 유닛의 조합으로 구현될 수 있다.
이미지 데이터 재구성 모듈(22)은 이미지 데이터에 대한 재구성(reconstruct)을 수행할 수 있다. 이미지 데이터에 대한 재구성 동작은 이미지 데이터의 형식을 변환하는 동작을 지칭할 수 있으며, 예컨대, 이하 서술될 테트라(tetra) 형식의 이미지 데이터를 베이어(bayer) 형식 또는 RGB 형식(또는, YUV 형식 등)의 이미지 데이터로 변환하는 동작일 수 있다. 예시적 실시 예로, 이미지 데이터 재구성 모듈(22)은 CPU(30)에 의해 수행되는 이미지 데이터에 대한 재구성 동작과 상보적인 재구성 동작을 수행하거나, CPU(30)를 대체하여 독점적으로 재구성 동작을 수행할 수 있다.
이미지 데이터 프로세싱 모듈(24)은 이미지 데이터에 대한 재구성 외에 이미지 데이터에 대한 프리 프로세싱 동작 또는 포스트 프로세싱 동작을 수행할 수 있다. 예시적 실시 예로, 이미지 데이터 프로세싱 모듈(24)은 CPU(30)에 의해 수행되는 이미지 데이터에 대한 프리 프로세싱 동작 또는 포스트 프로세싱 동작과 상보적인 프리 프로세싱 동작 또는 포스트 프로세싱 동작을 수행하거나, CPU(30)를 대체하여 독점적으로 프리 프로세싱 동작 또는 포스트 프로세싱 동작을 수행할 수 있다. 뉴럴 네트워크 프로세서(20)는 램(40) 또는 메모리(50)를 이용하여 전술한 동작을 수행할 수 있다.
본 개시의 예시적 실시 예에 따라 이미지 데이터의 상태를 기반으로 뉴럴 네트워크 프로세서(20)는 선택적으로 이미지 데이터에 대한 재구성 또는 프로세싱 동작을 수행할 수 있으며, 이에 대한 구체적인 내용은 후술한다.
메모리(50)는 휘발성 메모리(volatile memory) 또는 불휘발성 메모리(nonvolatile memory) 중 적어도 하나를 포함할 수 있다. 불휘발성 메모리는 ROM (Read Only Memory), PROM (Programmable ROM), EPROM (Electrically Programmable ROM), EEPROM (Electrically Erasable and Programmable ROM), 플래시 메모리, PRAM (Phase-change RAM), MRAM (Magnetic RAM), RRAM (Resistive RAM), FRAM (Ferroelectric RAM) 등을 포함한다. 휘발성 메모리는 DRAM (Dynamic RAM), SRAM (Static RAM), SDRAM (Synchronous DRAM), PRAM (Phase-change RAM), MRAM (Magnetic RAM), RRAM (Resistive RAM), FeRAM (Ferroelectric RAM) 등을 포함한다. 실시예에 있어서, 메모리(50)는 HDD(Hard Disk Drive), SSD(Solid State Drive), CF(compact flash) 카드, SD(secure digital) 카드, Micro-SD(micro secure digital) 카드, Mini-SD(mini secure digital) 카드, xD(extreme digital) 카드 또는 Memory Stick 중 적어도 하나를 포함할 수 있다.
도 2는 뉴럴 네트워크 구조의 일 예를 나타낸다. 도 2를 참조하면, 뉴럴 네트워크(NN)는 복수의 레이어들(L1 내지 Ln)을 포함할 수 있다. 이와 같은 멀티-레이어드 구조의 뉴럴 네트워크는 딥 뉴럴 네트워크(deep neural network; DNN) 또는 딥 러닝 구조(deep learning architecture)로 지칭될 수 있다. 복수의 레이어들(L1 내지 Ln) 각각은 선형 레이어 또는 비선형 레이어일 수 있으며, 실시예에 있어서, 적어도 하나의 레이어 및 적어도 하나의 비선형 레이어가 겹합되어 하나의 레이어로 지칭될 수도 있다. 예시적으로, 선형 레이어는 컨볼루션 레이어(convolution), 풀리 커넥티드(fully connected) 레이어를 포함할 수 있으며, 비선형 레이어는 풀링(pooling) 레이어, 액티베이션 레이어를 포함할 수 있다.
예시적으로, 제1 레이어(L1)는 컨볼루션 레이어이고, 제2 레이어(L2)는 풀링(pooling) 레이어이고, 제n 레이어(Ln)는 출력 레이어로서 풀리 커넥티드(fully connected) 레이어일 수 있다. 뉴럴 네트워크(NN)는 활성(activation) 레이어를 더 포함할 수 있으며, 다른 종류의 연산을 수행하는 레이어를 더 포함할 수 있다.
복수의 레이어들(L1 내지 Ln) 각각은 입력되는 이미지 프레임 또는 이전 레이어에서 생성된 피처 맵을 입력 피처 맵으로서 수신하고, 입력 피처 맵을 연산하여 출력 피처 맵 또는 인식 신호(REC)를 생성할 수 있다. 이때, 피처 맵은 입력 데이터의 다양한 특징이 표현된 데이터를 의미한다. 피처 맵들(FM1, FM2, FM3, FMn)은 예컨대 복수의 피처 값들을 포함하는 2차원 매트릭스 또는 3차원 매트릭스(또는 텐서(tensor)라고 함) 형태를 가질 수 있다. 피처 맵들(FM1, FM2, FM3, FMn)은 너비(W)(또는 칼럼이라고 함), 높이(H)(또는 로우라고 함) 및 깊이(D)를 가지며, 이는 좌표상의 x축, y축 및 z축에 각각 대응할 수 있다. 이때, 깊이(D)는 채널 수로 지칭될 수 있다.
제1 레이어(L1)는 제1 피처 맵(FM1)을 웨이트 맵(WM)과 컨볼루션하여 제2 피처 맵(FM2)을 생성할 수 있다. 웨이트 맵(WM)은 복수의 웨이트 값들을 포함하는 2차원 매트릭스 또는 3차원 매트릭스 형태를 가질 수 있다. 웨이트 맵(WM)은 커널로 지칭될 수 있다. 웨이트 맵(WM)은 제1 피처 맵(FM1)을 필터링할 수 있으며, 필터 또는 커널로 지칭될 수 있다. 웨이트 맵(WM)의 깊이, 즉 채널 개수는 제1 피처 맵(FM1)의 깊이, 즉 채널 개수와 동일하며, 웨이트 맵(WM)과 제1 피처 맵(FM1)의 동일한 채널끼리 컨볼루션될 수 있다. 웨이트 맵(WM)이 제1 입력 피처 맵(FM1)을 슬라이딩 윈도로하여 횡단하는 방식으로 시프트된다. 각 시프트동안, 웨이트 맵(WM)에 포함되는 웨이트들 각각이 제1 피처 맵(FM1)과 중첩된 영역에서의 모든 피처값과 곱해지고 더해질 수 있다. 제1 피처 맵(FM1)과 웨이트 맵(WM)이 컨볼루션 됨에 따라, 제2 피처 맵(FM2)의 하나의 채널이 생성될 수 있다. 도 2에는 하나의 웨이트 맵(WM)이 표시되었으나, 실질적으로는 복수개의 웨이트 맵이 제1 피처 맵(FM1)과 컨볼루션됨으로써, 제2 피처 맵(FM2)의 복수개의 채널이 생성될 수 있다. 다시 말해, 제2 피처 맵(FM2)의 채널의 수는 웨이트 맵의 개수에 대응할 수 있다.
제2 레이어(12)는 풀링을 통해 제2 피처 맵(FM2)의 공간적 크기(spatial size)를 변경함으로써, 제3 피처 맵(FM3)을 생성할 수 있다. 풀링은 샘플링 또는 다운-샘플링으로 지칭될 수 있다. 2 차원의 풀링 윈도우(PW)가 풀링 윈도우(PW)의 사이즈 단위로 제2 피처 맵(FM2) 상에서 쉬프트되고, 풀링 윈도우(PW)와 중첩되는 영역의 피처값들 중 최대값(또는 피처값들의 평균값)이 선택될 수 있다. 이에 따라, 제2 피처 맵(FM2)으로부터 공간적 사이즈가 변경된 제3 피처 맵(FM3)이 생성될 수 있다. 제3 피처 맵(FM3)의 채널과 제2 피처 맵(FM2)의 채널 개수는 동일하다.
제n 레이어(Ln)는 제n 피처 맵(FMn)의 피처들을 조합하여 입력 데이터의 클래스(class)(CL)를 분류할 수 있다. 또한, 클래스에 상응하는 인식 신호(REC)를 생성할 수 있다.
도 3은 본 개시의 예시적 실시예에 따른 이미지 프로세싱 장치(1000)를 나타내는 블록도이다.
이미지 프로세싱 장치(1000)는 이미지를 촬영하고, 촬영된 이미지를 디스플레이하거나 또는 촬영된 이미지 기반의 동작을 수행하는 전자 장치로 구현될 수 있다. 이미지 프로세싱 장치(1000)는 예를 들어, PC(personal computer), IoT (Internet of Things) 장치, 또는 휴대용 전자 장치로 구현될 수 있다. 휴대용 전자 장치는, 랩탑 컴퓨터, 이동 전화기, 스마트폰, 태블릿 PC, PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라, 디지털 비디오 카메라, 오디오 장치, PMP(portable multimedia player), PND(personal navigation device), MP3 플레이어, 휴대용 게임 콘솔(handheld game console), e-북(e-book), 웨어러블 기기 등을 포함할 수 있다. 또한, 이미지 프로세싱 장치(1000)는 드론(drone), 첨단 운전자 보조 시스템(Advanced Drivers Assistance System; ADAS) 등과 같은 전자 기기 또는 차량, 가구, 제조 설비, 도어, 각종 계측 기기 등에 부품으로서 구비되는 전자 기기에 탑재될 수 있다.
도 3을 참조하면, 이미지 프로세싱 장치(1000)는 이미지 센서(1100), 및 이미지 프로세싱 시스템(1200)을 포함할 수 있다. 이미지 프로세싱 장치(1000)는 디스플레이, 유저 인터페이스 등의 다른 구성들을 더 포함할 수 있다. 이미지 프로세싱 시스템(1200)은 프리 프로세서(100), 뉴럴 네트워크 프로세서(200) 및 메인 프로세서(300)를 포함할 수 있다. 프리 프로세서(100), 뉴럴 네트워크 프로세서(200) 및 메인 프로세서(300)는 단일 또는 복수의 반도체 칩으로 구현될 수 있다. 또한, 도 3에서는 프리 프로세서(100)와 메인 프로세서(300)가 별도의 구성으로 개시되어 있으나, 이는 예시적 실시 예에 불과한 바, 하나의 구성으로 구현될 수 있다.
이미지 센서(1100)는 소정의 패턴을 갖는 컬러 필터 어레이(1110)를 포함하고, 광학 렌즈(LS)를 통하여 입사된 피사체(Object)의 광학적 신호를 컬러 필터 어레이(1110)를 이용하여 전기적 신호로 변환하고, 전기적 신호들을 기초로 제1 이미지 데이터(IDATA)를 생성하여 출력할 수 있다. 예시적 실시 예로, 컬러 필터 어레이(1110)는 베이어 패턴이 아닌 테트라 패턴 등의 차세대 픽셀 기술을 지원하도록 구현된 것일 수 있다. 이하에서는, 서술의 편의를 위해 컬러 필터 어레이(1110)는 테트라 패턴에 대응하는 것을 가정하여 서술하나, 본 개시의 사상은 여기에 제한 해석되지 않음은 충분히 이해될 것이다.
이미지 센서(1100)는 예를 들어, 2차원적으로 배열된 복수의 픽셀들을 포함하는 픽셀 어레이 및 리드아웃 회로를 포함할 수 있으며, 픽셀 어레이는 수신되는 광 신호들을 전기적 신호들로 변환할 수 있다. 픽셀 어레이는 예를 들면, CCD(Charge Coupled Devices) 또는 CMOS(Complementary Metal Oxide Semiconductor) 등의 광전 변환 소자로 구현될 수 있으며 이외에도 다양한 종류의 광전 변환 소자로 구현될 수 있다. 리드아웃 회로는 픽셀 어레이로부터 제공되는 전기적 신호를 기초로 로우 데이터(Raw data)를 생성하고, 로우 데이터 또는 배드 픽셀 제거 등이 수행된 로우 데이터를 제1 이미지 데이터(IDATA)로서 출력할 수 있다. 이미지 센서(1100)는 픽셀 어레이 및 리드아웃 회로를 포함하는 반도체 칩 또는 패키지로서 구현될 수 있다.
본 개시의 예시적 실시 예에 따른 프리 프로세서(100)는 이미지 데이터(IDATA)에 대한 크로스 토크 보정(X-talk correction) 동작, 디스펙클(despeckle) 동작 등 중 적어도 하나의 프리 프로세싱을 수행할 수 있다. 또한, 프리 프로세서(100)는 모드 선택 모듈(110)을 포함하고, 모드 선택 모듈(110)은 제1 이미지 데이터(IDATA)에 대한 정보를 기반으로 제1 이미지 데이터(IDATA)에 대한 프로세싱 모드로서 복수의 프로세싱 모드들 중 어느 하나를 선택할 수 있다. 복수의 프로세싱 모드들은 제1 프로세싱 모드 및 제2 프로세싱 모드를 포함할 수 있으며, 이하에서는, 제1 프로세싱 모드는 뉴럴 네트워크 프로세서(200)를 이용하여 프로세싱 동작을 수행하는 모드로 정의되고, 제2 프로세싱 모드는 뉴럴 네트워크 프로세서(200)를 이용하지 않고, 메인 프로세서(300)만을 이용하여 프로세싱 동작을 수행하는 모드로 정의될 수 있다.
제1 이미지 데이터(IDATA)에 관한 정보는, 제1 이미지 데이터(IDATA)의 품질(quality) 정보 및 제1 이미지 데이터의 노이즈(noise) 정보 중 적어도 하나를 포함할 수 있다. 예시적 실시 예로, 제1 이미지 데이터(IDATA)의 품질 정보는 제1 이미지 데이터(IDATA)의 아티팩트 정도를 나타내고, 제1 이미지 데이터(IDATA)의 노이즈 정보는 제1 이미지 데이터(IDATA)의 노이즈 레벨을 나타낼 수 있다. 이 때에, 모드 선택 모듈(110)은 상기 아티팩트 정도 또는 상기 노이즈 레벨이 임계 값을 초과하는 때에는 뉴럴 네트워크 프로세서(200)의 지원이 필요하다고 판별하여 제1 프로세싱 모드를 선택할 수 있다. 다만, 모드 선택 모듈(110)은 상기 아티팩트 정도 또는 상기 노이즈 레벨이 임계 값 미만인 때에는 제2 프로세싱 모드를 선택할 수 있다. 한편, 모드 선택 모듈(110)은 이는 예시적인 실시 예에 불과한 바, 이에 국한되지 않고, 제1 이미지 데이터(IDATA)에 관한 다양한 정보를 기반으로 다양한 시나리오에 맞춰 프로세싱 모드를 선택할 수 있다.
본 개시의 예시적 실시 예에 따른 뉴럴 네트워크 프로세서(200)는 이미지 데이터 재구성 모듈(220) 및 이미지 데이터 프로세싱 모듈(240)을 포함할 수 있다. 이미지 데이터 재구성 모듈(220)은 제1 프로세싱 모드에서 제1 이미지 데이터(IDATA)에 대한 재구성 동작을 수행할 수 있다.
예시적 실시 예에 따른 이미지 데이터 재구성 모듈(220)은 제1 이미지 데이터(IDATA)에 대한 리모자이크 동작을 수행하여 테트라 패턴과 상이한 패턴(예를 들면, 베이어 패턴)에 대응하는 제2 이미지 데이터를 생성할 수 있다. 제1 이미지 데이터는, 테트라 데이터로 지칭될 수 있으며, 제2 이미지 데이터는 베이어 데이터로 지칭될 수 있다. 이 때, 메인 프로세서(300)는 뉴럴 네트워크 프로세서(200)로부터 제2 이미지 데이터를 수신하고, 제2 이미지 데이터에 대한 디모자이크 동작을 수행하여 풀 컬러 이미지 데이터를 생성할 수 있다.
다른 실시 예에 따른 이미지 데이터 재구성 모듈(220)은 제1 이미지 데이터(IDATA)에 대한 디모자이크 동작을 수행하여 테트라 패턴과 상이한 패턴(예를 들면, RGB 패턴)에 대응하는 제2 이미지 데이터를 생성할 수 있다. 제1 이미지 데이터는 테트라 데이터로 지칭될 수 있으며, 제2 이미지 데이터는 풀 컬러 이미지 데이터로 지칭될 수 있다. 이 때, 메인 프로세서(300)는 뉴럴 네트워크 프로세서(200)로부터 풀 컬러 이미지 데이터에 대응하는 제2 이미지 데이터를 수신하고, 제2 이미지 데이터에 대하여 노이즈 제거, 밝기 변경, 선명도 조정 등의 품질 향상을 위한 포스트 프로세싱을 수행할 수 있다.
예시적 실시 예에 따른 이미지 데이터 프로세싱 모듈(240)은 프리 프로세서(100)의 프리 프로세싱 동작들의 일부 또는 전부를 대신하여 수행할 수 있다. 또한, 이미지 데이터 프로세싱 모듈(240)은 재구성을 통해 형식이 변환된 이미지 데이터에 대한 포스트 프로세서(300)의 포스트 프로세싱 동작들의 일부 또는 전부를 대신하여 수행할 수 있다. 일부 실시 예들에 따라, 이미지 데이터 프로세싱 모듈(240)이 수행할 수 있는 프리 프로세싱 동작 타입의 개수 또는 포스트 프로세싱 동작 타입의 개수는 이미지 센서(1100)의 촬상 조건 등에 따라 가변적일 수 있다. 이미지 프로세싱 시스템(1000)은 이미지 센서(1100)의 촬상 조건을 제1 이미지 데이터(IDATA)를 통해 획득하거나, 이미지 센서(1100)로부터 직접 데이터 형식으로 수신할 수 있다.
본 개시의 예시적 실시 예에 따른 이미지 프로세싱 장치(1000)는 이미지 데이터의 품질 또는 노이즈에 따라 뉴럴 네트워크 프로세서(200)가 이미지 데이터에 대한 프로세싱 동작을 프로세서(100, 300)를 대신하여 수행함으로써 프로세서(100, 300)의 로드를 줄일 수 있으며, 성능이 뛰어난 뉴럴 네트워크 프로세서(200)의 상보적인 프로세싱 동작을 통하여 이미지 프로세싱 장치(1000)가 출력하는 이미지의 품질을 향상시킬 수 있는 효과가 있다.
도 4a 내지 도 4c는 도 3의 컬러 필터 어레이(1110)에 대응하는 픽셀 어레이의 구현 예들을 나타내는 도면이다.
도 4a를 참조하면, 픽셀 어레이(PX_Array)는 다수의 로우들 및 컬럼들에 따라 배치되는 다수의 픽셀들을 포함하며, 예컨대 2 개의 로우들 및 2 개의 컬럼들에 배치되는 픽셀들을 포함하는 단위로 정의되는 공유 픽셀(Shared Pixel)은 각각 4개의 서브 픽셀들(Sub Pixel)을 포함할 수 있다. 다시 말해, 공유 픽셀은 4개의 서브 픽셀들에 각각 대응되는 4개의 포토 다이오드들을 포함할 수 있다. 픽셀 어레이(PX_Array)는 제1 내지 제 16 공유 픽셀들(SP0~SP15)을 포함할 수 있다. 픽셀 어레이(PX_Array)는 공유 픽셀들(SP0~SP15)이 다양한 컬러를 센싱할 수 있도록 컬러 필터를 포함할 수 있다. 일 예로서, 컬러 필터는 레드(R), 그린(G) 및 블루(B)를 센싱하는 필터들을 포함하며, 하나의 공유 픽셀(SP0~SP15)은 동일한 컬러 필터가 배치된 서브 픽셀들을 포함할 수 있다. 예컨대, 제1 공유 픽셀(SP0), 제3 공유 픽셀(SP2), 제9 공유 픽셀(SP8) 및 제11 공유 픽셀(SP10)은 블루(B) 컬러 필터를 구비하는 서브 픽셀들을 포함할 수 있고, 제2 공유 픽셀(SP1), 제4 공유 픽셀(SP3), 제5 공유 픽셀(SP4), 제7 공유 픽셀(SP6), 제10 공유 픽셀(SP9), 제12 공유 픽셀(SP11), 제13 공유 픽셀(SP12) 및 제15 공유 픽셀(SP14)은 그린(G) 컬러 필터를 구비하는 서브 픽셀들을 포함할 수 있으며, 제6 공유 픽셀(SP5), 제8 공유 픽셀(SP7), 제14 공유 픽셀(SP13) 및 제16 공유 픽셀(SP15)은 레드(R) 컬러 필터를 구비하는 서브 픽셀들을 포함할 수 있다. 또한, 제1 공유 픽셀(SP0), 제2 공유 픽셀(SP1), 제5 공유 픽셀(SP4) 및 제6 공유 픽셀(SP5)을 포함하는 그룹, 제3 공유 픽셀(SP2), 제4 공유 픽셀(SP3), 제7 공유 픽셀(SP6) 및 제8 공유 픽셀(SP7)을 포함하는 그룹, 제9 공유 픽셀(SP8), 제10 공유 픽셀(SP9), 제13 공유 픽셀(SP12) 및 제14 공유 픽셀(SP13)을 포함하는 그룹, 제11 공유 픽셀(SP10), 제12 공유 픽셀(SP11), 제15 공유 픽셀(SP14) 및 제16 공유 픽셀(SP15)을 포함하는 그룹은 각각 베이어 패턴(Bayer pattern)에 대응되도록 픽셀 어레이(PX_Array)에 배치될 수 있다.
다만, 이는 일 실시예에 불과한 것으로서, 본 개시의 예시적 실시예에 따른 픽셀 어레이(PX_Array)는 다양한 종류의 컬러 필터들을 포함할 수 있다. 예컨대, 컬러 필터는 옐로우(yellow), 사이언(Cyan), 마젠타(Magenta) 및 그린(Green) 컬러를 센싱하기 위한 필터들을 포함할 수 있다. 또는, 컬러 필터는 레드, 그린, 블루 및 화이트 컬러를 센싱하는 필터들을 포함하여도 무방하다. 또한, 픽셀 어레이(PX_Array)는 더 많은 공유 픽셀들을 포함할 수 있으며, 각 공유 픽셀들(SP0~SP15)의 배치는 다양하게 구현될 수 있다.
도 4a를 참조하면, 하나의 공유 픽셀(SP0, SP1, SP4, SP5)은 각각 9개의 서브 픽셀들을 포함할 수 있다. 제1 공유 픽셀(SP0)은 블루(B) 컬러 필터를 구비하는 9개의 서브 픽셀들을 포함할 수 있고, 제2 공유 픽셀(SP1) 및 제5 공유 픽셀(SP4)은 각각 그린(G) 컬러 필터를 구비하는 9개의 서브 픽셀들을 포함할 수 있다. 제6 공유 픽셀(SP5)은 레드(R) 컬러 필터를 구비하는 9개의 서브 픽셀들을 포함할 수 있다.
다른 예로서, 도 4b를 참조하면, 하나의 공유 픽셀(SP0, SP1, SP4, SP5)은 각각 16개의 서브 픽셀들을 포함할 수 있다. 제1 공유 픽셀(SP0)은 블루(B) 컬러 필터를 구비하는 16개의 서브 픽셀들을 포함할 수 있고, 제2 공유 픽셀(SP1) 및 제5 공유 픽셀(SP4)은 각각 그린(G) 컬러 필터를 구비하는 16개의 서브 픽셀들을 포함할 수 있다. 제6 공유 픽셀(SP5)은 레드(R) 컬러 필터를 구비하는 16개의 서브 픽셀들을 포함할 수 있다.
도 5는 본 개시의 예시적 실시 예에 따른 이미지 프로세싱 장치의 동작 방법을 설명하기 위한 도면이다.
도 5를 참조하면, 본 개시의 예시적 실시 예에 따른 이미지 프로세싱 장치는 이미지 센서로부터 이미지 데이터를 수신하고, 이미지 데이터에 대한 프로세싱 동작을 수행하기 전에 이미지 데이터에 관한 정보를 획득할 수 있다(S100). 이미지 프로세싱 장치는 이미지 데이터에 대한 프로세싱 동작을 수행하기 위하여 획득된 정보를 기반으로 복수의 프로세싱 모드들 중 어느 하나의 프로세싱 모드를 선택할 수 있다(S110). 이미지 프로세싱 장치는 제1 프로세싱 모드를 선택한 때(S120, Yes), 이미지 프로세싱 장치에 포함된 뉴럴 네트워크 프로세서 및 메인 프로세서를 이용하여 이미지 데이터에 대한 이미지 프로세싱을 수행할 수 있다(S130). 이미지 프로세싱 장치는 제2 프로세싱 모드를 선택한 때(S120, No), 메인 프로세서를 이용하여 이미지 데이터에 대한 이미지 프로세싱을 수행할 수 있다(S140).
도 6 내지 도 9는 본 개시의 예시적 실시 예에 따른 제1 프로세싱 모드에서의 뉴럴 네트워크 프로세서(200a, 200b, 200c, 200d)의 동작을 구체적으로 설명하기 위한 블록도이다. 이하, 도 6 내지 도 9에 도시된 모듈들의 구성은 예시적인 실시 예에 불과한 바, 이에 국한되지 않고, 더 많은 프리 프로세싱 동작들 또는 포스트 프로세싱 동작들을 위한 모듈들의 구성이 이미지 프로세싱 시스템(1200a, 1200b, 1200c, 1200d)에 더 추가될 수 있다.
도 6을 참조하면, 이미지 프로세싱 시스템(1200a)은 프리 프로세서(100a), 뉴럴 네트워크 프로세서(200a) 및 메인 프로세서(300a)를 포함할 수 있다. 프리 프로세서(100a)는 크로스 토크 보정 모듈(120a) 및 디스펙클 모듈(130a)을 포함하고, 뉴럴 네트워크 프로세서(200a)는 리모자이크 모듈(221a)을 포함하며, 메인 프로세서(300a)는 베이어 디모자이크 모듈(310a), 베이어 디노이징 모듈(320a) 및 샤프닝 모듈(330a)을 포함할 수 있다.
프리 프로세서(100a)는 테트라 데이터(IDATAa)를 수신하고, 테트라 데이터(IDATAa)에 대한 크로스 토크 보정 및 디스펙클 동작을 포함하는 프리 프로세싱을 수행할 수 있다. 뉴럴 네트워크 프로세서(200a)는 프리 프로세싱된 테트라 데이터(IDATAa)를 수신하고, 테트라 데이터(IDATAa)에 대한 리모자이크 동작을 포함하는 재구성 동작을 수행하여 베이어 데이터(IDATAb)를 생성할 수 있다. 메인 프로세서(300a)는 베이어 데이터(IDATAb)를 수신하고, 베이어 데이터(IDATAb)에 대한 베이어 디모자이크 동작, 베이어 디노이징 동작 및 샤프닝 동작을 포함하는 포스트 프로세싱을 수행하여 RGB 데이터(IDATAc)를 생성할 수 있다.
도 7을 참조하면, 이미지 프로세싱 시스템(1200b)은 프리 프로세서(100b), 뉴럴 네트워크 프로세서(200b) 및 메인 프로세서(300b)를 포함할 수 있다. 프리 프로세서(100b)는 크로스 토크 보정 모듈(120b)을 포함하고, 뉴럴 네트워크 프로세서(200b)는 디스펙클 모듈(241b) 및 리모자이크 모듈(221b)을 포함하며, 메인 프로세서(300b)는 베이어 디모자이크 모듈(310b), 베이어 디노이징 모듈(320b) 및 샤프닝 모듈(330b)을 포함할 수 있다. 도 6과 비교하여, 뉴럴 네트워크 프로세서(200b)는 프리 프로세서(100b) 대신에 테트라 데이터(IDATAa)에 대한 디스펙클 동작을 더 수행할 수 있다. 다만, 이는 예시적인 실시 예에 불과한 바, 이에 국한되지 않고, 뉴럴 네트워크 프로세서(200b)는 프리 프로세서(100b)의 다른 동작들도 대신 수행할 수 있다.
도 8을 참조하면, 이미지 프로세싱 시스템(1200c)은 프리 프로세서(100c), 뉴럴 네트워크 프로세서(200c) 및 메인 프로세서(300c)를 포함할 수 있다. 프리 프로세서(100c)는 크로스 토크 보정 모듈(120c) 및 디스펙클 모듈(130b)을 포함하고, 뉴럴 네트워크 프로세서(200c)는 디모자이크 모듈(222c) 및 디노이징 모듈(242c)을 포함하며, 메인 프로세서(300c)는 샤프닝 모듈(330c)을 포함할 수 있다. 도 6과 비교하여, 뉴럴 네트워크 프로세서(200c)는 테트라 데이터(IDATAa)에 대한 디모자이크 동작 및 디노이징 동작을 수행하여 RGB 데이터(IDATAc1)를 생성할 수 있다. 메인 프로세서(300c)는 RGB 데이터(IDATAc1)를 수신하고, RGB 데이터(IDATAc1)에 대한 샤프닝 동작을 포함하는 포스트 프로세싱을 수행하여 RGB 데이터(IDATAc2)를 생성할 수 있다.
도 9를 참조하면, 이미지 프로세싱 시스템(1200c)은 뉴럴 네트워크 프로세서(200d)를 포함할 수 있다. 도 6과 비교하여, 뉴럴 네트워크 프로세서(200d)는 테트라 데이터(IDATAa)에 대한 프리 프로세싱 동작들을 수행하고, 테트라 데이터(IDATAa)를 재구성하고, 재구성된 데이터에 대한 포스트 프로세싱 동작들을 수행함으로써 RGB 데이터(IDATAc)를 생성할 수 있다. 도 9의 뉴럴 네트워크 프로세서(200d)는 도 6의 프리 프로세서(100a) 및 포스트 프로세서(300a)의 동작을 모두 대체할 수 있다.
도 10은 본 개시의 예시적 실시 예에 따른 이미지 프로세싱 시스템(1200e)을 설명하기 위한 블록도이고, 도 11a 및 도 11b는 테트라 데이터(IDATA)를 설명하기 위한 도면이다.
도 10을 참조하면, 이미지 프로세싱 시스템(1200e)는 뉴럴 네트워크 프로세서(200e) 및 메인 프로세서(300e)를 포함할 수 있다. 예시적 실시 예에 따른 뉴럴 네트워크 프로세서(200e)는 디모자이크 모듈(222e)을 포함할 수 있다. 메인 프로세서(300e)는 디모자이크 모듈(340e), 가중치 생성 모듈(350e), 블렌딩 모듈(360e) 및 포스트 프로세싱 모듈(370e)을 포함할 수 있다.
디모자이크 모듈(340e)은 고주파수 검출 모듈(342e)을 포함할 수 있다. 테트라 데이터(IDATA)는 복수의 부분 데이터들을 포함할 수 있다. 테트라 데이터(IDATA)에 대한 설명을 위하여 도 11a 및 도 11b를 참조하여 이하 서술한다.
도 11a를 더 참조하면, 테트라 데이터(IDATA)는 복수의 타일 데이터들(Tile_1~Tile_9)을 포함할 수 있으며, 복수의 타일 데이터들(Tile_1~Tile_9)은 순차적으로 대상 타일 데이터(TT)로서 선택되어 이미지 프로세싱 시스템(1200e)에 의해 프로세싱될 수 있다.
도 11b를 더 참조하면, 테트라 데이터(IDATA)는 복수의 ROI(Region Of Interest) 데이터들(ROI_1~ROI_4)을 포함할 수 있으며, 복수의 ROI 데이터들(ROI_1~ROI_4)은 순차적으로 대상 ROI 데이터(T_ROI)로서 선택되어 이미지 프로세싱 시스템(1200e)에 의해 프로세싱될 수 있다. 도 11a 및 도 11b는 예시적 실시 예에 불과한 바, 이에 국한되지 않고, 이외에도 테트라 데이터(IDATA)는 'salient object' 기술 등의 다양한 이미지 생성 기술들이 적용되어 생성된 복수의 부분 데이터들을 포함할 수 있다.
고주파수 검출(High Frequency Detection; HFD) 모듈(342e)은 테트라 데이터(IDATA)의 제N(단, N은 1 이상의 정수) 부분 데이터에 관한 정보를 기반으로 제N 부분 데이터에 대한 프로세싱 모드로서 복수의 프로세싱 모드들 중 어느 하나를 선택하여 플래그 신호(HFD_Flag)를 생성할 수 있다. 고주파수 검출 모듈(342e)은 제N 부분 데이터에 관한 정보를 기반으로 제N 부분 데이터에 대한 프로세싱 모드로서 복수의 프로세싱 모드들 중 어느 하나를 선택할 수 있다. 예를 들어, 플래그 신호(HFD_Flag)가 '1'일 때, 제1 프로세싱 모드로 선택되었음을 나타낼 수 있으며, 플래그 신호(HFD_Flag)가 '0'일 때, 제2 프로세싱 모드로 선택되었음을 나타낼 수 있다.
예시적 실시 예에 따른 제N 부분 데이터에 관한 정보는 제N 부분 데이터의 품질 정보 및 제N 부분 데이터의 노이즈 정보 중 적어도 하나를 포함할 수 있다. 예를 들어, 고주파수 검출 모듈(342e)은 제N 부분 데이터에 관한 정보를 기반으로 제N 부분 데이터가 고주파수에 대응하는 것임을 판별한 때에 제N 부분 데이터에 대한 프로세싱 모드로서 제1 프로세싱 모드를 선택할 수 있다. 구체적으로, 고주파수 검출 모듈(342e)는 제N 부분 데이터에 관한 정보를 기반으로 제N 부분 데이터의 아티팩트 정도 또는 제N 부분 데이터의 노이즈 레벨의 임계값을 초과하는 때에 제1 프로세싱 모드를 선택할 수 있다.
뉴럴 네트워크 프로세서(200e)는 플래그 신호(HFD_Flag)를 수신하고, 제1 프로세싱 모드로 선택된 때에, 디모자이크 모듈(222e)을 통해 제N 부분 데이터에 대한 디모자이크 동작을 수행하여 RGB 데이터(B)를 생성할 수 있다. 메인 프로세서(300e)는 디모자이크 모듈(340e)을 통해 뉴럴 네트워크 프로세서(200e)와 병렬적으로 제N 부분 데이터에 대한 디모자이크 동작을 수행하여 RGB 데이터(C)를 생성할 수 있다.
예시적 실시 예에 따른 가중치 생성 모듈(350e)은 플래그 신호(HFD_Flag)를 수신하고, 제1 프로세싱 모드로 선택된 때에, 마스크 신호(HFD_stat_mask)를 수신하여, 이를 기반으로 가중치(W)를 생성할 수 있다. 예시적 실시 예에 따른 마스크 신호(HFD_stat_mask)는 제N 부분 데이터로부터 생성된 픽셀 별 값들을 나타내는 데이터일 수 있다. 구체적으로, 가중치 생성 모듈(350e)은 마스크 신호(HFD_stat_mask)로부터 제N 부분 데이터의 아티팩트 정도 또는 제N 부분 데이터의 노이즈 레벨을 판별할 수 있으며, 이를 기반으로 가중치(W)를 생성할 수 있다. 일부 실시 예들에서 가중치 생성 모듈(350e)은 제N 부분 데이터의 아티팩트 정도 또는 제N 부분 데이터의 노이즈 레벨이 클수록 뉴럴 네트워크 프로세서(200e)의 RGB 데이터(B)의 포션이 커지도록 가중치(W)를 생성할 수 있다.
블렌딩 모듈(360e)은 디모자이크 모듈(340e)로부터 RGB 데이터(A), 뉴럴 네트워크 프로세서(200e)로부터 RGB 데이터(B) 및 가중치 생성 모듈(350e)로부터 가중치(W)를 수신하여 가중치가 반영된 RGB 데이터를 수학식 1에 기반하여 생성할 수 있다
[수학식 1]
Figure pat00001
포스트 프로세싱 모듈(370e)은 가중치가 반영된 RGB 데이터에 대한 포스트 프로세싱 동작들을 수행할 수 있다.
다른 실시 예로, 뉴럴 네트워크 프로세서(200e) 및 가중치 생성 모듈(350e)은 플래그 신호(HFD_Flag)를 수신하고, 제2 프로세싱 모드로 선택된 때에, 비활성화될 수 있다. 또한, 메인 프로세서(300e)는 디모자이크 모듈(340e)을 통해 제N 부분 데이터에 대한 디모자이크 동작을 수행하여 생성된 RGB 데이터(A)를 바로 포스트 프로세싱 모듈(370e)에 제공할 수 있다.
위와 같은 방식으로, 이미지 프로세싱 시스템(1200e)은 제N 부분 데이터 이외의 테트라 데이터(IDATA)의 나머지 부분 데이터들에 대하여 프로세싱 동작을 수행할 수 있다.
도 12는 본 개시의 예시적 실시 예에 따른 이미지 프로세싱 장치의 동작 방법을 설명하기 위한 도면이다.
도 12를 참조하면, 본 개시의 예시적 실시 예에 따른 이미지 프로세싱 장치는 이미지 데이터로부터 제N 부분 데이터를 획득할 수 있다(S200). 이미지 프로세싱 장치는 제N 부분 데이터에 관한 정보를 획득할 수 있다(S210). 이미지 프로세싱 장치는 획득된 정보를 기반으로 제N 부분 데이터를 위한 프로세싱 모드를 선택할 수 있다(S220). 이미지 프로세싱 장치는 선택된 프로세싱 모드로 제N 부분 데이터에 대한 프로세싱 동작을 수행할 수 있다(S230). 'N'이 'M(이미지 데이터에 포함된 부분 데이터의 총 개수)'이 아닌 때에(S240, No), 'N'을 카운트 업하고(S250), 단계 S200을 수행할 수 있다. 'N'이 'M'인 때에(S240, Yes)는 이미지 데이터에 대한 프로세싱 동작을 완료할 수 있다. 단계 S200 내지 단계 S240에 대한 내용은 도 10에서 구체적으로 서술한 바 이하 생략한다.
도 13은 본 개시의 예시적 실시예에 따른 이미지 프로세싱 장치(2000)를 나타내는 블록도이다. 도 13의 이미지 프로세싱 장치(2000)는 휴대용 단말기일 수 있다.
도 13을 참조하면, 본 개시의 예시적 실시예에 따른 이미지 프로세싱 장치(2000)는 어플리케이션 프로세서(2100), 이미지 센서(2200), 디스플레이 장치(2400), 워킹 메모리(2500), 스토리지(2600), 유저 인터페이스(2700) 및 무선 송수신부(2800)를 포함할 수 있으며, 어플리케이션 프로세서(2100)는 이미지 신호 프로세서(2300) 및 뉴럴 네트워크 프로세서(2400)를 포함할 수 있다. 도 1 등에서 서술된 본 개시의 예시적 실시 예들에 따른 프로세싱 방법이 이미지 신호 프로세서(2300) 및 뉴럴 네트워크 프로세서(2400)에 적용될 수 있다. 실시 예에 있어서, 이미지 신호 프로세서(2300) 및 뉴럴 네트워크 프로세서(2400)는 어플리케이션 프로세서(2100)와는 별개의 집적 회로로 구현될 수 있다.
어플리케이션 프로세서(2100)는 이미지 프로세싱 장치(2000)의 전반적인 동작을 제어하며 응용 프로그램, 운영 체제 등을 구동하는 시스템 온 칩(SoC)으로 제공될 수 있다.
어플리케이션 프로세서(2100)는 이미지 신호 프로세서(2300)의 동작을 제어할 수 있으며, 이미지 신호 프로세서(2300)에서 생성되는 변환된 이미지 데이터를 디스플레이 장치(2400)에 제공하거나 또는 스토리지(2600)에 저장할 수 있다.
이미지 센서는 수신되는 광 신호를 기초로 이미지 데이터, 예컨대 원시 이미지 데이터를 생성하고 이지 데이터를 이미지 신호 프로세서(2300)에 제공할 수 있다.
워킹 메모리(2500)는 DRAM, SRMA 등의 휘발성 메모리 또는 FeRAM, RRAM PRAM 등의 비휘발성의 저항성 메모리로 구현될 수 있다. 워킹 메모리(2500)는 어플리케이션 프로세서(2100)가 처리 또는 실행하는 프로그램들 및/또는 데이터를 저장할 수 있다.
스토리지(2600)는 NADN 플래시, 저항성 메모리 등의 비휘발성 메모리 장치로 구현될 수 있으며, 예컨대 스토리지(2600)는 메모리 카드(MMC, eMMC, SD, micro SD) 등으로 제공될 수 있다. 스토리지(2600)는 이미지 신호 프로세서(2300)의 이미지 처리 동작을 제어하는 실행 알고리즘에 대한 데이터 및/또는 프로그램을 저장할 수 있으며, 이미지 처리 동작이 수행될 때 데이터 및/또는 프로그램이 워킹 메모리(2500)로 로딩될 수 있다. 실시예에 있어서, 스토리지(2600)는 이미지 신호 프로세서(2300)에서 생성되는 이미지 데이터, 예컨대 변환된 이미지 데이터 또는 후처리된 이미지 데이터를 저장할 수 있다.
유저 인터페이스(2700)는 키보드, 커튼 키 패널, 터치 패널, 지문 센서, 마이크 등 사용자 입력을 수신할 수 있는 다양한 장치들로 구현될 수 있다. 유저 인터페이스(2700)는 사용자 입력을 수신하고, 수신된 사용자 입력에 대응하는 신호를 어플리케이션 프로세서(2100)에 제공할 수 있다.
무선 송수신부(2800)는 트랜시버(2810), 모뎀(2820) 및 안테나(2830)를 포함할 수 있다.
이상에서와 같이 도면과 명세서에서 예시적인 실시 예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시 예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (10)

  1. 제1 패턴의 컬러 필터 어레이를 포함하고, 상기 컬러 필터 어레이를 이용하여 제1 이미지 데이터를 생성하도록 구성된 이미지 센서;
    상기 제1 이미지 데이터에 관한 정보를 기반으로 상기 제1 이미지 데이터에대한 프로세싱 모드로서 복수의 프로세싱 모드들 중 어느 하나를 선택하도록 구성된 프리-프로세서;
    상기 프로세싱 모드들 중 제1 프로세싱 모드로 선택된 때에, 상기 제1 이미지 데이터를 재구성(reconstruction)하여 제2 이미지 데이터를 생성하도록 구성된 뉴럴 네트워크 프로세서; 및
    상기 제1 프로세싱 모드에서 상기 제2 이미지 데이터에 대한 포스트 프로세싱을 수행하여 제3 이미지 데이터를 생성하도록 구성된 메인 프로세서를 포함하는 이미지 프로세싱 장치.
  2. 제1항에 있어서,
    상기 제1 이미지 데이터에 관한 정보는,
    상기 제1 이미지 데이터의 품질(quality) 정보 및 상기 제1 이미지 데이터의 노이즈(noise) 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 이미지 프로세싱 장치.
  3. 제1항에 있어서,
    상기 뉴럴 네트워크 프로세서는,
    상기 제1 이미지 데이터에 대한 리모자이크(remosaic) 동작을 수행하여 제2 패턴에 대응하는 상기 제2 이미지 데이터를 생성하도록 구성된 것을 특징으로 하는 이미지 프로세싱 장치.
  4. 제3항에 있어서,
    상기 메인 프로세서는,
    상기 제2 이미지 데이터에 대한 디모자이크(demosaic) 동작을 수행하여 풀(full) 컬러 이미지 데이터를 생성하도록 구성된 것을 특징으로 하는 이미지 프로세싱 장치.
  5. 제3항에 있어서,
    상기 뉴럴 네트워크 프로세서는,
    상기 제1 이미지 데이터에 대한 크로스 토크 보정(cross talk correction) 및 상기 제1 이미지 데이터에 대한 디스펙클(despeckle) 중 적어도 하나의 프리 프로세싱을 수행하도록 구성된 이미지 프로세싱 장치.
  6. 제1항에 있어서,
    상기 뉴럴 네트워크 프로세서는,
    상기 제1 이미지 데이터에 대한 디모자이크(demosaic) 동작을 수행하여 풀 컬러 이미지 데이터를 생성하도록 구성된 것을 특징으로 하는 이미지 프로세싱 장치.
  7. 제6항에 있어서,
    상기 제1 이미지 데이터는, 테트라(tetra) 데이터에 대응하고,
    상기 풀 컬러 이미지 데이터는, RGB(Red, Green, Blue) 데이터에 대응하는 것을 특징으로 하는 이미지 프로세싱 장치.
  8. 제1항에 있어서,
    상기 프로세싱 모드들 중 제2 프로세싱 모드로 선택된 때에,
    상기 뉴럴 네트워크 프로세서는, 비활성화되고,
    상기 메인 프로세서는, 상기 제1 이미지 데이터를 재구성하여 상기 제2 이미지 데이터를 생성하도록 구성된 것을 특징으로 하는 이미지 프로세싱 장치.
  9. 제1 패턴의 컬러 필터 어레이를 포함하고, 상기 컬러 필터 어레이를 이용하여 제1 이미지 데이터를 생성하도록 구성된 이미지 센서;
    상기 제1 이미지 데이터의 제N(단, N은 1 이상의 정수) 부분 데이터에 관한 정보를 기반으로 상기 제N 부분 데이터에 대한 프로세싱 모드로서 복수의 프로세싱 모드들 중 어느 하나를 선택하도록 구성된 프로세서; 및
    상기 프로세싱 모드들 중 제1 프로세싱 모드로 선택된 때에, 상기 제N 부분 데이터에 대하여 상기 프로세서와 상보적인 제1 재구성 프로세싱을 수행하도록 구성된 뉴럴 네트워크 프로세서를 포함하고,
    상기 프로세서는,
    상기 제1 프로세싱 모드에서 상기 뉴럴 네트워크 프로세서와 병렬적으로 상기 제N 부분 데이터에 대하여 제2 재구성 프로세싱을 수행하고, 상기 제1 재구성 프로세싱 결과와 상기 제2 재구성 프로세싱 결과를 이용하여 제2 이미지 데이터를 생성하는 것을 특징으로 하는 이미지 프로세싱 장치.
  10. 제9항에 있어서,
    상기 제N 부분 데이터에 관한 정보는,
    상기 제N 부분 데이터의 품질 정보 및 상기 제N 부분 데이터의 노이즈 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 이미지 프로세싱 장치.
KR1020190080308A 2019-07-03 2019-07-03 뉴럴 네트워크 프로세서를 구비하는 이미지 프로세싱 장치 및 이의 동작 방법 KR20210004229A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190080308A KR20210004229A (ko) 2019-07-03 2019-07-03 뉴럴 네트워크 프로세서를 구비하는 이미지 프로세싱 장치 및 이의 동작 방법
US15/930,615 US11533458B2 (en) 2019-07-03 2020-05-13 Image processing device including neural network processor and operating method thereof
US18/068,113 US11849226B2 (en) 2019-07-03 2022-12-19 Image processing device including neural network processor and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190080308A KR20210004229A (ko) 2019-07-03 2019-07-03 뉴럴 네트워크 프로세서를 구비하는 이미지 프로세싱 장치 및 이의 동작 방법

Publications (1)

Publication Number Publication Date
KR20210004229A true KR20210004229A (ko) 2021-01-13

Family

ID=74065515

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190080308A KR20210004229A (ko) 2019-07-03 2019-07-03 뉴럴 네트워크 프로세서를 구비하는 이미지 프로세싱 장치 및 이의 동작 방법

Country Status (2)

Country Link
US (2) US11533458B2 (ko)
KR (1) KR20210004229A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022255561A1 (ko) * 2021-06-04 2022-12-08 오픈엣지테크놀로지 주식회사 고효율 풀링 방법 및 이를 위한 장치

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115280760A (zh) * 2020-03-19 2022-11-01 索尼半导体解决方案公司 固态成像装置
US11574100B2 (en) * 2020-06-19 2023-02-07 Micron Technology, Inc. Integrated sensor device with deep learning accelerator and random access memory
US11367167B2 (en) * 2020-08-21 2022-06-21 Apple Inc. Neural network-based image processing with artifact compensation
US11869169B2 (en) * 2021-08-10 2024-01-09 Samsung Electronics Co., Ltd. Adaptive sub-pixel spatial temporal interpolation for color filter array
EP4164221A1 (en) * 2021-10-07 2023-04-12 iSize Limited Processing image data
CN113763382B (zh) * 2021-11-09 2022-02-11 常州微亿智造科技有限公司 工业质检中的检测装置
CN114679542B (zh) * 2022-03-25 2024-04-16 三星半导体(中国)研究开发有限公司 图像处理方法和电子装置
CN116055859B (zh) * 2022-08-29 2023-10-20 荣耀终端有限公司 图像处理方法和电子设备

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020154833A1 (en) 2001-03-08 2002-10-24 Christof Koch Computation of intrinsic perceptual saliency in visual environments, and applications
WO2003096669A2 (en) 2002-05-10 2003-11-20 Reisman Richard R Method and apparatus for browsing using multiple coordinated device
US7082572B2 (en) 2002-12-30 2006-07-25 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive map-based analysis of digital video content
US7519488B2 (en) 2004-05-28 2009-04-14 Lawrence Livermore National Security, Llc Signal processing method and system for noise removal and signal extraction
US7747070B2 (en) 2005-08-31 2010-06-29 Microsoft Corporation Training convolutional neural networks on graphics processing units
US8929877B2 (en) 2008-09-12 2015-01-06 Digimarc Corporation Methods and systems for content processing
JP2013066146A (ja) * 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP6021462B2 (ja) * 2012-06-21 2016-11-09 オリンパス株式会社 撮像モジュールおよび撮像装置
US9344690B2 (en) 2014-01-24 2016-05-17 Microsoft Technology Licensing, Llc Image demosaicing
US9195903B2 (en) 2014-04-29 2015-11-24 International Business Machines Corporation Extracting salient features from video using a neurosynaptic system
JP2016048815A (ja) * 2014-08-27 2016-04-07 ソニー株式会社 画像処理装置、画像処理方法、及び、画像処理システム
US20160239706A1 (en) 2015-02-13 2016-08-18 Qualcomm Incorporated Convolution matrix multiply with callback for deep tiling for deep convolutional neural networks
US10373050B2 (en) 2015-05-08 2019-08-06 Qualcomm Incorporated Fixed point neural network based on floating point neural network quantization
US9633274B2 (en) 2015-09-15 2017-04-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for denoising images using deep Gaussian conditional random field network
US10460231B2 (en) 2015-12-29 2019-10-29 Samsung Electronics Co., Ltd. Method and apparatus of neural network based image signal processor
WO2018073959A1 (ja) * 2016-10-21 2018-04-26 オリンパス株式会社 内視鏡スコープ、内視鏡プロセッサおよび内視鏡用アダプタ
US10685429B2 (en) 2017-02-22 2020-06-16 Siemens Healthcare Gmbh Denoising medical images by learning sparse image representations with a deep unfolding approach
US10311552B2 (en) 2017-04-06 2019-06-04 Pixar De-noising images using machine learning
JP2019175912A (ja) * 2018-03-27 2019-10-10 ソニーセミコンダクタソリューションズ株式会社 撮像装置、及び、画像処理システム
JP2020043435A (ja) * 2018-09-07 2020-03-19 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10853913B2 (en) * 2019-03-11 2020-12-01 Qualcomm Incorporated Color filter array pattern conversion
US10764507B1 (en) * 2019-04-18 2020-09-01 Kneron (Taiwan) Co., Ltd. Image processing system capable of generating a snapshot image with high image quality by using a zero-shutter-lag snapshot operation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022255561A1 (ko) * 2021-06-04 2022-12-08 오픈엣지테크놀로지 주식회사 고효율 풀링 방법 및 이를 위한 장치

Also Published As

Publication number Publication date
US20210006755A1 (en) 2021-01-07
US11849226B2 (en) 2023-12-19
US11533458B2 (en) 2022-12-20
US20230124618A1 (en) 2023-04-20

Similar Documents

Publication Publication Date Title
KR20210004229A (ko) 뉴럴 네트워크 프로세서를 구비하는 이미지 프로세싱 장치 및 이의 동작 방법
US20220261615A1 (en) Neural network devices and methods of operating the same
US20200234124A1 (en) Winograd transform convolution operations for neural networks
US11838651B2 (en) Image processing apparatus including neural network processor and method of operating the same
US11544813B2 (en) Artificial neural network model and electronic device including the same
US20200118249A1 (en) Device configured to perform neural network operation and method of operating same
US20200167637A1 (en) Neural network processor using dyadic weight matrix and operation method thereof
US20220366588A1 (en) Electronic device for generating depth information of region of interest and operation method thereof
US20230377111A1 (en) Image processing apparatus including neural network processor and method of operation
US20230105329A1 (en) Image signal processor and image sensor including the image signal processor
US20220345624A1 (en) Image sensor module and method of operating the same
KR20200129957A (ko) 피처맵 데이터에 대한 압축을 수행하는 뉴럴 네트워크 프로세서 및 이를 포함하는 컴퓨팅 시스템
US20220188612A1 (en) Npu device performing convolution operation based on the number of channels and operating method thereof
CN113379746B (zh) 图像检测方法、装置、系统、计算设备及可读存储介质
WO2022115996A1 (zh) 图像处理方法及设备
US20230071368A1 (en) Image processing apparatus including pre-processor and neural network processor and operating method thereof
KR20230034875A (ko) 프리-프로세서 및 뉴럴 네트워크 프로세서를 구비하는 이미지 처리 장치 및 이의 동작 방법
US11943557B2 (en) Image sensor module, image processing system, and operating method of image sensor module
US20240163578A1 (en) Image signal processor, image sensor, and operating method of the image sensor
US11978223B2 (en) Electronic device including processing circuit for generating depth information using luminance data and method of generating depth information
TW202349335A (zh) 影像訊號處理器及操作影像訊號處理器的方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]