KR102495753B1 - 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치 - Google Patents

카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치 Download PDF

Info

Publication number
KR102495753B1
KR102495753B1 KR1020170129143A KR20170129143A KR102495753B1 KR 102495753 B1 KR102495753 B1 KR 102495753B1 KR 1020170129143 A KR1020170129143 A KR 1020170129143A KR 20170129143 A KR20170129143 A KR 20170129143A KR 102495753 B1 KR102495753 B1 KR 102495753B1
Authority
KR
South Korea
Prior art keywords
image
electronic device
corrected
processor
information
Prior art date
Application number
KR1020170129143A
Other languages
English (en)
Other versions
KR20190040416A (ko
Inventor
김성오
김영조
전형주
최종범
박하중
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170129143A priority Critical patent/KR102495753B1/ko
Priority to PCT/KR2018/011835 priority patent/WO2019074252A1/en
Priority to US16/155,019 priority patent/US10812830B2/en
Priority to CN201811178408.2A priority patent/CN109658338A/zh
Priority to EP18199656.2A priority patent/EP3471395B1/en
Publication of KR20190040416A publication Critical patent/KR20190040416A/ko
Application granted granted Critical
Publication of KR102495753B1 publication Critical patent/KR102495753B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00167Processing or editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00244Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction
    • H04N1/411Bandwidth or redundancy reduction for the transmission or storage or reproduction of two-tone pictures, e.g. black and white pictures
    • H04N1/413Systems or arrangements allowing the picture to be reproduced without loss or modification of picture-information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction
    • H04N1/411Bandwidth or redundancy reduction for the transmission or storage or reproduction of two-tone pictures, e.g. black and white pictures
    • H04N1/413Systems or arrangements allowing the picture to be reproduced without loss or modification of picture-information
    • H04N1/419Systems or arrangements allowing the picture to be reproduced without loss or modification of picture-information in which encoding of the length of a succession of picture-elements of the same value along a scanning line is the only encoding step
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/16Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Abstract

다양한 실시예에 따른 전자 장치는, 카메라, 통신 모듈 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 카메라를 이용하여, 외부 객체에 대한 원시 이미지를 획득하고, 상기 원시 이미지로부터 제 1 이미지 처리 방식을 통해 제 1 보정 이미지를 생성하고, 외부 전자 장치가 상기 원시 이미지를 이용하여 상기 제 1 이미지 처리 방식을 통해 처리된 제 2 보정 이미지, 및 상기 원시 이미지를 이용하여 제 2 이미지 처리 방식을 통해 처리된 제 3 보정 이미지 간의 차이에 대응하는 차분 이미지 정보를 생성하도록, 상기 통신 모듈을 통해 상기 원시 이미지를 상기 외부 전자 장치로 전송하고, 및 상기 제 3 보정 이미지에 대응하도록, 상기 차분 이미지 정보를 이용하여 상기 제 1 보정 이미지를 더 보정하도록 설정될 수 있다. 그 밖의 다양한 실시예가 가능하다.

Description

카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치{METHOD AND ELECTRONIC DEVICE FOR PROCESSING RAW IMAGE ACQUIRED BY USING CAMERA BY USING EXTERNAL ELECTRONIC DEVICE}
다양한 실시예는, 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치에 관한 것이다.
이미지를 처리하는 전자 장치는, 이미지 센서를 통하여 원시(raw) 이미지를 획득할 수 있으며, 획득된 원시 이미지를 내장된 이미지 신호 프로세서(image signal processor: ISP)를 이용하여 처리할 수 있다. 이미지 신호 프로세서는, 화질 개선 알고리즘을 이용하여 수신된 원시 이미지를 처리할 수 있으며, 이에 따라 화질이 개선된 이미지를 제공할 수 있다. 이미지 프로세서는, 화이트 밸런스(white balance) 조절, 컬러 조정(color adjustment)(예: color matrix, color correction, color enhancement), 색 필터 배열 보간(color filter array interpolation), 잡음 감소(noise reduction) 처리 또는 샤프닝(sharpening), 이미지 개선(image enhancement)(예: HDR(high-dynamic-range), face detection 등) 등의 다양한 처리를 수행할 수 있다. 이미지 신호 프로세서로부터 출력된 이미지는, 예를 들어 YUV 포맷을 가질 수도 있다. 이미지 신호 프로세서로부터 출력된 이미지는, 예를 들어 JPEG 압축되고, 압축된 이미지가 전자 장치에 저장될 수 있다.
한편, 이미지 백업 및 새로운 미디어 컨텐트를 생성하기 위한 이미지 처리 클라우드 시스템에 의한 서비스가 제공되고 있다. 클라우드 서버에 업로드된 이미지는, 영상 매칭 등의 기법과 같이 단말 장치에서 수행되기 어려운 컴퓨터 비전 기반의 기술이 적용될 수 있다. 예를 들어, 머신 러닝 기반의 소프트웨어를 이용하여, 클라우드 서버는 이미지 인식을 수행할 수 있다.
ISP는, 전자 장치의 AP(application processor) 내에 배치될 수 있다. AP(application processor) 내의 ISP 배치로 인하여, 칩(chip) 가격 증가 및 발열 이슈도 지속 되고 있는 상황이다. 아울러, 변화되는 센서 사양 그리고 그에 따른 처리 알고리즘의 수정에 따라, 이미지를 처리하는 전자 장치 또한 새로운 하드웨어 ISP를 장착하여야 하는 문제점이 발생할 수 있다.
다양한 실시예에 따른 이미지를 처리하는 전자 장치는, 원시 이미지를 클라우드 서버로 송신하고, 클라우드 서버로부터 전자 장치의 ISP에서는 수행하기 어려운 또는 수행에 시간이 많이 걸리는 보정이 수행된 이미지 및 전자 장치에서 수행된 보정 이미지 사이의 차이를 수신하고, 전자 장치에서 보정된 보정 이미지와 수신된 차이를 이용하여 클라우드 서버가 보정한 이미지를 생성할 수 있다.
다양한 실시예에 따라서, 전자 장치는, 카메라, 통신 모듈 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 카메라를 이용하여, 외부 객체에 대한 원시 이미지를 획득하고, 상기 원시 이미지로부터 제 1 이미지 처리 방식을 통해 제 1 보정 이미지를 생성하고, 외부 전자 장치가 상기 원시 이미지를 이용하여 상기 제 1 이미지 처리 방식을 통해 처리된 제 2 보정 이미지, 및 상기 원시 이미지를 이용하여 제 2 이미지 처리 방식을 통해 처리된 제 3 보정 이미지 간의 차이에 대응하는 차분 이미지 정보를 생성하도록, 상기 통신 모듈을 통해 상기 원시 이미지를 상기 외부 전자 장치로 전송하고, 및 상기 제 3 보정 이미지에 대응하도록, 상기 차분 이미지 정보를 이용하여 상기 제 1 보정 이미지를 더 보정하도록 설정될 수 있다.
다양한 실시예에 따라서, 전자 장치는, 통신 모듈, 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 통신 모듈을 통하여, 외부 전자 장치가 획득한 원시 이미지를 수신하고, 상기 외부 전자 장치에 대응하여 지정된 제 1 이미지 처리 방식을 통해 처리한 제 1 보정 이미지 및, 상기 전자 장치에 대응하여 지정된 제 2 이미지 처리 방식을 통해 처리한 제 2 보정 이미지 간의 차이에 대응하는 차분 이미지 정보를 생성하고, 및 상기 통신 모듈을 통하여, 상기 차분 이미지 정보를 상기 외부 전자 장치로 송신하도록 설정될 수 있다.
다양한 실시예에 따라서, 전자 장치는, 카메라, 통신 모듈 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 카메라를 이용하여, 외부 객체에 대한 원시 이미지를 획득하고, 기 원시 이미지의 형식을 지정된 형식으로 변환하여 제 1 변환 이미지를 생성하고, 상기 통신 모듈을 이용하여, 외부 전자 장치로 상기 원시 이미지를 전송하고, 상기 통신 모듈을 이용하여, 상기 외부 전자 장치로부터, 상기 원시 이미지의 형식을 상기 지정된 형식으로 변환하여 생성된 제 2 변환 이미지 및 상기 원시 이미지에 상기 외부 전자 장치에 저장된 이미지 처리 방식을 적용하여 생성된 제 1 보정 이미지 간의 차이에 기반하여 생성된 차분 이미지 정보를 수신하고, 및 상기 수신된 상기 차분 이미지 정보 및 상기 제 1 변환 이미지를 이용하여, 제 1 보정 이미지에 대응하는 제 2 보정 이미지를 생성하도록 설정될 수 있다.
다양한 실시예에 따라서, 원시 이미지를 클라우드 서버로 송신하고, 클라우드 서버로부터 전자 장치의 ISP에서는 산출해 내기 어려운 또는 산출하는데 시간이 많이 걸리는 보정이 수행된 이미지 및 원시 이미지 사이의 차이를 수신하고, 원시 이미지와 차이를 이용하여 클라우드 서버가 보정한 이미지를 생성할 수 있는 전자 장치 및 그 동작 방법이 제공될 수 있다. 이에 따라, 전자 장치가 최신의 보정 알고리즘을 지원하지 않거나, 또는 저사양인 ISP를 포함한 경우에도, 최신의 알고리즘 또는 고사양 전자 장치가 수행할 수 있는 이미지 보정이 수행될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2a는 다양한 실시예들에 따른, 카메라 모듈의 블럭도이다.
도 2b는 다양한 실시예에 따른 전자 장치 및 서버의 블록도를 도시한다.
도 2c 및 2d는 다양한 실시예에 따른 서버에 의하여 생성되는 보정 영역 정보를 설명하기 위한 도면들을 도시한다.
도 3은 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 4a는 다양한 실시예에 따라 전자 장치 또는 서버에 의하여 보정된 이미지이다.
도 4b는 다양한 실시예에 따라 서버에 의하여 보정된 이미지이다.
도 4c는 다양한 실시예에 따른 차분 이미지이다.
도 5는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 6은 다양한 실시예에 따른 전자 장치 및 서버의 블록도를 도시한다.
도 7a는 다양한 실시예에 따른 런-길이 부호화를 설명하기 위한 흐름도를 도시한다.
도 7b는 다양한 실시예에 따른 압축 과정을 설명하기 위한 흐름도를 도시한다.
도 8a 및 8b는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도들 도시한다.
도 9는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 10은 다양한 실시예에 따른 전자 장치 및 서버에서의 이미지 처리 프로그램을 도시한다.
도 11은 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 12는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 13은 다양한 실시예에 따른 ISP를 포함하지 않는 전자 장치 및 서버의 블록도를 도시한다.
도 14는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 15는 다양한 실시예에 따른 전자 장치 및 서버의 블록도를 도시한다.
도 16은 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다.
도 17은 다양한 실시예에 따른 전자 장치 및 서버의 블록도를 도시한다.
도 18은 다양한 실시예에 따른 전자 장치 및 서버의 동작을 설명하기 위한 도면이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101 )는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일실시예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
일실시예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2a는, 다양한 실시예들에 따른, 카메라 모듈(180)의 블럭도(200)이다. 도 2a를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)일 수 있다. 복수의 렌즈 어셈블리(210)들은 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 렌즈 어셈블리와 적어도 하나의 다른 렌즈 속성을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. 플래쉬(220)는 피사체로부터 방출되는 빛을 강화하기 위하여 사용되는 광원을 방출할 수 있다. 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다.
이미지 센서(230)는 피사체로부터 렌즈 어셈블리(210)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서로 구현될 수 있다.
이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향(예: 이미지 흔들림)을 적어도 일부 보상하기 위하여 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있으며, 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 상기 움직임을 감지할 수 있다.
메모리(250)는 이미지 센서(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.
이미지 시그널 프로세서(260)는 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 이미지 처리(예: 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening))을 수행할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장 되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 전달될 수 있다. 일실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 이미지들은 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다.
일실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 둘 이상의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 적어도 하나의 카메라 모듈(180)은 광각 카메라 또는 전면 카메라이고, 적어도 하나의 다른 카메라 모듈은 망원 카메라 또는 후면 카메라일 수 있다.
도 2b는 다양한 실시예에 따른 전자 장치 및 서버의 블록도를 도시한다.
도 2b를 참조하면, 다양한 실시예에 따라서, 전자 장치(101)는, 프로세서(120), 메모리(130), 표시 장치(160), 카메라 모듈(180) 및 통신 모듈(190)을 포함할 수 있다. 서버(180)는, 프로세서(270), 메모리(280) 및 통신 모듈(284)을 포함할 수 있다. 다양한 실시예에 따라서, 카메라 모듈(180)은, 이미지 센서(230), 프로세서(264) 및 메모리(250)를 포함할 수 있다. 프로세서(264)는, 원시 이미지 처리부(261), ISP(260) 및 인코더(265)를 포함할 수 있으며, 원시 이미지 처리부(261)는, 경량 이미지 생성부(262) 및 원시 이미지 압축부(263)를 포함할 수 있다. 프로세서(270)는, 전처리부(271), 엔진(272), 인코더(273) 및 ISP(274)를 포함할 수 있다. 메모리(280)는 데이터베이스 저장소(281), 이미지 저장소(282) 및 원시 이미지 저장소(283)를 포함할 수 있다.
다양한 실시예에 따라서, 이미지 센서(230)는, 피사체에 대한 다양한 형식의 원시 이미지를 획득할 수 있다. 예를 들어, 이미지 센서(230)는, CFA (color filter array) 패턴에 따라 다양한 형식의 원시 이미지를 획득할 수 있다. 이미지 센서(230)가 듀얼 픽셀(dual pixel) 구조(또는, 2 photo diodes: 2PD 구조)를 포함한 경우에는, 이미지 센서(230)는, 하나의 픽셀에 서로 다른 위상차(또는 시차) 정보를 포함하는 원시 이미지를 획득할 수 있다. 또는, 이미지 센서(230)는, 서로 같거나 또는 상이한 특성을 가진 복수의 이미지 센서들을 포함할 수 있으며, 예를 들어 듀얼 센서(예: RGB 센서+RGB 센서, RGB 센서+모노(mono) 센서, 또는 광각(wide) 센서+망원(tele) 센서 등) 또는 복수 개의 센서를 포함하는 어레이 센서(array sensor)를 포함할 수 있다. 이 경우, 이미지 센서(230)는, 하나의 신(scene) 대해 하나 이상의 원시 이미지를 획득할 수 있다. 획득된 원시 이미지는, 그대로 또는 추가적인 처리를 거쳐 메모리(130) 또는 메모리(250)에 저장될 수 있다.
다양한 실시예에 따라서, 이미지 센서(230)는, 다양한 형식(format)의 원시 이미지를 획득할 수 있다. 예를 들어, 원시 이미지가 베이어(bayer) 형식을 가지는 경우에는, 원시 이미지는 픽셀에 대하여 적색(red), 녹색(green), 청색(blue) 중 하나의 색으로 표현될 수 있으며, 8 내지 16비트의 비트-뎁스(bit-depth)로 표현될 수 있다. 예를 들어, 원시 이미지에는 CFA 패턴이 적용될 수 있다. 원시 이미지는, 하나의 픽셀에 대하여 여러 가지 색(예: 적색, 녹색, 청색 중 복수의 색) 정보를 포함하는 레이이(layer) 구조를 가질 수도 있다. 이미지 센서(230)는, 예를 들어, 색 정보(RGB 정보)뿐만 아니라, 위상차 정보 등을 포함하는 원시 이미지를 획득할 수도 있다. 이미지 촬영과 연관된 정보(예: 촬영 시간, 촬영 위치, 조도)의 메타데이터는 원시 이미지와 관련되어 저장될 수 있다.
다양한 실시예에 따라서, 프로세서(264)는, 이미지 센서(230)로부터 수신한 원시 이미지 처리와 관련된 다양한 프로세스를 수행할 수 있다. 프로세서(264)는, 하나의 독립적인 프로세서로 구현될 수 있거나, 또는 다른 프로세서(예: 프로세서(120))에 포함될 수도 있다. 프로세서(264)의 경량 이미지 생성부(262), 원시 이미지 압축부(263), ISP(260) 또는 인코더(265) 중 적어도 하나는 다른 프로세서(예: 프로세서(120))에 포함될 수도 있다. 프로세서(264)는, 카메라 모듈(180)의 내부에 또는 카메라 모듈(180)의 외부(예를 들어, 전자 장치(101) 또는 서버(108))에 있거나, 또는 내외부 모두에 있을 수도 있다. 프로세서(264)가 수행하는 프로세스는, 프로세서(264)에 의하여 단독으로 처리되거나, 또는 복수의 프로세서에 의하여 분산 처리될 수 있다.
다양한 실시예에 따라서, 원시 이미지 처리부(261)는, 이미지 센서(230)로부터 획득한 원시 이미지에 대하여 다양한 처리를 수행할 수 있다. 예를 들어, 원시 이미지 처리부(261)는, 원시 이미지에 대하여 렌즈 왜곡 보상을 수행하거나, 또는 노이즈(noise)의 적어도 일부를 제거할 수 있다. 경량 이미지 생성부(262)는, 원시 이미지를 이용하여, 원시 이미지의 크기보다 작은 크기를 가지는 경량 이미지를 생성할 수 있다. 원시 이미지의 크기는 상대적으로 클 수 있으므로, 원시 이미지를 저장, 처리 또는 전송하기 이전에, 경량 이미지 생성부(262)가, 원시 이미지의 크기보다 작은 크기를 가지는 경량 이미지를 생성할 수 있다. 예를 들어, 경량 이미지 생성부(262)는, 다운 스케일링(down scaling), 다운 샘플링(down sampling), 압축(compression) 등의 다양한 처리를 수행함으로써, 원시 이미지를 이용한 경량 이미지를 생성할 수 있다. 다운 스케일링은, 예를 들어 원시 이미지의 크기 또는 해상도를 낮추는 처리를 의미할 수 있다. 다운 샘플링은, 예를 들어 샘플링된 복수의 샘플들 중 하나 또는 일부의 샘플만을 선택하여 경량 이미지를 생성하는 것을 의미할 수도 있다. 원시 이미지 압축부(263)는, 다양한 이미지 압축 알고리즘을 이용하여 원시 이미지 또는 경량 이미지를 압축할 수 있으며, 압축 방식에는 제한이 없다.
이미지 시그널 프로세서(260)는, 도 2a를 참조하여 설명한 바와 같이, 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 이미지 처리를 수행할 수 있다. 인코더(265)는, 원시 이미지를 인코딩하여 인코딩된 이미지를 생성할 수 있다. 인코딩된 이미지는, 예를 들어 JPEG(joint photographic coding experts group) 형식, MPEG(moving picture experts group) 형식, 또는 360도 영상 형식 등의 다양한 형식을 가질 수 있다.
다양한 실시예 따라서, 메모리(250)에는, 원시 이미지, 경량 이미지, 압축 이미지, 또는 인코딩된 이미지 중 적어도 하나가 일시적 또는 비일시적으로 저장될 수 있다. 프로세서(120)는, 예를 들어 통신 모듈(190)을 통하여, 원시 이미지 또는 압축된 이미지 중 적어도 하나를, 서버(108)로 송신할 수 있다. 서버(108)는 통신 모듈(290)을 통하여, 원시 이미지 또는 압축된 이미지 중 적어도 하나를 수신할 수 있다. 통신 모듈(290)은, 예를 들어, 통신 모듈(190)과 통신을 수행할 수 있다. 서버(108)는, 전자 장치(101)에 대한 네트워크 관리, 제공 가능한 서비스 및 권한 등과 관련된 서비스 관리, 저장소 관리 등을 수행할 수 있다. 원시 이미지는, 서버(108) 내의 원시 이미지 저장소(283)에 일시적 또는 비일시적으로 저장될 수도 있다.
다양한 실시예 따라서, 전처리부(271)는, 수신된 원시 이미지를 엔진(272) 또는 ISP(274)로 전달하기 전에 요구되는 처리를 수행할 수 있다. 예를 들어, 통신 모듈(290)을 통하여 압축된 원시 이미지가 수신된 경우에는, 전처리부(271)는 압축된 원시 이미지를 압축 해제할 수 있으며, 이에 따라 원시 이미지를 획득할 수 있다. 전처리부(271)는, 또는 원시 이미지를 통신 모듈(290)을 통하여 수신할 수도 있다. 전처리부(271)는, 압축 해제하여 획득하거나 또는 수신한 원시 이미지에 대하여, 화질 개선 알고리즘 적용, 디모자이크(de-mosaic) 처리, 또는 이미지 형식 변경 중 적어도 하나의 작업을 수행할 수 있다.
다양한 실시예에 따라서, 엔진(272)은, 원시 이미지(또는, 이미지 파일)를 분석하여, 다양한 작업(예: 사물 인식, 속도 벡터 판단, 얼굴 인식, 세그먼테이션(segmentation), 신 파싱(scene parsing), 질감(texture) 인식)을 수행할 수 있다. 엔진(272)은 상술한 다양한 작업을 수행하기 위한 다양한 알고리즘을 이용할 수 있다. 다양한 실시예에 따른 서버(108)는, 상대적으로 높은 연산 능력, 저장 크기, 높은 리소스를 가질 수 있으므로, 고연산을 요구하는 알고리즘을 이용할 수 있으며, 새롭게 개발된 알고리즘을 이용할 수도 있다. 엔진(272)은, 다양한 작업 수행의 결과로, ISP(274)에서 이용할 수 있는 보정 영역 정보(예: 사물 인식 결과, 속도 벡터, 얼굴 인식 결과, 세그먼테이션 결과, 신 카테고리(scene category), 질감에 대한 정보)를 생성, 저장, 또는 전송할 수 있다. 엔진(272)은, 복수 개의 레이어 형식의 보정 영역 정보를 생성할 수 있다. 엔진(272)이 생성한 보정 영역 정보에 대하여서는 도 2c 및 2d를 참조하여 더욱 상세하게 설명하도록 한다.
다양한 실시예에 따라서, ISP(274)는, 엔진(272)에서 분석된 원시 이미지에 대한 다양한 정보(예: 보정 영역 정보)를 이용하여, 원시 이미지에 대한 다양한 이미지 처리를 수행할 수 있다. 또 다른 실시예에서는, 전자 장치(101)가 보정 영역 정보를 수신하여, 이를 이용하여 이미지 처리를 수행할 수도 있다. 이 경우, 전자 장치(101)는, ISP(260)에서 제공되는 영상 처리와, 보정 영역 정보를 활용한 영상 처리를 복합적으로 수행할 수도 있다. 전자 장치(101)는, 이미지 처리가 수행된 이미지를 메모리(130)에 일시적 또는 비일시적으로 저장하거나, 또는 표시 장치(160)에 표시할 수도 있다. 한편, 상술한 바와 같이, ISP(274)가 이미지 처리를 수행하는 경우에, 보정 영역 정보에 기반한 이미지 처리를 수행할 수도 있다. ISP(274)는 데이터베이스 저장소(281)로부터 보정 영역 정보에 대응하는 추가 정보(예: 특징 벡터(feature vector))를 수신하여, 이미지 처리에 이용할 수도 있다. 데이터베이스 저장소(281)에는, 이미지 카테고리 등에 대응되는 다양한 특징 정보를 저장할 수 있다. 처리된 이미지는, 전자 장치(101)로 다시 송신되거나, 또는 서버(108) 내의 이미지 저장소(282)에 저장될 수도 있다. ISP(274)는, 화이트 밸런스(white balance) 조절, 컬러 조정(color adjustment)(예: color matrix, color correction, color enhancement), 색 필터 배열 보간(color filter array interpolation), 잡음 감소(noise reduction) 처리 또는 샤프닝(sharpening), 이미지 개선(image enhancement)(예:HDR(high-dynamic-range), face detection 등) 등의 다양한 처리를, 보정 영역 정보에 적어도 기반하여 수행할 수 있다. ISP(274)는, 아울러, original color mapping, detail re-generation, text reconstruction, image inpainting 등의 고연산량을 요구하는 이미지 처리를 수행할 수도 있다.
다양한 실시예에 따라서, 프로세서(270)는, 전처리부(271)에 의하여 처리된 원시 이미지에 대하여 제 1 이미지 처리를 수행할 수 있으며, 원시 이미지에 대하여 제 1 이미지 처리와 상이한 제 2 이미지 처리를 수행할 수 있다. 즉, 프로세서(270)는, 하나의 원시 이미지에 대하여 상이한 복수의 이미지 처리를 수행할 수 있으며, 이에 따라 제 1 이미지 처리 결과에 따른 제 1 보정 이미지 및 제 2 이미지 처리 결과에 따른 제 2 보정 이미지를 생성할 수 있다. 프로세서(270)는 제 1 이미지와 제 2 이미지 사이를 비교하여, 비교 결과에 따른 차분 이미지를 생성할 수 있다. 제 1 이미지 처리는, 전자 장치(101)의 ISP(260)에서의 이미지 처리와 동일한 이미지 처리일 수 있다. 제 2 이미지 처리는, 예를 들어 엔진(272)으로부터의 보정 영역 정보에 적어도 기반하여 수행될 수 있는 이미지 처리일 수 있으며, 제 1 이미지 처리에 비하여 고연산량 또는 높은 리소스를 요구하는 이미지 처리일 수 있다. 예를 들어, 제 2 이미지 처리된 이미지는, 제 1 이미지 처리된 이미지에 비하여, 더욱 높은 수준의 보정 처리된 이미지일 수 있다. 차분 이미지의 픽셀 별 픽셀 값은, 제 2 이미지의 대응하는 픽셀 별 픽셀 값으로부터, 제 1 이미지의 대응하는 픽셀 별 픽셀 값을 뺀 값일 수 있다. 프로세서(270)는 차분 이미지, 또는 차분 이미지를 압축한 압축된 차분 이미지를, 통신 모듈(284)를 통하여 전자 장치(101)로 송신할 수 있다. 프로세서(120)는, 수신된 차분 이미지 및 ISP(260)에 의하여 처리된 이미지를 이용하여, 제 2 보정 이미지와 실질적으로 동일한 이미지를 생성할 수 있으며, 이에 대하여서는 더욱 상세하게 후술하도록 한다.
도 2c 및 2d는 다양한 실시예에 따른 서버에 의하여 생성되는 보정 영역 정보를 설명하기 위한 도면들을 도시한다.
서버(108)는, 예를 들어 도 2c에서와 같은, 원시 이미지(285)를 획득할 수 있다. 서버(108)는, 원시 이미지(285)에 대한 메타데이터(286)를 추가적으로 수신할 수도 있다. 메타데이터(286)는, 초점 거리(focal length), 자동 포커싱 영역(auto focus area), 촬영 시 좌우 회전 관련 정보(orientation), 색 좌표(color space), 노출 시간(exposure time), 조리개 관련 정보(Fnumber), 촬영 모드(exposure program)(예: 자동, 조리개 우선, 셔터 우선, 수동 등), ISO(ISO speed ratings) 또는 이미지 촬영 일자(data time original) 등을 포함할 수 있다. 또는, 도시되지는 않았지만, 메타데이터(286)는, 이미지 촬영 장소 또는 촬영 시점의 조도와 같이 이미지 센서 이외의 센서에서 센싱된 정보를 포함할 수도 있다.
서버(108)(예: 엔진(272))는 원시 이미지(285)에 대하여 오브젝트 세그먼테이션 및 인식을 수행할 수 있다. 오브젝트는, 원시 이미지(285)에서 세그먼테이션에 의하여 구분되는 영역을 의미할 수 있으며, 이미지 영역으로 명명될 수도 있다. 예를 들어, 서버(108)는 도 2d에서와 같은 세그먼테이션 맵(288)을 획득할 수 있다. 서버(108)는, 제 2 이미지(285)에 대하여 엣지(edge), 블랍(blob) 등의 다양한 특징(feature)에 기초하여 원시 이미지(285)로부터 오브젝트들(289,290,291,292)을 구분할 수 있다. 서버(108)는, 오브젝트들(289,290,291,292) 각각에 대하여 인식 알고리즘을 적용할 수 있으며, 인식 결과를 획득할 수 있다. 예를 들어, 외부 전자 장치(400) (예: 외부 전자 장치(400)의 프로세서)는 대량의 데이터베이스를 머신 러닝 또는 딥 러닝에 의하여 적용하여 획득된 인식 알고리즘을 이용하여 오브젝트들(289,290,291,292)의 인식 결과를 획득할 수 있다. 서버(108)는, 제 1 오브젝트(291)가 하늘(sky)인 인식 결과, 제 2 오브젝트(289)가 풍선들(balloons)인 인식 결과, 제 3 오브젝트(292)가 인간(human)인 인식 결과 및 제 4 오브젝트(290)가 잔디(grass)인 인식 결과를 획득할 수 있다. 서버(108)는, 오브젝트들(291,289,292,290)의 위치 정보(또는, 픽셀 좌표 정보)와 인식 결과를 포함하는 세그먼테이션 맵(288)을 획득할 수 있다.
서버(108)(예: 엔진(272))는, 원시 이미지(285)에 대하여 텍스처 세그먼테이션 및 인식을 수행할 수 있다. 서버(108)는, 도 2d에서와 같은 텍스처 세그먼테이션 맵(293)을 획득할 수 있다. 서버(108)는, 예를 들어 사물 인식된 오브젝트들(289,290,291,292)에 대하여 텍스처 인식을 수행하거나, 또는 오브젝트들(289,290,291,292) 중 적어도 하나를 다시 부분들로 분할하고, 부분들별로 텍스처 인식 결과를 획득할 수 있다. 텍스처는, 미리 정의된 특정 패턴 또는 질감을 나타내는 성분을 의미할 수 있다. 하나의 오브젝트 내에서도 복수 개의 텍스처가 포함될 수 있다. 텍스처 인식 알고리즘 또한 대량의 데이터베이스에 머신 러닝 또는 딥 러닝을 적용하여 획득될 수 있다. 서버(108)는, 복수 개의 텍스처 오브젝트들(294 내지 299)의 위치 정보(또는, 픽셀 좌표 정보) 및 텍스처 인식 결과를 포함하는 텍스처 세그먼테이션 맵(293)을 획득할 수 있다.
서버(108)(예: 엔진(272))는 원시 이미지(285)의 인식 결과에 대한 신뢰도를 판단할 수 있다. 서버(108)는 사물 인식 결과에 대한 신뢰도 또는 텍스처 인식 결과에 대한 신뢰도 중 적어도 하나를 판단할 수 있다. 서버(108)는 원시 이미지(285)에 대하여 분류 정보를 판단할 수 있다. 분류 정보(287)는, 원시 이미지(285)가 전체적으로 어떠한 내용인지를 나타내는 정보일 수 있다. 서버(108)는, 이미지 분류 알고리즘을 원시 이미지(285)에 적용하여 분류 정보(287)를 획득할 수 있다. 서버(108)는, 사물 인식 결과 또는 텍스처 인식 결과 중 적어도 하나를 이용하여 분류 정보(287)를 획득할 수 있다. 또는, 서버(108)는, 원시 이미지(285)로부터 직접 분류 정보(287)를 획득할 수도 있다. 분류 정보(287)는, 예를 들어 일반적인 녹색 잔디(normal green grass)라는 전체 이미지 인식 결과(scene classification result) 정보를 포함할 수 있다. 분류 정보(287)는, 오브젝트 정보(예: sky, balloons, grass), 날짜 정보(예: 2016. 8. xx. 2:00), 장소 정보(예: Seoul, Korea), 계절 정보(예: summer), 날씨 정보(sunny), 노출 관련 정보(exposure time xx, ISO xxx) 등을 포함할 수도 있다. 서버(108)는, 인식 알고리즘의 적용 결과와 메타데이터를 이용하여 분류 정보(287)를 획득할 수도 있다.
서버(108)는 오브젝트 인식, 텍스처 인식, 인식 결과에 대한 신뢰도 또는 분류 정보 중 적어도 하나를 포함하는 보정 영역 정보를 생성할 수 있다. 예를 들어, 도 2d에서와 같이, 서버(108)는 복수 개의 층으로 구성된 보정 영역 정보를 생성할 수 있다. 복수 개의 층으로 구성된 보정 영역 정보는, 세그먼테이션 맵(288), 텍스처 세그먼테이션 맵(293), 사물 인식에 대한 신뢰도를 나타내는 맵(251), 테스처 인식에 대한 신뢰도를 나타내는 맵(252)을 포함할 수 있다. 복수 개의 맵(288,293,251,252)들 각각의 픽셀의 좌표는 서로 동일할 수 있으며, 원시 이미지의 픽셀에 대응될 수 있다. 이에 따라, 원시 이미지의 하나의 픽셀에 대하여 복수 개의 정보들(예: 오브젝트 속성, 텍스처 속성, 오브젝트 속성의 정확도, 텍스처 속성의 정확도)이 대응될 수 있다. 서버(108)(예: ISP(274))는, 복수 개의 층으로 구성된 보정 영역 정보를 이용하여 이미지 처리를 수행할 수 있다. 예를 들어, ISP(274)는 세그먼테이션 맵(288)의 풍선의 오브젝트의 픽셀 좌표에 대응하는 원시 이미지의 픽셀들에 대하여서, 풍선에 대응하는 효과를 적용할 수 있다. ISP(274)는, 텍스처 세그먼테이션 맵(293)의 에나멜(enamel)의 텍스처 오브젝트의 픽셀 좌표에 대응하는 원시 이미지의 픽셀들에 대하여서, 에나멜에 대응하는 효과를 적용할 수 있다. ISP(274)는, 사물 인식 신뢰도 또는 텍스처 인식 신뢰도를 고려하여 적용하는 효과의 정도를 조정할 수도 있다. ISP(274)는, 이미지 분류 결과(예: 일반적인 녹색 잔디)에 기초하여, 실외 환경에 대응되는 효과를 원시 이미지 전체에 대하여 적용할 수도 있다. 서버(108)는, 보정 효과가 적용된 이미지와, 전자 장치(101)에서 보정된 이미지 사이의 차이를 전자 장치(101)로 송신할 수 있으며, 전자 장치(101)는, 내부에서 보정한 보정 이미지 및 수신한 차이를 이용하여, 서버(108)에서 보정한 이미지를 생성할 수 있으며, 이는 더욱 상세하게 후술하도록 한다. 또는, 서버(108)는, 보정 영역 정보를 전자 장치(101)로 송신할 수도 있으며, 전자 장치(101)는 수신된 보정 영역 정보를 이용하여 이미지 처리를 수행할 수도 있다. 도 2d의 복수 개의 층으로 구성된 형태는 단순히 예시적인 것으로, 보정 영역 정보는 1차원의 텍스트 정보로 구현될 수도 있으며, 보정 영역 정보를 나타내는 데이터 형태에는 제한이 없다. 도 2d의 복수 개의 층들 중 일부가 누락될 수도 있으며, 추가적으로 다른 맵이 포함될 수도 있다.
다양한 실시예에 따라서, 서버(108)는, 도 2c 및 2d를 참조하여 설명한 처리 과정을 통하여 제 2 보정 이미지 또는 제 3 보정 이미지 중 적어도 하나를 처리할 수 있다. 서버(108)가, 제 2 보정 이미지를 처리하기 위하여, 도 2c 및 2d를 참조하여 설명한 처리 과정의 적어도 일부를 이용할 수 있으며, 추가적으로 다른 처리 방식을 이용할 수도 있다. 서버(108)가, 제 3 보정 이미지를 처리하기 위하여, 도 2c 및 2d를 참조하여 설명한 처리 과정의 적어도 일부를 이용할 수 있으며, 추가적으로 다른 처리 방식을 이용할 수도 있다. 다양한 실시예에서, 제 3 보정 이미지를 위한 처리 과정의 연산량은, 제 2 보정 이미지를 위한 처리 과정의 연산량보다 클 수 있으며, 이에 따라 제 3 보정 이미지는 더욱 세밀한 보정이 수행된 이미지일 수 있다.
다양한 실시예에 따라서, 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 카메라(예: 카메라 모듈(180) 또는 이미지 센서(230))를 이용하여, 외부 객체에 대한 원시 이미지를 획득하고, 상기 원시 이미지로부터 제 1 이미지 처리 방식을 통해 제 1 보정 이미지를 생성하고, 외부 전자 장치(예: 서버(108))가 상기 원시 이미지를 이용하여 상기 제 1 이미지 처리 방식을 통해 처리된 제 2 보정 이미지, 및 상기 원시 이미지를 이용하여 제 2 이미지 처리 방식을 통해 처리된 제 3 보정 이미지 간의 차이에 대응하는 차분 이미지 정보를 생성하도록, 상기 통신 모듈(예: 통신 모듈(180))을 통해 상기 원시 이미지를 상기 외부 전자 장치(예: 서버(108))로 전송하고, 및 상기 제 3 보정 이미지에 대응하도록, 상기 차분 이미지 정보를 이용하여 상기 제 1 보정 이미지를 더 보정하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 제 1 보정 이미지를 생성하는 과정의 적어도 일부로, 상기 원시 이미지의 적어도 하나의 영역에 대응하는 제 1 효과를 위한 상기 제 1 이미지 처리 방식을 통해 상기 제 1 보정 이미지를 생성하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 제 1 효과를 위한 상기 제 1 이미지 처리 방식을 통해 처리된 상기 제 2 보정 이미지 및 상기 원시 이미지의 적어도 하나의 영역에 대응하는 제 2 효과를 위한 상기 제 2 이미지 처리 방식을 통해 처리된 상기 제 3 보정 이미지 간의 차이에 기반하여 생성된 상기 차분 이미지 정보를 수신하도록 설정될 수 있고, 상기 제 2 이미지 처리 방식이 요구하는 연산량은 상기 제 1 이미지 처리 방식이 요구하는 연산량보다 클 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 외부 전자 장치(예: 서버(108))로부터, 상기 차분 이미지 정보를 무손실 압축하여 생성된 압축된 차분 이미지 정보를 수신하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 수신된 상기 압축된 차분 이미지 정보를 상기 무손실 압축에 기반하여 압축 해제하여 상기 차분 이미지를 획득하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 제 1 보정 이미지를 상기 더 보정하는 과정의 적어도 일부로, 상기 차분 이미지와 상기 제 1 보정 이미지를 합산하는 연산을 수행하여, 상기 제 3 보정 이미지에 대응하는 이미지를 생성하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 통신 모듈(190)을 통해, 상기 원시 이미지를 상기 외부 전자 장치(예: 서버(108))로 전송하는 과정의 적어도 일부로, 상기 원시 이미지를 압축하여 압축된 원시 이미지를 생성하고, 및 상기 통신 모듈(190)을 이용하여, 상기 외부 전자 장치(예: 서버(108))로 상기 압축된 원시 이미지를 전송하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 압축된 원시 이미지를 압축 해제한 후 상기 제 1 이미지 처리 방식을 통해 처리된 상기 제 2 보정 이미지 및 상기 압축된 원시 이미지를 압축 해제한 후 상기 제 2 이미지 처리 방식을 통해 처리된 상기 제 3 보정 이미지 간의 차이에 기반하여 생성된 상기 차분 이미지 정보를 수신하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 통신 모듈(190)을 통해, 상기 원시 이미지를 상기 외부 전자 장치(예: 서버(108))로 전송하는 과정의 적어도 일부로, 상기 전자 장치(101), 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)와 관련된 정보의 적어도 일부, 또는 상기 전자 장치(101)에 저장된 상기 제 1 이미지 처리 방식 중 적어도 하나를 식별할 수 있는 적어도 하나의 식별 정보를 상기 외부 전자 장치(예: 서버(108))로 전송하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 적어도 하나의 식별 정보에 적어도 기반하여 선택된 상기 제 1 이미지 처리 방식을 통해 처리된 상기 제 2 보정 이미지 및 상기 제 3 보정 이미지 간의 차이에 기반하여 생성된 상기 차분 이미지 정보를 수신하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 식별 정보는, 상기 원시 이미지의 메타데이터에 포함되거나, 또는 상기 원시 이미지에 대한 데이터로부터 독립적으로 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, HEVC(high efficiency video coding) 인코딩 방식 중 다른 프레임 이미지를 요구하지 않는 제 1 인코딩 방식으로 상기 제 1 보정 이미지를 인코딩함으로써, 제 1 인코딩 이미지를 생성하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 통신 모듈(190)을 통하여, 상기 외부 전자 장치(예: 서버(108))로부터, 상기 HEVC 인코딩 방식 중 다른 프레임 이미지를 요구하는 제 2 인코딩 방식을 통하여, 상기 제 3 보정 이미지를 상기 제 2 보정 이미지를 참조하여 인코딩한 제 2 인코딩 이미지를 수신하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 제 1 보정 이미지를 더 보정하는 과정의 적어도 일부로, 상기 제 1 인코딩 이미지 및 상기 제 2 인코딩 이미지에 대하여 디코딩을 수행함으로써, 상기 제 2 인코딩 이미지에 대한 디코딩 결과인 상기 제 3 보정 이미지에 대응하는 이미지를 생성하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 카메라(예: 카메라 모듈(180) 또는 이미지 센서(230))를 이용하여, 외부 객체에 대한 원시 이미지를 획득하고, 상기 원시 이미지의 형식을 지정된 형식으로 변환하여 제 1 변환 이미지를 생성하고, 상기 통신 모듈(190)을 이용하여, 외부 전자 장치(예: 서버(108)로 상기 원시 이미지를 전송하고, 상기 통신 모듈(190)을 이용하여, 상기 외부 전자 장치(예: 서버(108)로부터, 상기 원시 이미지의 형식을 상기 지정된 형식으로 변환하여 생성된 제 2 변환 이미지 및 상기 원시 이미지에 상기 외부 전자 장치(예: 서버(108)에 저장된 이미지 처리 방식을 적용하여 생성된 제 1 보정 이미지 간의 차이에 기반하여 생성된 차분 이미지 정보를 수신하고, 및 상기 수신된 상기 차분 이미지 정보 및 상기 제 1 변환 이미지를 이용하여, 제 1 보정 이미지에 대응하는 제 2 보정 이미지를 생성하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서(예: 프로세서(120) 또는, 프로세서(264) 중 적어도 하나)는, 상기 카메라(예: 카메라 모듈(180) 또는 이미지 센서(230))를 이용하여, 외부 객체에 대한 원시 이미지를 획득하고, 상기 통신 모듈(190)이 턴 오프된 경우에는, 상기 원시 이미지에 대한 제 1 보정 이미지를 생성하여, 상기 메모리에 저장하도록 설정되고, 상기 통신 모듈(190)이 턴 온된 경우에는, 상기 원시 이미지를 상기 통신 모듈을 이용하여 외부 전자 장치(예: 서버(108))로 송신하고, 상기 외부 전자 장치(예: 서버(108))로부터 제 1 데이터를 수신하고, 상기 제 1 데이터 및 상기 원시 이미지를 이용하여 제 2 보정 이미지를 생성하여, 상기 메모리(130)에 저장하도록 설정될 수 있다. 이 경우, 제 1 보정 이미지는 상기 원시 이미지와 상이하고, 상기 제 1 보정 이미지 및 상기 제 2 보정 이미지 간의 차이는, 상기 제 1 데이터에 대응될 수 있다.
다양한 실시예에 따라서, 적어도 하나의 프로세서(예: 프로세서(270))는, 통신 모듈(예: 통신 모듈(284))을 통하여, 외부 전자 장치(예: 전자 장치(101))가 획득한 원시 이미지를 수신하고, 상기 외부 전자 장치(예: 전자 장치(101))에 대응하여 지정된 제 1 이미지 처리 방식을 통해 처리한 제 1 보정 이미지 및, 상기 전자 장치(예: 서버(108))에 대응하여 지정된 제 2 이미지 처리 방식을 통해 처리한 제 2 보정 이미지 간의 차이에 대응하는 차분 이미지 정보를 생성하고, 및 상기 통신 모듈(예: 통신 모듈(284))을 통하여, 상기 차분 이미지 정보를 상기 외부 전자 장치(예: 전자 장치(101))로 송신하도록 설정될 수 있다.
다양한 실시예에 따라서, 적어도 하나의 프로세서(예: 프로세서(270))는, 상기 차분 이미지 정보를 생성하는 과정의 적어도 일부로, 상기 차분 이미지 정보를 무손실 압축하여 생성된 압축된 차분 이미지 정보를 생성하도록 설정될 수 있다.
다양한 실시예에 따라서, 적어도 하나의 프로세서(예: 프로세서(270))는, 상기 원시 이미지를 수신하는 과정의 적어도 일부로, 상기 외부 전자 장치(예: 전자 장치(101)), 상기 외부 전자 장치(예: 전자 장치(101))의 적어도 하나의 프로세서와 관련된 정보의 적어도 일부, 또는 상기 외부 전자 장치(예: 전자 장치(101))에 저장된 상기 제 1 이미지 처리 방식 중 적어도 하나를 식별할 수 있는 적어도 하나의 식별 정보를 수신하고, 상기 차분 이미지 정보를 생성하는 과정의 적어도 일부로, 상기 적어도 하나의 식별 정보에 적어도 기반하여 선택된 상기 제 1 이미지 처리 방식을 통해 처리된 상기 제 1 보정 이미지 및 상기 제 2 보정 이미지 간의 차이에 기반하여 생성된 상기 차분 이미지 정보를 생성하도록 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 식별 정보는, 상기 원시 이미지의 메타데이터에 포함되거나, 또는 상기 원시 이미지에 대한 데이터로부터 독립적으로 설정될 수 있다.
다양한 실시예에 따라서, 적어도 하나의 프로세서(예: 프로세서(270))는, 상기 차분 이미지 정보를 생성하는 과정의 적어도 일부로, HEVC(high efficiency video coding) 인코딩 방식 중 다른 프레임 이미지를 요구하는 제 2 인코딩 방식을 통하여, 상기 제 2 보정 이미지를 상기 제 1 보정 이미지를 참조하여 인코딩한 인코딩 이미지를 생성하고, 상기 통신 모듈(예: 통신 모듈(284))을 통하여, 상기 인코딩 이미지를, 상기 외부 전자 장치(예: 전자 장치(101))로 송신하도록 설정될 수 있다.
도 3은 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다. 도 3의 실시예는, 도 4a 내지 4c를 참조하여 더욱 상세하게 설명하도록 한다. 도 4a는 다양한 실시예에 따라 전자 장치 또는 서버에 의하여 보정된 이미지이다. 도 4b는 다양한 실시예에 따라 서버에 의하여 보정된 이미지이다. 도 4c는 다양한 실시예에 따른 차분 이미지이다.
도 3을 참조하면, 다양한 실시예에 따라서, 전자 장치(101)(예: 프로세서(120))는, 301 동작에서, 카메라 모듈(180)을 이용하여 외부 객체에 대응하는 제 1 이미지, 즉 원시 이미지를 획득할 수 있다. 303 동작에서, 전자 장치(101)는, 제 1 이미지를 서버(108)로 송신할 수 있다. 예를 들어, 전자 장치(101)는, 제 1 이미지를 원시 이미지의 형식 그대로 송신할 수도 있으며, 또는 제 1 이미지를 압축하여 서버(108)로 송신할 수도 있다. 한 실시예에서, 전자 장치(101)는, 카메라 모듈(180)을 이용하여 제 1 이미지를 획득하면, 이에 대응하여 제 1 이미지를 송신하도록 설정될 수 있다 . 다른 실시예에서, 전자 장치(101)는, 사용자로부터 추가적인 입력이 수신되면, 이에 대응하여 제 1 이미지를 송신하도록 설정될 수 있다 . 예를 들어, 전자 장치(101)는, 제 1 이미지 또는 제 1 이미지를 보정한 이미지를 표시 장치(160) 상에 표시할 수 있으며, 추가적으로 서버(108)를 통한 추가 보정을 선택할 수 있도록 하는 사용자 인터페이스를 표시할 수 있다. 예를 들어, 전자 장치(101)는, 표시 장치(160)에 표시되는 이미지의 적어도 일부를 덮도록 추가 보정 요청 오브젝트를 표시할 수 있다. 추가 보정 요청 오브젝트가 선택되는 것이 검출되면, 전자 장치(101)는, 제 1 이미지를 서버(108)로 송신할 수 있다. 예를 들어, 전자 장치(101)는, 제 1 이미지의 크기, 업로드 예상 시간, 과금이 될 수도 있다는 취지의 메시지, 보정 예상 시간 등에 대한 정보를, 표시 장치 상에 표시할 수도 있다. 또 다른 실시예에서, 전자 장치(101)의 통신 연결 상태에 적어도 기반하여 제 1 이미지의 송신 여부를 판단할 수도 있다 . 예를 들어, 전자 장치(101)는, 셀룰러 네트워크에 연결된 것으로 판단되는 경우에는 제 1 이미지의 송신을 유보하다가, 와이 파이 표준 등에 따른 네트워크에 연결되면 이에 대응하여 제 1 이미지를 송신할 수도 있다. 전자 장치(101)가 복수 개의 통신 방식을 지원하는 경우에는, 전자 장치(101)는 활성화된 통신 방식에 따라 제 1 이미지의 송신 여부를 판단할 수도 있다. 도 3에서는, 제 1 이미지 송신(303 동작)이, 제 1 보정 이미지 생성(305 동작)보다 먼저 수행되는 것과 같이 도시되어 있지만, 이는 단순히 예시적인 것이다. 상술한 다양한 조건이 만족되는 시점에서 전자 장치(101)는, 제 1 이미지를 송신할 수 있으며, 예를 들어 제 1 보정 이미지가 생성된 이후에, 제 1 이미지가 서버(108)로 송신될 수도 있다.
다양한 실시예에 따라서, 305 동작에서, 전자 장치(101)(예: 전자 장치(101)의 ISP(260))는 제 1 이미지에 적어도 기반하여 제 1 보정 이미지를 생성할 수 있다. 예를 들어, 전자 장치(101)는, 제 1 이미지에 제 1 이미지 처리 방식을 적용함으로써 제 1 보정 이미지를 생성할 수 있다. 제 1 이미지 처리 방식은, 전자 장치(101)의 ISP(260)에 의하여 설정된 것일 수 있다. ISP(260)에 의한 제 1 이미지 처리 방식은, 화이트 밸런스 조절, 컬러 조정, 색 필터 배열 보간, 잡음 감소 처리, 샤프닝, 또는 이미지 개선 등의 다양한 처리를 포함할 수 있으며, 제 1 이미지 처리 방식에 포함되는 처리 방식에는 제한이 없다. ISP(260)에 의한 제 1 이미지 처리 방식은, 고정적일 수도 있으며, 또는 업데이트될 수도 있다. 제 1 이미지 처리 방식은, 복수 개의 이미지 처리 방식들을 포함할 수도 있으며, 복수 개의 이미지 처리 방식들 사이에는 처리 순서가 지정될 수도 있다. 예를 들어, 전자 장치(101)는, 원시 이미지에 대하여 화이트 밸런스 조절, 컬러 조정, 샤프닝을 지정된 순서대로 적용할 수 있다. 다른 실시예에서는, 복수 개의 이미지 처리 방식들 사이에는 처리 순서가 지정되지 않을 수도 있다 .
다양한 실시예에 따라서, 서버(108)(예: 서버(108)의 ISP(274))는, 제 1 이미지에 적어도 기반하여 제 2 보정 이미지를 생성하고, 제 2 이미지에 적어도 기반하여 제 3 보정 이미지를 생성할 수 있다. 서버(108)는, 제 1 이미지에 대하여 제 1 이미지 처리 방식을 적용하여 제 1 보정 이미지를 생성할 수 있으며, 제 1 이미지에 대하여 제 1 이미지 처리 방식과 상이한 제 2 이미지 처리 방식을 적용하여 제 3 보정 이미지를 생성할 수 있다. 즉, 서버(108)는, 전자 장치(101)가 수행한 제 1 이미지 처리 방식과 동일한 이미지 처리 방식을 제 1 이미지에 적용함으로써 제 2 보정 이미지를 생성하므로, 제 2 보정 이미지는 제 1 보정 이미지와 실질적으로 동일할 수 있다.
다양한 실시예에 따라서, 서버(108)는, 전자 장치(101)의 제 1 이미지 처리 방식을 판단할 수 있다 . 서버(108)는, 전자 장치(101)의 식별 정보(예: 모델 정보)를 판단하고, 이에 대응하는 제 1 이미지 처리 방식을 판단할 수 있다. 예를 들어, 서버(108)는, 다양한 전자 장치(101)의 모델 정보와 이에 대응하는 이미지 처리 방식에 대한 연관 정보를 저장할 수 있다. 서버(108)는, 예를 들어 표 1과 같은 연관 정보를 저장할 수 있다.
모델 정보 이미지 처리 방식
A사 abc 모델 화이트 밸런스 조절, 잡음 감소 처리, 샤프닝, 또는 이미지 개선
A사 bcd 모델 잡음 감소 처리, 샤프닝, 또는 이미지 개선
B사 bef 모델 화이트 밸런스 조절, 잡음 감소 처리, 샤프닝, 또는 이미지 개선
서버(108)는, 예를 들어 표 1과 같은 연관 정보를 참조하여, 전자 장치(101)의 제 1 이미지 처리 방식을 확인할 수 있다. 다른 실시예에서, 서버(108)는 모델 정보와 이미지 처리 알고리즘(또는, 이미지 처리 프로그램)의 식별 정보와의 연관 정보를 저장할 수도 있다. 이 경우, 서버(108)는, 전자 장치(101)의 모델 정보에 대응하는 이미지 처리 알고리즘(또는, 이미지 처리 프로그램)을 식별 정보를 확인하고, 확인된 이미지 처리 방식을 제 1 이미지에 적용할 수도 있다. 만약, 제 1 이미지 처리 방식이 복수 개의 서브 이미지 처리 방식 사이의 처리 순서까지 정의한 경우에는, 서버(108)는 확인된 서브 이미지 처리 방식을 정의된 처리 순서에 따라 제 1 이미지에 적용할 수 있다. 예를 들어, 서버(108)는, 전자 장치(101)에 대응하는 제 1 이미지 처리 방식으로, 잡음 감소 처리, 샤프닝, 또는 이미지 개선을 제 1 이미지에 적용하여 도 4a와 같은 제 2 보정 이미지(401)를 생성할 수 있다. 상술한 바와 같이, 전자 장치(101) 또한 제 1 이미지 처리 방식을 제 1 이미지에 적용하여 도 4a와 같은 보정 이미지(401)를 생성할 수 있다.
다양한 실시예에서, 전자 장치(101)는, ISP(260)의 이미지 처리 프로그램을 갱신할 수도 있다. 이 경우에는, 서버(108)는, 전자 장치(101)의 모델 정보가 아닌, 전자 장치(101)의 고유한 식별 정보 및 이미지 처리 방식(또는, 이미지 처리 프로그램) 사이의 연관 정보를 관리할 수도 있다. 예를 들어, 서버(108)가 전자 장치(101)로 이미지 처리 프로그램 갱신을 위한 파일을 전송한 경우에, 서버(108)는 해당 전자 장치(101)에 전송한 파일과 연관된 정보를 연관시켜 저장할 수도 있다. 서버(108)는, 추후 전자 장치(101)로부터 제 1 이미지가 수신되면, 전자 장치(101)의 식별 정보 및 저장된 연관 정보에 적어도 기반하여 판단된, 제 1 이미지 처리 방식을 제 1 이미지에 적용하여 제 2 보정 이미지를 생성할 수 있다. 만약, 서버(108)가 다른 전자 장치(예: 전자 장치(104))로부터 이미지를 수신한 경우에, 서버(108)는 제 1 이미지 처리 방식과 상이한 제 3 이미지 처리 방식을 수신된 제 1 이미지에 적용할 수도 있다.
다양한 실시예에 따라서, 서버(108)(예: 서버(108)의 ISP(274))는, 수신된 제 1 이미지에 제 2 이미지 처리 방식을 적용하여 제 3 보정 이미지를 생성할 수 있다. 제 2 이미지 처리 방식은, 서버(108)에 지정된 이미지 처리 방식일 수 있으며, 상대적으로 고연산량 또는 높은 리소스를 요구하는 보다 정확한 보정을 수행할 수 있는 이미지 처리 방식일 수 있다. 제 2 이미지 처리 방식은, 예를 들어 전자 장치(101)에서는 실행될 수 없는 이미지 처리 방식일 수도 있으며, 서버(108)는 최신의 이미지 처리 알고리즘을 제 2 이미지 처리 방식으로 갱신할 수도 있다. 제 2 이미지 처리 방식은, 아울러 제 1 이미지로부터 획득된 다양한 보정 영역 정보를 적어도 이용할 수도 있다. 예를 들어, 서버(108)는, 제 1 이미지가 야외 환경의 신 분류 정보를 가지며, 제 1 이미지의 제 1 영역의 식별 결과가 인간의 얼굴이며, 제 2 영역의 식별 결과가 하늘이라는 보정 영역 정보를 이용하여, 도 4b와 같은 제 3 보정 이미지(402)를 생성할 수 있다. 서버(108)는, 도 4b에서와 같이, 제 3 보정 이미지(402)의 제 1 영역(421)에 얼굴에 대응하는 이미지 처리 효과를 적용하고, 제 2 영역(422)에 하늘에 대응하는 이미지 처리 효과를 적용할 수 있다. 도 4a의 제 1 영역(411)과 비교하여 도 4b의 제 1 영역(421)이 더욱 밝게 처리되고, 도 4a의 제 2 영역(412)과 비교하여 도 4b의 제 2 영역(422)이 더욱 밝게 처리된 것을 확인할 수 있다. 서버(108)는, 보정 영역 정보에 기반한 이미지 처리 방식뿐만 아니라, 추가적으로 보정 영역 정보를 이용하지 않는 이미지 처리 방식을 적용하여 제 3 보정 이미지를 생성할 수도 있다. 또는, 서버(108)는, 보정 영역 정보를 이용하지 않는 이미지 처리 방식만을 이용하여 제 3 보정 이미지를 생성할 수도 있다. 제 2 이미지 처리 방식은, 제 1 이미지 처리 방식에 포함된 이미지 처리 방식의 적어도 일부를 포함할 수도 있으나, 다른 실시예에서 제 2 이미지 처리 방식은 제 1 이미지 처리 방식과 상이한 이미지 처리 방식으로 구현될 수도 있다.
다양한 실시예에 따라서, 서버(108)는, 309 동작에서, 제 2 보정 이미지 및 제 3 보정 이미지의 차분 이미지 정보를 생성할 수 있다. 예를 들어, 서버(108)는, 제 2 보정 이미지의 픽셀의 픽셀 값과 제 3 보정 이미지의 대응되는 픽셀의 픽셀 값 사이의 차이를 산출할 수 있으며, 산출 결과에 적어도 기반하여 차분 이미지를 생성할 수 있다. 예를 들어, 제 2 보정 이미지의 (i,j) 좌표의 픽셀의 픽셀 값이 c(i,j)이며, 제 3 보정 이미지의 (i,j) 좌표의 픽셀 값이 d(i,j)인 경우에는, 서버(108)는 차분 이미지의 (i,j)의 픽셀 값을 d( i,j ) -c( i,j )으로 결정할 수 있다. 여기에서, 제 2 보정 이미지 또는 제 3 보정 이미지가 A × B의 크기를 가지는 경우, i는 1 이상 A 이하의 자연수이며, j는 1 이상 B이하의 자연수일 수 있다. 서버(108)는, 제 2 보정 이미지 및 제 3 보정 이미지의 적어도 일부 픽셀들에 대하여, 픽셀 값 차이를 산출함으로써 차분 이미지를 생성할 수 있다. 예를 들어, 도 4c는 차분 이미지(403)의 예시이다. 제 2 보정 이미지(401) 및 제 3 보정 이미지(402)는, 모두 원시 이미지에 대한 보정 이미지들이기 때문에, 서로 유사한 픽셀값을 가질 수도 있다. 이에 따라, 도 4c에서 도시된 바와 같이, 차분 이미지(403)의 대부분의 픽셀이 0에 가까운 값을 가질 수 있으며, 이는 제 2 보정 이미지(401) 및 제 3 보정 이미지(402) 사이의 차이가 크지 않은 것으로부터 기인할 수 있다. 한편, 다른 실시예에서, 서버(108)는, 제 2 보정 이미지 및 제 3 보정 이미지를 직접 생성하여 저장하지 않고, 곧바로 원시 이미지로부터 차분 이미지 정보를 생성할 수도 있다. 예를 들어, 서버(108)는, 제 1 이미지 처리 방식에 의하여 처리된 제 2 보정 이미지 및 제 2 이미지 처리 방식에 의하여 처리된 제 3 보정 이미지 간의 차이에 대응하는 차분 이미지 정보를 곧바로 생성하도록 하는 처리 알고리즘을 저장할 수도 있다. 이 경우, 서버(108)는, 원시 이미지에 처리 알고리즘을 적용함으로써, 차분 이미지 정보를 곧바로 획득할 수도 있다.
다양한 실시예에 따라서, 서버(108)는, 311 동작에서, 차분 이미지 정보를 전자 장치(101)로 송신할 수 있다. 서버(108)는, 차분 이미지를 직접 전자 장치(101)로 송신할 수도 있으며, 또는 차분 이미지를 압축한 결과를 전자 장치(101)로 송신할 수도 있다. 즉, 차분 이미지 정보는, 차분 이미지 또는 차분 이미지를 압축한 파일 등으로 구현될 수 있다. 313 동작에서, 전자 장치(101)는, 제 1 보정 이미지 및 차분 정보에 적어도 기반하여, 제 4 보정 이미지를 생성할 수 있다. 예를 들어, 전자 장치(101)는, 제 1 보정 이미지에 수신된 차분 이미지 정보로부터 확인된 차분 이미지를 더하는 연산을 수행할 수 있으며, 이에 따라 제 4 보정 이미지를 생성할 수 있다. 차분 이미지의 (i,j)의 픽셀 값은 d( i,j ) -c(i,j)일 수 있으며, 제 1 보정 이미지의 (i,j)의 픽셀 값은 c( i,j )이므로, 제 1 보정 이미지 및 차분 이미지의 더하는 연산 결과 생성된 제 4 보정 이미지의 (i,j)의 픽셀 값은 d(i,j)일 수 있다. 제 4 보정 이미지는 제 2 보정 이미지와 실질적으로 동일할 수 있다. 이에 따라, 전자 장치(101)가 제 2 이미지 처리 방식을 지원하지 않더라도, 전자 장치(101)는 제 2 이미지 처리 방식이 적용된 제 2 보정 이미지와 실질적으로 동일한 제 4 보정 이미지를 생성할 수 있다. 다양한 실시예에서, 전자 장치(101)가 제 4 이미지를 생성하는 과정은, 제 1 보정 이미지를 더 보정하는 과정으로 표현될 수도 있다.
한편, 전자 장치(101)는 통신 모듈(190)의 턴 오프된 경우에는 차분 이미지 정보를 수신할 수 없으므로 제 1 보정 이미지를 생성할 수 있다. 통신 모듈(190)이 턴 온된 경우에는 차분 이미지 정보를 수신하므로 제 1 보정 이미지에 차분 이미지를 더함으로써 제 4 보정 이미지를 생성할 수 있다. 이에 따라, 통신 모듈(190)의 턴 온/오프 여부에 따라, 전자 장치(101)가 생성하는 이미지가 상이할 수 있다. 제 1 보정 이미지는 전자 장치(101)에 의하여 획득된 원시 이미지와 상이할 수 있으며, 제 2 보정 이미지 또한 원시 이미지와 상이할 수 있다. 아울러 통신 모듈(190)이 턴 오프된 경우에 생성된 제 1 보정 이미지와, 통신 모듈(190)이 턴 온된 경우에 생성된 제 4 보정 이미지 사이의 차이는, 서버(108)로부터 전자 장치(101)로부터 송신되는 통신 신호내에 포함된 정보(즉, 차분 이미지 정보)에 대응될 수 있다. 예를 들어, 통신 신호 내에 포함된 정보를 압축 해제된 정보가, 통신 모듈(190)이 턴 온된 경우에 생성된 보정 이미지 및 통신 모듈(190)이 턴 오프된 경우에 생성된 보정 이미지 사이와 동일할 수 있다.
도 5는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다. 도 5의 실시예는 도 6을 참조하여 더욱 상세하게 설명하도록 한다. 도 6은 다양한 실시예에 따른 전자 장치 및 서버의 블록도를 도시한다.
다양한 실시예에 따라서, 전자 장치(101)는, 501 동작에서, 카메라 모듈(180)을 이용하여 외부 객체에 대응하는 제 1 이미지를 획득할 수 있다. 503 동작에서, 전자 장치(101)는 제 1 이미지를 서버(108)로 송신할 수 있다. 예를 들어, 도 6에서와 같이, 전자 장치(101)의 카메라 모듈(180)로부터 제 1 이미지, 즉 원시 이미지가 출력될 수 있으며, 전자 장치(101)는 제 1 이미지를 전자 장치(101) 내의 제 1 ISP(601)로 출력하며, 제 1 이미지를 서버(108)로 송신할 수 있다. 505 동작에서, 전자 장치(101)(예: 제 1 ISP(601))는, 제 1 이미지에 적어도 기반하여 제 1 보정 이미지를 생성할 수 있다. 제 1 ISP(601)는, 제 1 이미지 처리 방식을 제 1 이미지에 적용함으로써 제 1 보정 이미지를 생성할 수 있다.
다양한 실시예에 따라서, 서버(108)는, 507 동작에서, 제 1 이미지에 적어도 기반하여 제 2 보정 이미지(예: 도 6의 B)를 생성하고, 제 1 이미지에 적어도 기반하여 제 3 보정 이미지(예: 도 6의 A)를 생성할 수 있다. 예를 들어, 서버(108)는, 전자 장치(101)의 제 1 ISP(601)와 동일한 모델의 제 1 ISP(612)를 시뮬레이터(simulator)의 형태로 구현할 수 있으며, 이에 따라 전자 장치(101)의 제 1 ISP(601)가 생성한 제 1 보정 이미지와 실질적으로 동일한 제 2 보정 이미지(예: 도 6의 B)를 생성할 수 있다.
509 동작에서, 서버(108)는, 제 1 보정 이미지 및 제 2 보정 이미지 사이의 차분 이미지를 생성할 수 있다. 예를 들어, 도 6에서와 같이, 서버(108)는 제 3 보정 이미지(예: 도 6의 A)로부터 제 2 보정 이미지(예: 도 6의 B)를 빼는 연산(613)을 수행할 수 있으며, 이에 따라 차분 이미지(예: 도 6의 A-B)를 생성할 수 있다. 511 동작에서, 서버(108)는, 차분 이미지를 압축할 수 있다. 서버(108)(예: 압축 모듈(614))는, 다양한 압축 방식을 이용하여 차분 이미지를 압축할 수 있으며, 압축 방식에는 제한이 없다. 도 4c에서와 같이, 차분 이미지는 대부분의 픽셀이 0에 가까운 값을 가지며, 픽셀들 사이의 값의 차이 또한 상대적으로 낮은 편이다. 이는, 제 1 ISP(612)가 원시 이미지 전체 픽셀에 대하여 제 1 보정 효과를 적용할 가능성이 있으며, 제 2 ISP(611)가 원시 이미지 전체 픽셀에 대하여 제 2 보정 효과를 적용할 가능성이 있기 때문이다. 이러한 경우에는, 차분 이미지의 픽셀 전반이 제 2 보정 효과와 제 1 보정 효과의 차이의 값을 가질 가능성이 있으며, 이에 따라 차분 이미지 픽셀 전반이 비교적 균일한 값을 가질 수 있다. 다양한 실시예에서, 서버(108)는 무손실 압축 방식을 이용하여 압축을 수행할 수 있으며, 예를 들어 비교적 균일한 픽셀 값을 가지는 이미지에 대하여 높은 압축률을 가지는 압축 방식(예: 런-길이 변조 (run-length encoding) 방식)을 이용하여 압축을 수행할 수도 있다. 513 동작에서, 서버(108)는, 압축된 차분 이미지를 송신할 수 있다. 압축된 차분 이미지는, 압축에 의하여 크기가 감소하였으므로, 비교적 빠른 시간내에 전자 장치(101)로 송신될 수 있다.
다양한 실시예에 따라서, 전자 장치(101)(예: 도 6의 압축 해제 모듈(602)은, 515 동작에서, 수신한 압축된 차분 이미지를 압축 해제할 수 있다. 517 동작에서, 전자 장치(101)는, 제 1 보정 이미지 및 차분 이미지에 적어도 기반하여, 제 4 보정 이미지를 생성할 수 있으며, 상술한 바와 같이, 제 4 보정 이미지는 제 3 보정 이미지와 실질적으로 동일할 수 있다. 예를 들어, 전자 장치(101)는, 제 1 보정 이미지 및 차분 이미지를 합산(603)함으로써 제 4 보정 이미지를 생성할 수 있다. 519 동작에서, 전자 장치(101)(예: 도 6의 압축 모듈(604))는, 제 4 보정 이미지에 적어도 기반하여 압축 이미지를 생성할 수 있다. 예를 들어, 압축 모듈(604 JPEG에서 정의된 방식으로 압축을 수행할 수 있으며, 압축 방식에는 제한이 없음을 당업자는 용이하게 이해할 수 있을 것이다. 전자 장치(101)는, 압축된 이미지를 메모리(예: DRAM(620)의 저장소(621))에 저장할 수 있다. 상술한 압축 방식 및 압축 해제 방식에는 제한이 없으며, 예를 들어 다양한 무손실 압축 방식이 이용될 수도 있다.
도 7a는 다양한 실시예에 따른 런-길이 부호화를 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따라서, 서버(108)는, 701 동작에서, 차분 이미지를 획득할 수 있다. 서버(108)는, 703 동작에서, 차분 이미지에 대하여 런 길이 부호화를 수행할 수 있다. 예를 들어, 서버(108)는, 차분 이미지에서, 인접하는 픽셀들이 같은 값(또는, 차이가 임계치 미만인 값)을 가지는 경우에, 해당 픽셀의 값과 같은 값이 연속되는 픽셀의 개수에 대한 정보로써, 차분 이미지에 대한 인코딩 데이터를 생성할 수 있다. 상술한 바와 같이, 차분 이미지가 차분 이미지 픽셀 전반이 비교적 균일한 값을 가질 가능성이 높다. 이에 따라, 차분 이미지에 대하여 런 길이 부호화를 수행한 경우, 차분 이미지의 부호화된 데이터는 원본 데이터에 비하여 크기가 작을 수 있다. 705 동작에서, 서버(108)는, 부호화된 데이터를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는, 707 동작에서, 수신한 부호화된 데이터에 대하여 복호화를 수행할 수 있으며, 예를 들어 런-길이 복호화 알고리즘을 수신된 데이터에 적용할 수 있다. 전자 장치(101)는, 709 동작에서, 복호화 결과로서 차분 이미지를 획득할 수 있다. 전자 장치(101)는, 획득한 차분 이미지와 자체적으로 생성한 보정 이미지에 적어도 기반하여, 서버(108)에 의하여 보정된 이미지와 실질적으로 동일한 이미지를 생성할 수 있다.
도 7b는 다양한 실시예에 따른 이미지에 대한 압축 방법을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따라서, 서버(108)는, 711 동작에서, 이미지(예: 차분 이미지)의 공간 영역(spatial domain)에서 비트 감소(bit reduction)을 수행할 수 있다. 713 동작에서, 서버(108)는, 이미지의 고립 픽셀(isolated pixel)을 제거할 수 있다. 715 동작에서, 서버(108)는, 이미지의 블록(block)내 계수가 존재하는지 여부를 판단할 수 있다. 블록 내 계수가 존재하지 않는 것으로 판단되면, 서버(108)는 717 동작에서, 해당 블록에 대하여 제로-블록 코딩(zero-block coding)을 수행할 수 있다. 블록 내 계수가 존재하는 것으로 판단되면, 서버(108)는 719 동작에서, 변형된 가우시안 필터(Gaussian filter)를 이용하여 방향성을 예측할 수 있다. 서버(108)는, 721 동작에서 복잡도(complexity)가 임계 복잡도를 초과하는지를 판단할 수 있다. 복잡도가 임계 복잡도를 초과하는 것으로 판단되면, 서버(108)는, 예를 들어 723 동작에서 예측한 방향에 따른 인트라 예측(intra prediction)을 수행할 수 있다. 인트라 예측을 수행하고, 725 동작에서, 서버(108)는 주파수 변환을 수행할 수 있다. 복잡도가 임계 복잡도 이하인 것으로 판단되면, 서버(108)는, 인트라 예측을 수행하지 않고, 725 동작에서 주파수 변환을 수행할 수도 있다. 727 동작에서, 서버(108)는, 주파수 계수의 합이 임계 계수를 초과하는지 여부를 판단할 수 있다. 주파수 계수의 합이 임계 계수를 초과하면, 서버(108)는 731 동작에서 방향성을 고려한 큰 양자화를 수행할 수 있으며, 주파수 계수의 합이 임계 계수 이하이면, 서버(108)는, 방향성을 고려한 작은 양자화를 수행할 수 있다. 733 동작에서, 서버(108)는 방향성에 따라 레코딩(recording)을 수행할 수 있다. 735 동작에서, 서버(108)는, 신규 엔트로피 코딩(new entropy coding)을 수행할 수 있다. 737 동작에서, 서버(108)는, 압축 빈(bin) 파일을 생성할 수 있다. 다양한 실시예에 따라서, 도 7a 및 7b의 방법 이외에도 다양한 압축 방식(예: 무손실 압축 방식)이 가능하며, 압축 방식에는 제한이 없다.
도 8a는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도들 도시한다.
도 8a를 참조하면, 다양한 실시예에 따라서, 전자 장치(101)는, 801 동작에서, 카메라 모듈(180)을 이용하여 외부 객체에 대응하는 제 1 이미지를 획득할 수 있다. 802 동작에서, 전자 장치(101)는, 제 1 이미지, 즉 원시 이미지를 압축할 수 있다. 전자 장치(101)는, 제 1 이미지를 다양한 압축 방식에 따라 압축할 수 있으며, 이에 따라 원시 이미지의 크기를 감소시킬 수 있다. 803 동작에서, 전자 장치(101)는, 압축된 제 1 이미지를 서버(108)로 송신할 수 있다.
다양한 실시예에 따라서, 서버(108)는, 804 동작에서, 압축된 제 1 이미지를 압축 해제할 수 있다. 서버(108)는, 압축된 이미지로부터 압축 방식을 확인할 수 있으며, 확인된 압축 방식에 기반하여 압축된 제 1 이미지를 압축 해제할 수 있다. 서버(108)는, 다양한 방식의 압축/압축 해제 모듈을 포함할 수 있으며, 이에 따라 다양한 전자 장치(101)로부터 수신된 다양한 압축 방식에 따라 압축된 이미지들에 대하여 압축 해제를 수행할 수 있다. 예를 들어, 서버(108)는, 다른 전자 장치(예: 전자 장치(104))로부터 압축된 이미지를 수신할 수도 있으며, 이 경우 전자 장치(101)에 대응하는 압축 해제 모듈과 상이한 압축 해제 모듈을 이용하여 압축된 이미지를 압축 해제할 수도 있다. 805 동작에서, 전자 장치(101)는, 제 1 이미지에 적어도 기반하여 제 1 보정 이미지를 생성할 수 있다. 전자 장치(101)는, 제 1 이미지에 제 1 이미지 처리 방식을 적용하여 제 1 보정 이미지를 생성할 수 있다. 807 동작에서, 서버(108)는, 제 1 이미지에 적어도 기반하여 제 2 보정 이미지를 생성하고, 제 1 이미지에 적어도 기반하여 제 3 보정 이미지를 생성할 수 있다. 서버(108)는, 제 1 이미지에 제 1 이미지 처리 방식을 적용하여 제 2 보정 이미지를 생성할 수 있으며, 제 1 이미지에 제 2 이미지 처리 방식을 적용하여 제 3 보정 이미지를 생성할 수 있다. 809 동작에서, 서버(108)는, 제 2 보정 이미지 및 제 3 보정 이미지의 차분 이미지 정보를 생성할 수 있다. 811 동작에서, 서버(108)는, 차분 이미지 정보를 전자 장치(101)로 송신할 수 있다. 813 동작에서, 전자 장치(101)는, 제 1 보정 이미지 및 차분 이미지 정보에 적어도 기반하여, 제 4 보정 이미지를 생성할 수 있으며, 상술한 바와 같이 제 4 보정 이미지는, 제 3 보정 이미지와 실질적으로 동일할 수 있다.
도 8b는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도들 도시한다.
801 동작 내지 809 동작과 관련하여서는, 도 8a를 참조하여 상술하였으므로, 여기에서의 더 이상의 상세한 설명은 생략하도록 한다.
821 동작에서, 서버(108)는, 차분 이미지를 압축할 수 있다. 예를 들어, 서버(108)는, 상술한 바와 같이, 차분 이미지 정보를 런-길이 변조 방식을 이용하여 압축할 수 있다. 다양한 실시예에 따른 서버(108)는, 복수 개의 압축 모듈을 포함할 수 있으며, 전자 장치(101)가 압축 해제를 수행할 수 있는 압축 방식을 선택할 수 있다. 서버(108)는, 전자 장치(101)의 식별 정보를 이용하여 압축 방식을 선택할 수 있다. 또는, 서버(108)는, 803 동작에서 전자 장치(101)로부터 압축된 제 1 이미지로부터 확인된, 전자 장치(101)가 이용한 압축 형식에 적어도 기반하여 압축 방식을 선택할 수도 있다. 전자 장치(101)가 802 동작에서 수행하는 압축 방식과, 서버(108)가 821 동작에서 수행하는 압축 방식은 동일할 수도 있으며, 또는 상이할 수도 있다. 823 동작에서, 전자 장치(101)는, 압축된 차분 이미지를 송신할 수 있다. 825 동작에서, 전자 장치(101)는, 압축된 차분 이미지를 압축 해제할 수 있다. 전자 장치(101)는, 823 동작에서 수신한 데이터에 적어도 기반하여 압축 방식을 확인할 수 있으며, 확인된 압축 방식에 적어도 기반하여 압축 해제를 수행할 수 있다. 또는, 전자 장치(101)는, 802 동작에서 수행하였던 압축 방식에 적어도 기반하여 압축 해제를 수행할 수도 있다. 827 동작에서, 전자 장치(101)는, 제 1 보정 이미지 및 차분 이미지에 적어도 기반하여, 제 4 보정 이미지를 생성할 수 있다.
도 9는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다. 도 9의 실시예는 도 10을 참조하여 더욱 상세하게 설명하도록 한다. 도 10은 다양한 실시예에 따른 전자 장치 및 서버에서의 이미지 처리 프로그램을 도시한다.
다양한 실시예에 따라서, 전자 장치(101)는, 901 동작에서, 카메라 모듈을 이용하여 외부 객체에 대응하는 제 1 이미지, 즉 원시 이미지를 획득할 수 있다. 903 동작에서, 전자 장치(101)는, 제 1 이미지와, 전자 장치 또는 전자 장치(101) 내의 ISP(260) 중 적어도 하나의 식별 정보를 송신할 수 있다. IST(260)의 식별 정보는, 예를 들어 ISP(260)를 식별할 수 있는 정보, 또는 ISP(260)가 이용하는 적어도 하나의 이미지 처리 프로그램을 나타내는 정보를 포함할 수도 있다. 전자 장치(101)는, 제 1 이미지 및 식별 정보 각각을 상이한 통신 신호 각각에 포함시켜 송신하거나, 또는 제 1 이미지 및 식별 정보를 하나의 통신 신호에 포함시켜 송신할 수도 있다.
다양한 실시예에 따라서, 서버(108)는, 905 동작에서, 복수 개의 이미지 처리 프로그램 중, 수신된 식별 정보에 대응하는 처리 프로그램을 선택할 수 있다. 예를 들어, 도 10에서와 같이, 전자 장치(101)(예: ISP(260))는 제 1 이미지 처리 방식(1010)을 수행할 수 있으며, 제 1 이미지 처리 방식(1010)에는, CFA interpolation(1011), WB/color adjustment(1012), NR(noise reduction)/sharpen(1013) 및 image enhance(1014)의 이미지 처리 프로그램을 포함할 수 있다. 서버(108)는, 예를 들어, 복수 개의 이미지 처리 프로그램(1020)을 저장할 수 있다. 복수 개의 이미지 처리 방식(1020)은, original color mapping(1021), detail re-generation(1022), text reconstruction(1023), image inpainting(1024), CFA interpolation(1025), WB/color adjustment(1026), NR(noise reduction)/sharpen(1027) 및 image enhance(1028)를 포함할 수 있다. 전자 장치(101)는, 제 1 이미지 처리 방식(1010)을 식별할 수 있는 식별 정보(1050)를 서버(108)로 전달할 수 있다. 서버(108)는, 수신한 식별 정보(1050)에 기반하여 복수 개의 이미지 처리 프로그램(1020) 중 일부의 이미지 처리 프로그램(1030)을 선택할 수 있다. 서버(108)는, 전자 장치(101)가 수행하는 제 1 이미지 처리 방식과 동일한 이미지 처리를 수행할 수 있도록 일부의 이미지 처리 프로그램(1030)을 선택할 수 있다.
906 동작에서, 전자 장치(101)는, 제 1 이미지에 적어도 기반하여 제 1 보정 이미지를 생성할 수 있다. 전자 장치(101)는, 예를 들어, 도 10의 제 1 이미지 처리 방식(1010)에 포함된 이미지 처리 프로그램(1011,1012,1013,1014)를 제 1 이미지에 적용하여, 제 1 보정 이미지를 생성할 수 있다. 909 동작에서, 서버(108)는, 선택된 처리 프로그램을 이용하여 제 1 이미지에 적어도 기반하여 제 2 보정 이미지를 생성하고, 복수 개의 이미지 처리 프로그램을 이용하여 제 1 이미지에 적어도 기반하여 제 3 보정 이미지를 생성할 수 있다. 서버(108)는, 예를 들어 도 10에서와 같이, 저장되어 있던 복수 개의 이미지 처리 프로그램(1020) 중 전자 장치(101)에 대응하여 선택된 이미지 처리 프로그램(103)을 제 1 이미지에 적용하여, 제 2 보정 이미지를 생성할 수 있다. 서버(108)는, 예를 들어 도 10에서의 복수 개의 이미지 처리 프로그램(1020) 중 적어도 일부를 제 1 이미지에 적용하여, 제 3 보정 이미지를 생성할 수 있다. 서버(108)는, 저장되어 있던 복수 개의 이미지 처리 프로그램(1020) 전부를 제 1 이미지에 적용하여 제 3 보정 이미지를 생성하거나, 또는 저장되어 있던 복수 개의 이미지 처리 프로그램(1020) 중 일부를 제 1 이미지에 적용하여 제 3 보정 이미지를 생성할 수도 있다. 서버(108)는, 예를 들어 제 1 이미지로부터 보정 영역 정보를 판단할 수도 있으며, 보정 영역 정보를 이용하여 복수 개의 이미지 처리 프로그램(1020) 중 적어도 일부를 제 1 이미지에 적용하여 제 3 보정 이미지를 생성할 수도 있다. 예를 들어, 서버(108)는, 사람의 머리카락에 해당하는 영역에 대하여서는 sharpen 및 detail enhancement를 강하게 적용할 수 있으며, 사람의 얼굴에 해당하는 영역의 경우에는 noise reduction을 강하게 적용할 수 있다. 예를 들어, 서버(108)는, 분류 정보에 대응되는 특징 벡터(feature vector)를 생성할 수 있으며, 피사체의 원본 컬러를 매핑하거나, 피사체의 detail을 re-generation할 수 있다. 예를 들어, 서버(108)는 텍스트 인식을 통한 text reconstruction을 수행할 수도 있으며, 인식된 피사체에 대하여 지워진 부분을 채우는 image inpainting을 수행할 수 있다. 911 동작에서, 서버(108)는, 제 2 보정 이미지 및 제 3 보정 이미지의 차분 이미지 정보를 생성할 수 있다. 913 동작에서, 서버(108)는, 차분 이미지 정보를 전자 장치(101)로 송신할 수 있다. 915 동작에서, 전자 장치(101)는, 제 1 보정 이미지 및 차분 이미지 정보에 적어도 기반하여, 제 3 보정 이미지와 실질적으로 동일한 제 4 보정 이미지를 생성할 수 있다.
도 11은 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다.
다양한 실시예에 따라서, 전자 장치(101)는, 1101 동작에서, 카메라 모듈(180)을 이용하여 외부 객체에 대응하는 제 1 이미지, 즉 원시 이미지를 획득할 수 있다. 1103 동작에서, 전자 장치(101)는, 제 1 이미지의 메타 데이터에 전자 장치 또는 ISP 중 적어도 하나의 식별 정보를 포함시켜 송신할 수 있다. 다양한 실시예에 따른 전자 장치(101)는, 제 1 이미지, 즉 원시 이미지의 메타 데이터에, 서버(108)에서 ISP를 시뮬레이팅하는데 이용할 수 있는 정보를 포함시킬 수 있다.
1105 동작에서, 서버(108)는, 제 1 이미지의 메타 데이터에서 전자 장치(101) 또는 ISP(260)의 식별 정보를 확인하고, 복수 개의 이미지 처리 프로그램 중, 식별 정보에 대응하는 이미지 처리 프로그램을 선택할 수 있다. 1106 동작에서, 전자 장치(101)는, 제 1 이미지에 적어도 기반하여 제 1 보정 이미지를 생성할 수 있다. 1107 동작에서, 서버(108)는, 선택된 처리 프로그램을 이용하여, 제 1 이미지에 적어도 기반하여 제 2 보정 이미지를 생성할 수 있다. 제 2 보정 이미지는, 제 1 보정 이미지와 실질적으로 동일할 수 있다. 1109 동작에서, 서버(108)는, 복수 개의 이미지 처리 프로그램 중 적어도 일부를 이용하여, 제 1 이미지에 적어도 기반하여 제 3 보정 이미지를 생성할 수 있다. 1111 동작에서, 서버(108)는 제 2 보정 이미지 및 제 3 보정 이미지의 차분 이미지 정보를 생성할 수 있다. 1113 동작에서, 서버(108)는, 차분 이미지 정보를 전자 장치(101)로 송신할 수 있다. 1115 동작에서, 전자 장치(101)는, 제 1 보정 이미지 및 차분 이미지 정보에 적어도 기반하여, 제 3 보정 이미지와 실질적으로 동일한 제 4 보정 이미지를 생성할 수 있다.
도 12는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다. 도 12의 실시예는 도 13을 참조하여 더욱 상세하게 설명하도록 한다. 도 13은 다양한 실시예에 따른 ISP를 포함하지 않는 전자 장치 및 서버의 블록도를 도시한다.
다양한 실시예에 따라서, 전자 장치(101)는, 1201 동작에서, 카메라 모듈(180)을 이용하여 외부 객체에 대응하는 제 1 이미지, 즉 원시 이미지를 획득할 수 있다. 예를 들어, 도 13에서와 같이, 전자 장치(101)의 프로세서(120)는, 압축 해제 모듈(602), 압축 모듈(604), 또는 변환 모듈(1301)을 포함할 수 있다. 다양한 실시예에 따른 전자 장치(101)는, 이미지 처리 프로그램을 수행하기 위한 ISP를 포함하지 않을 수 있다. 1203 동작에서, 전자 장치(101)는 제 1 이미지를 서버(108)로 송신할 수 있다.
다양한 실시예에 따라서, 전자 장치(101)는, 1205 동작에서, 제 1 이미지의 형식을 변환할 수 있다. 예를 들어, 전자 장치(101)는, 원시 이미지의 형식을 보정된 이미지인 형식인 YUV 형식으로 변환할 수 있다. 전자 장치(101)는, 보정을 위한 이미지 처리를 수행하지 않고, 원시 이미지의 형식만을 보정 파일의 형식으로 변환할 수 있다. 이는, 추후 합산 연산을 수행하는 과정에서, 이미지의 형식을 통일시키기 위한 것일 수 있다. 예를 들어, 도 13에서와 같이, 변환 모듈(1301)은 원시 이미지인 제 1 이미지의 형식을 변환하여 변환된 이미지(R')를 생성할 수 있다. 1207 동작에서, 서버(108)는, 수신한 제 1 이미지의 형식을 변환하여 변환된 이미지를 생성하고, 제 1 이미지에 적어도 기반하여 제 1 보정 이미지를 생성할 수 있다. 예를 들어, 도 13에서와 같이, 서버(108)는 전자 장치(101)의 변환 모듈(1301)과 동일한 변환 모듈(1302)을 포함할 수 있으며, 변환 모듈(1302)은 수신된 제 1 이미지의 형식을 변환하여 변환된 이미지(R')를 생성할 수 있다. 서버(108)의 ISP(611)는 제 1 보정 이미지(A)를 생성할 수 있다. 1209 동작에서, 전자 장치(101)는, 변환된 이미지 및 제 1 보정 이미지의 차분 이미지를 생성할 수 있다. 예를 들어, 서버(108)는, 도 13에서와 같이, 제 1 보정 이미지(A)로부터 변환된 이미지(R')을 빼는 연산(613)을 수행할 수 있으며, 이에 따라 차분 이미지(A-R')를 생성할 수 있다. 1211 동작에서, 서버(108)는 차분 이미지 정보를 전자 장치(101)로 송신할 수 있다. 예를 들어, 도 13에서와 같이, 서버(108)는, 차분 이미지(A-R')를 압축 모듈(614)을 이용하여 압축하고, 압축된 차분 이미지, 즉 차분 이미지 정보를 전자 장치(101)로 송신할 수 있다. 1213 동작에서, 전자 장치(101)는, 변환된 이미지 및 차분 이미지 정보에 적어도 기반하여, 제 2 보정 이미지를 생성할 수 있다. 예를 들어, 전자 장치(101)는, 수신한 압축된 차분 이미지를 압축 해제 모듈(602)을 이용하여 압축 해제할 수 있으며, 이에 따라 차분 이미지(A-R')를 획득할 수 있다. 전자 장치(101)는, 변환된 이미지(R')와 차분 이미지(A-R')를 합산하는 연산(603)을 수행할 수 있으며, 이에 따라 제 2 보정 이미지를 생성할 수 있다. 제 2 보정 이미지는, 제 1 보정 이미지와 실질적으로 동일할 수 있다. 예를 들어, 변환된 이미지(R')의 (i.j) 픽셀의 픽셀 값이 R'(i.j)이며, 제 1 보정 이미지(A)의 (i.j) 픽셀의 픽셀 값이 d(i,j)인 경우에, 차분 이미지의 (i.j) 픽셀의 픽셀 값은 d( i,j )- R'(i.j)일 수 있다. 이 경우, 합산 연산(603)에 의하여 생성된 제 2 보정 이미지의 (i.j) 픽셀의 픽셀 값은 R'( i.j)+ (d( i,j )- R'( i.j)) = d(i,j)일 수 있다. 이에 따라, 제 2 보정 이미지는, 제 1 보정 이미지와 실질적으로 동일할 수 있다. 전자 장치(101)는, 예를 들어 압축 모듈(604)을 통하여 제 2 보정 이미지를 JPEG 형식 등으로 압축하여 메모리(예: DRAM(620)의 저장소(621))에 저장할 수 있다. 상술한 바와 같이, 다양한 실시예에 따른 전자 장치(101)는 ISP를 포함하지 않고 단순히 형식을 변환할 수 있는 변환 모듈(1301)만을 포함하여도, 서버(108)에서 처리한 것과 같은 보정 이미지를 획득할 수 있다.
도 14는 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다. 도 14의 실시예는 도 15를 참조하여 더욱 상세하게 설명하도록 한다. 도 15는 다양한 실시예에 따른 전자 장치 및 서버의 블록도를 도시한다.
다양한 실시예에 따라서, 전자 장치(101)는, 1401 동작에서, 카메라 모듈(180)을 이용하여 외부 객체에 대응하는 제 1 이미지, 즉 원시 이미지를 획득할 수 있다. 1403 동작에서, 전자 장치(101)는, 제 1 이미지에 적어도 기반하여 제 1 보정 이미지를 생성할 수 있다. 1405 동작에서, 전자 장치(101)는, 제 1 보정 이미지를 송신할 수 있다. 1407 동작에서, 전자 장치(101)는, 제 1 이미지를 송신할 수 있다. 전자 장치(101)가 제 1 보정 이미지 및 제 1 이미지를 송신하는 순서에는 제한이 없으며, 예를 들어 제 1 이미지를 먼저 서버(108)로 송신하고, 이후에 제 1 보정 이미지를 송신할 수도 있다. 예를 들어, 도 15에서와 같이, 전자 장치(101)의 제 1 ISP(601)는, 제 1 이미지 처리 방식을 제 1 이미지에 적용함으로써 제 1 보정 이미지(B)를 생성할 수 있다. 전자 장치(101)는, 예를 들어 통신 모듈(190)을 통하여, 제 1 보정 이미지(B)를 서버(108)로 송신할 수 있다. 전자 장치(101)는, 카메라 모듈(108)로부터 획득된 제 1 이미지를, 예를 들어 통신 모듈(190)을 통하여, 서버(108)로 송신할 수 있다. 제 1 보정 이미지(B)는 VRAM(1501)에 일시적 또는 비일시적으로 저장될 수 있으며, 디스플레이 상에 프리뷰 화면으로서 표시될 수도 있다.
다양한 실시예에 따라서, 서버(108)는, 1409 동작에서, 제 1 이미지에 적어도 기반하여 제 2 보정 이미지를 생성할 수 있다. 1411 동작에서, 서버(108)는, 제 2 보정 이미지 및 제 1 보정 이미지의 차분 이미지를 생성할 수 있다. 예를 들어, 도 15에서와 같이, 서버(108)의 제 2 ISP(611)는, 제 1 이미지 처리 방식과 상이한 제 2 이미지 처리 방식을 수신한 제 1 이미지, 즉 원시 이미지에 적용함으로써, 제 2 보정 이미지(A)를 생성할 수 있다. 서버(108)는, 생성한 제 2 보정 이미지(A)로부터 수신한 제 1 보정 이미지(B)를 빼는 연산(613)을 수행함으로써, 차분 이미지(A-B)를 생성할 수 있다. 서버(108)는, 압축 모듈(614)을 이용하여, 차분 이미지(A-B)를 압축하여, 압축된 차분 이미지, 즉 차분 이미지 정보를 생성할 수 있다. 1413 동작에서, 서버(108)는, 차분 이미지 정보를 전자 장치(101)로 송신할 수 있다.
1415 동작에서, 전자 장치(101)는, 제 1 보정 이미지 및 차분 정보에 적어도 기반하여, 제 3 보정 이미지를 생성할 수 있다. 예를 들어, 도 15에서와 같이, 전자 장치(101)의 압축 해제 모듈(602)은, 서버(108)로부터 수신한 차분 이미지 정보, 즉 압축된 차분 이미지를 압축 해제하여, 차분 이미지(A-B)를 생성할 수 있다. 전자 장치(101)는, 제 1 보정 이미지(B) 및 차분 이미지(A-B)를 합산하는 연산(603)을 수행함으로써, 제 3 보정 이미지(C)를 생성할 수 있다. 제 3 보정 이미지(C)는 제 2 보정 이미지(A)와 실질적으로 동일할 수 있다. 전자 장치(101)는, 압축 모듈(604)을 이용하여, 제 3 보정 이미지(C)를 예를 들어 JPEG 형식에 따라 압축할 수 있다. 전자 장치(101)는, 메모리(130)(예: DRAM(602))의 저장소(621)에 이미지 파일을 저장할 수 있다.
도 16은 다양한 실시예에 따른 전자 장치 및 서버의 동작 방법을 설명하기 위한 흐름도를 도시한다. 도 16의 실시예는 도 17을 참조하여 더욱 상세하게 설명하도록 한다. 도 17은 다양한 실시예에 따른 전자 장치 및 서버의 블록도를 도시한다.
다양한 실시예에 따라서, 전자 장치(101)는, 1601 동작에서, 카메라 모듈(180)을 이용하여 외부 객체에 대응하는 제 1 이미지, 즉 원시 이미지를 획득할 수 있다. 1603 동작에서, 전자 장치(101)는, 제 1 이미지를 서버(108)로 송신할 수 있다. 1605 동작에서, 전자 장치(101)는, 제 1 이미지에 적어도 기반하여 제 1 보정 이미지를 생성할 수 있다. 예를 들어, 도 17에서와 같이, 전자 장치(101)의 제 1 ISP(601)는 제 1 이미지에 제 1 이미지 처리 방식을 적용하여 제 1 보정 이미지(C)를 생성할 수 있다. 1607 동작에서, 서버(108)는 제 1 이미지에 적어도 기반하여 제 1 보정 이미지를 생성하고, 제 1 이미지에 적어도 기반하여 제 2 보정 이미지를 생성할 수 있다. 예를 들어, 도 17에서와 같이, 서버(108)의 제 1 ISP(612)는, 제 1 이미지에 제 1 이미지 처리 방식을 적용하여 제 2 보정 이미지(B)를 생성할 수 있다. 서버(108)의 제 2 ISP(611)는, 제 1 이미지에 제 2 이미지 처리 방식을 적용하여 제 3 보정 이미지(A)를 생성할 수 있다. 도 17에서의 제 1 보정 이미지(C)와 제 2 보정 이미지(B)는 실질적으로 동일할 수 있다.
다양한 실시예에 따라서, 전자 장치(101)는, 1609 동작에서, 제 1 보정 이미지를 HEVC(high efficiency video coding) 인코딩하여 저장할 수 있다. 예를 들어, 도 17에서와 같이, 전자 장치(101)의 HEVC 인코더(1721)는, HEVC 인코딩 방식에서 지정된 제 1 인코딩 방식을 제 1 이미지에 적용함으로써, 제 1 인코딩된 이미지(C')를 생성할 수 있다. 제 1 인코딩 방식은, 인코딩을 위하여 다른 프레임 이미지를 요구하지 않는 인코딩 방식(예: I-프레임 이미지 생성을 위한 인코딩 방식)을 제 1 이미지에 적용할 수 있다. 전자 장치(101)는, 제 1 보정 이미지(C')를 메모리(130)(예: DRAM(620)의 인코딩 이미지 저장소(1701))에 저장할 수 있다. 1611 동작에서, 서버(108)는, 제 1 보정 이미지 및 제 2 보정 이미지를 HEVC 인코딩할 수 있다. 예를 들어, 도 17에서와 같이, 서버(108)의 HEVCE 인코더(1711)는 제 1 보정 이미지(B) 및 제 2 보정 이미지(A)에 대하여 HEVC 인코딩 방식을 적용할 수 있다. 서버(108)는, 제 2 보정 이미지(B)에 HEVC 인코딩 방식에서 지정된 제 1 인코딩 방식을 적용함으로써 제 2 인코딩된 이미지(B')을 생성할 수 있다. 서버(108)는, 제 3 보정 이미지(A)에 대하여 HEVC 인코딩 방식에서 지정된 제 2 인코딩 방식을 적용함으로써 제 3 인코딩된 이미지(A')을 생성할 수 있다. 예를 들어, 제 2 인코딩 방식은, 인코딩 과정에서 다른 프레임 이미지를 요구하는 인코딩 방식(예: P 프레임 이미지 생성을 위한 인코딩 방식)일 수 있다. 서버(108)는, 제 2 보정 이미지(B)를 참조하여, 제 3 보정 이미지(A)를 인코딩할 수 있다. 다른 프레임 이미지를 요구하는 제 2 인코딩 방식에 의하여 생성된 제 3 인코딩된 이미지(A')의 크기는 상대적으로 작을 수 있다. 제 3 인코딩된 이미지(A')는, 제 2 보정 이미지(B) 및 제 3 보정 이미지(A) 사이의 차이에 적어도 기반하여 생성될 수 있으므로, 제 3 인코딩된 이미지(A')는, 차분 이미지 정보의 예시일 수 있다. 인코딩된 이미지는, HEVC(high efficiency video compression) 등의 다양한 형식에 따라 저장될 수도 있으며, 동영상을 인코딩하는 방식이라면 본 실시예에 이용될 수 있음을 당업자는 이해할 것이다.
다양한 실시예에 따라서, 서버(108)는, 1613 동작에서, 인코딩된 데이터를 송신할 수 있다. 1615 동작에서, 전자 장치(101)는, 저장된 인코딩된 제 1 보정 이미지 및 수신된 인코딩된 데이터를 이용하여, 제 4 보정 이미지를 생성할 수 있다. 예를 들어, 서버(108)는, 도 17에서와 같이, 제 3 인코딩된 이미지(A')를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)의 HEVC 디코더(1722)는, 인코딩 이미지 저장소(1701)로부터 제 1 인코딩된 이미지(C')를 수신하고, 서버(108)로부터 제 3 인코딩된 이미지(A')를 수신할 수 있다. HEVC 디코더(1722)는, 제 1 인코딩된 이미지(C')를 독립적으로 디코딩하고, 디코딩된 제 1 이미지(C)를 참조하여 제 3 인코딩된 이미지(A')를 디코딩하여 제 4 이미지(D)를 생성할 수 있다. 제 4 보정된 이미지(D)는 제 3 보정된 이미지(A)와 실질적으로 동일할 수 있다. 전자 장치(101)는, 제 4 보정된 이미지(D)를 메모리(130)(예: DRAM(620))의 이미지 저장소(621)에 저장할 수 있다.
도 18은 다양한 실시예에 따른 전자 장치 및 서버의 동작을 설명하기 위한 도면이다.
전자 장치(101)는, 이미지 센서(230), ISP(260) 및 메모리(130)를 포함할 수 있다. 서버(108)는, 인식 모듈(1831), ISP(274) 및 메모리(280)를 포함할 수 있다. 인식 모듈(1831)(예: 엔진(272)의 적어도 일부)은 논리 모듈일 수도 있으며, 서버(108)의 프로세서로 구현될 수도 있다. ISP(274) 또한 서버(108)의 프로세서로 구현될 수 있으며, 예를 들어 서버(108)의 프로세서가 인식과 이미지 처리를 모두 수행할 수도 있다. 도시되지는 않았지만, 전자 장치(101)는 서버(108)와 데이터를 송수신할 수 있는 통신 모듈(190)을 포함할 수 있다. 서버(108)는 전자 장치(101)와 데이터를 송수신할 수 있는 통신 모듈(284)을 포함할 수 있다.
이미지 센서(230)는, 외부 객체에 대한 이미지를 획득할 수 있으며, 이에 대응하는 원시 이미지(1822)를 생성할 수 있다. 이미지 센서(230)는, 원시 이미지(1822)를 ISP(260)로 전달할 수 있다. 본 발명의 다양한 실시예에서, 이미지 센서(230)는 경량 이미지(1821)를 생성하여 이를 통신 모듈을 통하여 서버(108)로 송신할 수 있다. 또 다른 실시예에서는, 이미지 센서(230)가 아닌 전자 장치(101)의 프로세서가 경량 이미지(1821)를 생성할 수도 있으며, 생성된 경량 이미지(1821)를 통신 모듈을 통하여 서버(108)로 송신할 수 있다. 이미지 센서(230)는, 원시 이미지(1822)를 압축된 상태로 상기 ISP 또는 상기 서버(108)으로 송신할 수 있다. 이미지 센서(230)는, 원시 이미지(1822)의 일부 처리를 위해 압축하여 상기 이미지 센서(230)내부의 메모리에 저장할 수 잇다. 서버(108)의 인식 모듈(1831)은 통신 모듈을 통하여 경량 이미지(1821)를 획득할 수 있으며, 경량 이미지(1821)로부터 적어도 하나의 이미지 영역을 세그먼테이션할 수 있다. 인식 모듈(1821)은 세그먼테이션 결과로 구분된 적어도 하나의 이미지 영역 각각을 인식할 수 있다. 인식 모듈(1821)로부터 생성된 복수의 이미지 영역과 연관된 정보, 예를 들어 이미지 영역의 좌표 정보 또는 인식 결과 중 적어도 하나를 포함하는 보정 영역 정보(1832)가 생성될 수 있다. 예를 들어, 도 2d와 같은 보정 영역 정보(1832)는 전자 장치(101)로 송신될 수 있다. ISP(260)는 보정 영역 정보(1832)를 이용하여 원시 이미지(1822)를 보정할 수 있으며, 이에 따라 보정된 이미지(1824)가 생성될 수 있다. 보정된 이미지(1824)는, 예를 들어 YUV의 형식을 가질 수 있다. 보정된 이미지(1824)는 메모리(130)에 저장될 수 있다. 또는, 보정된 이미지(1824)는 예를 들어 JPEG 방식에 따라 압축될 수 있으며, 압축된 이미지가 메모리(130)에 저장될 수도 있다.
본 발명의 다양한 실시예에서, 이미지 센서(230)로부터 제공되는 원시 이미지(1822)는 경량 이미지(1821)와 별도로 서버(108)로 송신될 수 있다. 원시 이미지(1822)는, 경량 이미지(1821)에 비하여 용량이 크므로, 경량 이미지(1821)가 우선 서버(108)로 송신되며, 이후 원시 이미지(1822)가 서버(108)로 송신될 수 있다. 예를 들어, ISP(260)가 원시 이미지(1822)에 대한 보정을 수행하는 동안에 원시 이미지(1822)가 서버(108)로 송신될 수도 있다. 원시 이미지(1822)는, 이미지 센서(230)에 의하여 생성된 그대로 서버(108)로 업로드될 수도 있으며, 또는 렌즈 왜곡 보상 또는 노이즈 제거가 수행된 전처리 영상이 업로드될 수도 있다. 상술한 전처리는 서버(108)에서 수행될 수도 있다. 서버(108)는, Demosaic 처리 또는 이미지 포맷 변형, 또는 영상 인식률을 높이기 위한 전처리를 수행할 수도 있다. 서버(108)의 ISP(274)는, 수신된 원시 이미지(1822)를 보정할 수 있다. 서버(108)는 기존에 생성하였던 보정 영역 정보(1832)를 이용하여 원시 이미지(1822)를 보정할 수도 있으며, 또는 확장된 보정 영역 정보를 이용하여 원시 이미지(1822)를 보정할 수도 있다. 원시 이미지(1822)는, 경량 이미지(1821)에 비하여 해상도가 높을 수도 있으며, 이에 따라 서버(108)는 고해상도 이미지로부터 보다 상세한 확장된 보정 영역 정보를 획득할 수 있다. ISP(274)는, 기존에 생성된 보정 영역 정보와 원시 이미지(1822)를 함께 이용하여 확장된 보정 영역 정보를 생성할 수도 있다. ISP(274)는 확장된 보정 영역 정보를 이용하여 원시 이미지(1822)를 보정함으로써, 고해상도 이미지(high quality image)(1834)를 획득할 수 있다. 고해상도 이미지(1834)는 서버(108)의 메모리(280)에 저장될 수 있으며, 전자 장치(101)로 다운로드될 수도 있다. 또는, 서버(108)는, 상술한 바와 같이, 전자 장치(101)의 ISP(260)와 동일한 이미지 처리 방식을 원시 이미지(1822)에 적용함으로써 보정 이미지를 생성할 수도 있다. 서버(108)는, 고해상도 이미지(1834) 및 생성한 보정 이미지 사이의 차분 이미지에 대한 정보를 전자 장치(101)로 송신할 수도 있다. 전자 장치(101)는 수신한 차분 이미지 정보와 보정된 이미지(1824)를 이용하여, 고해상도 이미지(1834)를 생성할 수도 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(101))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예에 따라서, 명령들을 저장하고 있는 저장 매체가 제공될 수 있다. 상기 명령들은 적어도 하나의 회로에 의하여 실행될 때에 상기 적어도 하나의 회로로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 외부 객체에 대한 원시 이미지를 획득하는 동작, 상기 원시 이미지로부터 제 1 이미지 처리 방식을 통해 제 1 보정 이미지를 생성하는 동작, 외부 전자 장치가 상기 원시 이미지를 이용하여 상기 제 1 이미지 처리 방식을 통해 처리된 제 2 보정 이미지, 및 상기 원시 이미지를 이용하여 제 2 이미지 처리 방식을 통해 처리된 제 3 보정 이미지 간의 차이에 대응하는 차분 이미지 정보를 생성하도록, 상기 원시 이미지를 상기 외부 전자 장치로 전송하는 동작, 및 상기 제 3 보정 이미지에 대응하도록, 상기 차분 이미지 정보를 이용하여 상기 제 1 보정 이미지를 더 보정하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 상기 제 1 보정 이미지를 생성하는 동작은, 상기 원시 이미지의 적어도 하나의 영역에 대응하는 제 1 효과를 위한 상기 제 1 이미지 처리 방식을 통해 상기 제 1 보정 이미지를 생성할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 동작은, 상기 제 1 효과를 위한 상기 제 1 이미지 처리 방식을 통해 생성된 상기 제 2 보정 이미지 및 상기 원시 이미지의 적어도 하나의 영역에 대응하는 제 2 효과를 위한 상기 제 2 이미지 처리 방식을 통해 생성된 상기 제 3 보정 이미지 간의 차이에 기반하여 생성된 상기 차분 이미지 정보를 수신하는 동작을 더 포함할 수 있다. 상기 제 2 이미지 처리 방식이 요구하는 연산량은 상기 제 1 이미지 처리 방식이 요구하는 연산량보다 클 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 동작은, 상기 외부 전자 장치로부터, 상기 차분 이미지 정보를 무손실 압축하여 생성된 압축된 차분 이미지 정보를 수신하는 동작을 더 포함할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 동작은, 상기 수신된 상기 압축된 차분 이미지 정보를 상기 무손실 압축에 기반하여 압축 해제하여 상기 차분 이미지를 획득하는 동작을 더 포함할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 프로세서는, 상기 제 1 보정 이미지를 상기 더 보정하는 동작은, 상기 차분 이미지와 상기 제 1 보정 이미지를 합산하는 연산을 수행하여, 상기 제 3 보정 이미지에 대응하는 이미지를 생성할 수 있다.
다양한 실시예에 따라서, 상기 원시 이미지를 상기 외부 전자 장치로 전송하는 동작은, 상기 원시 이미지를 압축하여 압축된 원시 이미지를 생성하는 동작, 및 상기 외부 전자 장치로 상기 압축된 원시 이미지를 전송하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 동작은, 상기 압축된 원시 이미지를 압축 해제한 후 상기 제 1 이미지 처리 방식을 통해 처리된 상기 제 2 보정 이미지 및 상기 압축된 원시 이미지를 압축 해제한 후 상기 제 2 이미지 처리 방식을 통해 처리된 상기 제 3 보정 이미지 간의 차이에 기반하여 생성된 상기 차분 이미지 정보를 수신하는 동작을 더 포함할 수 있다.
다양한 실시예에 따라서, 상기 원시 이미지를 상기 외부 전자 장치로 전송하는 동작은, 상기 전자 장치, 상기 적어도 하나의 프로세서와 관련된 정보의 적어도 일부, 또는 상기 전자 장치에 저장된 상기 제 1 이미지 처리 방식 중 적어도 하나를 식별할 수 있는 적어도 하나의 식별 정보를 상기 외부 전자 장치로 전송할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 동작은, 상기 적어도 하나의 식별 정보에 적어도 기반하여 선택된 상기 제 1 이미지 처리 방식을 통해 처리된 상기 제 2 보정 이미지 및 상기 제 3 보정 이미지 간의 차이에 기반하여 생성된 상기 차분 이미지 정보를 수신하는 동작을 더 포함할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 식별 정보는, 상기 원시 이미지의 메타데이터에 포함되거나, 또는 상기 원시 이미지에 대한 데이터로부터 독립적으로 설정될 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 동작은, HEVC(high efficiency video coding) 인코딩 방식 중 다른 프레임 이미지를 요구하지 않는 제 1 인코딩 방식으로 상기 제 1 보정 이미지를 인코딩함으로써, 제 1 인코딩 이미지를 생성하는 동작을 더 포함할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 동작은, 상기 외부 전자 장치로부터, 상기 HEVC 인코딩 방식 중 다른 프레임 이미지를 요구하는 제 2 인코딩 방식을 통하여, 상기 제 3 보정 이미지를 상기 제 2 보정 이미지를 참조하여 인코딩한 제 2 인코딩 이미지를 수신하는 동작을 더 포함할 수 있다.
다양한 실시예에 따라서, 상기 제 1 보정 이미지를 더 보정하는 동작은, 상기 제 1 인코딩 이미지 및 상기 제 2 인코딩 이미지에 대하여 디코딩을 수행함으로써, 상기 제 2 인코딩 이미지에 대한 디코딩 결과인 상기 제 3 보정 이미지에 대응하는 이미지를 생성할 수 있다.
다양한 실시예에 따라서, 명령들을 저장하고 있는 저장 매체가 제공될 수 있다. 상기 명령들은 적어도 하나의 회로에 의하여 실행될 때에 상기 적어도 하나의 회로로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 외부 전자 장치가 획득한 원시 이미지를 수신하는 동작, 상기 원시 이미지를 상기 외부 전자 장치에 대응하여 지정된 제 1 이미지 처리 방식을 통해 처리한 제 1 보정 이미지 및, 상기 원시 이미지를 상기 전자 장치에 대응하여 지정된 제 2 이미지 처리 방식을 통해 처리한 제 2 보정 이미지 간의 차이에 대응하는 차분 이미지 정보를 생성하는 동작, 및 상기 차분 이미지 정보를 상기 외부 전자 장치로 송신하는 동작을 포함할 수 있다.
다양한 실시예에 따라서, 상기 차분 이미지 정보를 생성하는 동작은, 상기 차분 이미지 정보를 무손실 압축하여 생성된 압축된 차분 이미지 정보를 생성할 수 있다.
다양한 실시예에 따라서, 상기 원시 이미지를 수신하는 동작은, 상기 전자 장치, 상기 적어도 하나의 프로세서와 관련된 정보의 적어도 일부, 또는 상기 전자 장치에 저장된 상기 제 1 이미지 처리 방식 중 적어도 하나를 식별할 수 있는 적어도 하나의 식별 정보를 수신하고, 상기 차분 이미지 정보를 생성하는 동작은, 상기 적어도 하나의 식별 정보에 적어도 기반하여 선택된 상기 제 1 이미지 처리 방식을 통해 처리된 상기 제 1 보정 이미지 및 상기 제 2 보정 이미지 간의 차이에 기반하여 생성된 상기 차분 이미지 정보를 생성할 수 있다.
다양한 실시예에 따라서, 상기 적어도 하나의 식별 정보는, 상기 원시 이미지의 메타데이터에 포함되거나, 또는 상기 원시 이미지에 대한 데이터로부터 독립적으로 설정될 수 있다.
다양한 실시예에 따라서, 상기 프로세서는, 상기 차분 이미지 정보를 생성하는 동작은, HEVC(high efficiency video coding) 인코딩 방식 중 다른 프레임 이미지를 요구하는 제 2 인코딩 방식을 통하여, 상기 제 2 보정 이미지를 상기 제 1 보정 이미지를 참조하여 인코딩한 인코딩 이미지를 생성할 수 있으며, 상기 차분 이미지 정보를 전송하는 동작은, 상기 인코딩 이미지를, 상기 외부 전자 장치로 송신할 수 있다.
다양한 실시예에 따라서, 명령들을 저장하고 있는 저장 매체가 제공될 수 있다. 상기 명령들은 적어도 하나의 회로에 의하여 실행될 때에 상기 적어도 하나의 회로로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 외부 객체에 대한 원시 이미지를 획득하는 동작, 상기 원시 이미지의 형식을 지정된 형식으로 변환하여 제 1 변환 이미지를 생성하는 동작, 외부 전자 장치로 상기 원시 이미지를 전송하는 동작, 상기 외부 전자 장치로부터, 상기 원시 이미지의 형식을 상기 지정된 형식으로 변환하여 생성된 제 2 변환 이미지 및 상기 원시 이미지에 상기 외부 전자 장치에 저장된 이미지 처리 방식을 적용하여 생성된 제 1 보정 이미지 간의 차이에 기반하여 생성된 차분 이미지 정보를 수신하는 동작, 및 상기 수신된 상기 차분 이미지 정보 및 상기 제 1 변환 이미지를 이용하여, 제 1 보정 이미지에 대응하는 제 2 보정 이미지를 생성하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    카메라;
    통신 모듈; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 카메라를 이용하여, 외부 객체에 대한 원시 이미지를 획득하고,
    상기 원시 이미지로부터 제 1 이미지 처리 방식을 통해 제 1 보정 이미지를 생성하고,
    상기 통신 모듈을 통해 상기 원시 이미지 및, 상기 전자 장치 또는 상기 적어도 하나의 프로세서 중 적어도 하나를 식별하는 적어도 하나의 식별 정보를 외부 전자 장치로 전송하고,
    상기 통신 모듈을 통해 상기 외부 전자 장치로부터 차분 이미지 정보를 수신하고, 상기 차분 이미지 정보는 상기 외부 전자 장치가 상기 원시 이미지를 이용하여 상기 적어도 하나의 식별 정보에 적어도 기반하여 선택된 상기 제 1 이미지 처리 방식을 통해 처리된 제 2 보정 이미지, 및 상기 외부 전자 장치가 상기 원시 이미지를 이용하여 보정 영역 정보를 기반으로 상기 원시 이미지에 포함된 복수의 영역에 다른 효과를 적용하는 제 2 이미지 처리 방식을 통해 처리된 제 3 보정 이미지 간의 차이에 대응하고, 상기 보정 영역 정보는 상기 복수의 영역에 대응하는 오브젝트 인식 결과를 기반으로 인식된, 및
    상기 제 3 보정 이미지에 대응하도록, 상기 차분 이미지 정보를 이용하여 상기 제 1 보정 이미지를 더 보정하도록 설정된 전자 장치.
  2. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 제 1 보정 이미지를 생성하는 과정의 적어도 일부로,
    상기 원시 이미지의 적어도 하나의 영역에 대응하는 제 1 효과를 위한 상기 제 1 이미지 처리 방식을 통해 상기 제 1 보정 이미지를 생성하도록 설정된 전자 장치.
  3. 제 2 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제 1 효과를 위한 상기 제 1 이미지 처리 방식을 통해 처리된 상기 제 2 보정 이미지 및 상기 원시 이미지의 적어도 하나의 영역에 대응하는 제 2 효과를 위한 상기 제 2 이미지 처리 방식을 통해 처리된 상기 제 3 보정 이미지 간의 차이에 기반하여 생성된 상기 차분 이미지 정보를 수신하도록 설정되고,
    상기 제 2 이미지 처리 방식이 요구하는 연산량은 상기 제 1 이미지 처리 방식이 요구하는 연산량보다 큰 전자 장치.
  4. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 외부 전자 장치로부터, 상기 차분 이미지 정보를 무손실 압축하여 생성된 압축된 차분 이미지 정보를 수신하도록 설정된 전자 장치.
  5. 제 4 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 수신된 상기 압축된 차분 이미지 정보를 상기 무손실 압축에 기반하여 압축 해제하여 상기 차분 이미지를 획득하도록 설정된 전자 장치.
  6. 제 5 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 제 1 보정 이미지를 상기 더 보정하는 과정의 적어도 일부로,
    상기 차분 이미지와 상기 제 1 보정 이미지를 합산하는 연산을 수행하여, 상기 제 3 보정 이미지에 대응하는 이미지를 생성하도록 설정된 전자 장치.
  7. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 통신 모듈을 통해 상기 원시 이미지를 상기 외부 전자 장치로 전송하는 과정의 적어도 일부로,
    상기 원시 이미지를 압축하여 압축된 원시 이미지를 생성하고, 및
    상기 통신 모듈을 이용하여, 상기 외부 전자 장치로 상기 압축된 원시 이미지를 전송하도록 설정되는 전자 장치.
  8. 제 7 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 압축된 원시 이미지를 압축 해제한 후 상기 제 1 이미지 처리 방식을 통해 처리된 상기 제 2 보정 이미지 및 상기 압축된 원시 이미지를 압축 해제한 후 상기 제 2 이미지 처리 방식을 통해 처리된 상기 제 3 보정 이미지 간의 차이에 기반하여 생성된 상기 차분 이미지 정보를 수신하도록 설정된 전자 장치.
  9. 삭제
  10. 삭제
  11. 제 1 항에 있어서,
    상기 적어도 하나의 식별 정보는, 상기 원시 이미지의 메타데이터에 포함되거나, 또는 상기 원시 이미지에 대한 데이터로부터 독립적으로 설정된 전자 장치.
  12. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는,
    HEVC(high efficiency video coding) 인코딩 방식 중 다른 프레임 이미지를 요구하지 않는 제 1 인코딩 방식으로 상기 제 1 보정 이미지를 인코딩함으로써, 제 1 인코딩 이미지를 생성하도록 설정되는 전자 장치.
  13. 제 12 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 통신 모듈을 통하여, 상기 외부 전자 장치로부터, 상기 HEVC 인코딩 방식 중 다른 프레임 이미지를 요구하는 제 2 인코딩 방식을 통하여, 상기 제 3 보정 이미지를 상기 제 2 보정 이미지를 참조하여 인코딩한 제 2 인코딩 이미지를 수신하도록 설정되는 전자 장치.
  14. 제 13 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 제 1 보정 이미지를 더 보정하는 과정의 적어도 일부로,
    상기 제 1 인코딩 이미지 및 상기 제 2 인코딩 이미지에 대하여 디코딩을 수행함으로써, 상기 제 2 인코딩 이미지에 대한 디코딩 결과인 상기 제 3 보정 이미지에 대응하는 이미지를 생성하도록 설정되는 전자 장치.
  15. 전자 장치에 있어서,
    통신 모듈; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 통신 모듈을 통하여, 외부 전자 장치가 획득한 원시 이미지 및, 상기 외부 전자 장치 또는 상기 외부 전자 장치의 적어도 하나의 프로세서 중 적어도 하나와 관련된 정보 중 적어도 하나를 식별하는 적어도 하나의 식별 정보를 수신하고,
    상기 원시 이미지를 상기 적어도 하나의 식별 정보에 적어도 기반하여 선택된 제 1 이미지 처리 방식을 통해 처리한 제 1 보정 이미지 및, 상기 원시 이미지를 이용하여 보정 영역 정보를 기반으로 상기 원시 이미지에 포함된 복수의 영역에 다른 효과를 적용하는 제 2 이미지 처리 방식을 통해 처리한 제 2 보정 이미지 간의 차이에 대응하는 차분 이미지 정보를 생성하고, 상기 보정 영역 정보는 상기 복수의 영역에 대응하는 오브젝트 인식 결과를 기반으로 인식된, 및
    상기 통신 모듈을 통하여, 상기 차분 이미지 정보를 상기 외부 전자 장치로 송신하도록 설정된 전자 장치.
  16. 제 15 항에 있어서,
    상기 프로세서는, 상기 차분 이미지 정보를 생성하는 과정의 적어도 일부로, 상기 차분 이미지 정보를 무손실 압축하여 생성된 압축된 차분 이미지 정보를 생성하도록 설정된 전자 장치.
  17. 삭제
  18. 제 15 항에 있어서,
    상기 적어도 하나의 식별 정보는, 상기 원시 이미지의 메타데이터에 포함되거나, 또는 상기 원시 이미지에 대한 데이터로부터 독립적으로 설정된 전자 장치.
  19. 제 15 항에 있어서,
    상기 프로세서는, 상기 차분 이미지 정보를 생성하는 과정의 적어도 일부로, HEVC(high efficiency video coding) 인코딩 방식 중 다른 프레임 이미지를 요구하는 제 2 인코딩 방식을 통하여, 상기 제 2 보정 이미지를 상기 제 1 보정 이미지를 참조하여 인코딩한 인코딩 이미지를 생성하고,
    상기 차분 이미지 정보를 상기 외부 전자 장치로 송신하는 과정의 적어도 일부로, 상기 통신 모듈을 통하여, 상기 인코딩 이미지를, 상기 외부 전자 장치로 송신하도록 설정된 전자 장치.
  20. 전자 장치에 있어서,
    카메라;
    통신 모듈; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 카메라를 이용하여, 외부 객체에 대한 원시 이미지를 획득하고,
    상기 원시 이미지의 형식을 지정된 형식으로 변환하여 제 1 변환 이미지를 생성하고,
    상기 통신 모듈을 이용하여, 외부 전자 장치로 상기 원시 이미지 및, 상기 전자 장치 또는 상기 적어도 하나의 프로세서 중 적어도 하나를 식별하는 적어도 하나의 식별 정보를 전송하고,
    상기 통신 모듈을 이용하여, 상기 외부 전자 장치로부터, 상기 원시 이미지의 형식을 상기 적어도 하나의 식별 정보에 적어도 기반하여 선택된 상기 지정된 형식으로 변환하여 생성된 제 2 변환 이미지 및 상기 원시 이미지에 보정 영역 정보를 기반으로 상기 원시 이미지에 포함된 복수의 영역에 다른 효과를 적용하는 상기 외부 전자 장치에 저장된 이미지 처리 방식을 적용하여 생성된 제 1 보정 이미지 간의 차이에 기반하여 생성된 차분 이미지 정보를 수신하고, 상기 보정 영역 정보는 상기 복수의 영역에 대응하는 오브젝트 인식 결과를 기반으로 인식된, 및
    상기 수신된 상기 차분 이미지 정보 및 상기 제 1 변환 이미지를 이용하여, 제 1 보정 이미지에 대응하는 제 2 보정 이미지를 생성하도록 설정된 전자 장치.
KR1020170129143A 2017-10-10 2017-10-10 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치 KR102495753B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020170129143A KR102495753B1 (ko) 2017-10-10 2017-10-10 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치
PCT/KR2018/011835 WO2019074252A1 (en) 2017-10-10 2018-10-08 METHOD AND ELECTRONIC DEVICE FOR PROCESSING A CAMERA-ACQUIRED RAW IMAGE USING AN EXTERNAL ELECTRONIC DEVICE
US16/155,019 US10812830B2 (en) 2017-10-10 2018-10-09 Method and electronic device for processing raw image acquired through camera by using external electronic device
CN201811178408.2A CN109658338A (zh) 2017-10-10 2018-10-10 使用外部电子装置处理原始图像的方法和电子装置
EP18199656.2A EP3471395B1 (en) 2017-10-10 2018-10-10 Method and electronic device for processing raw image acquired through camera by using external electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170129143A KR102495753B1 (ko) 2017-10-10 2017-10-10 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치

Publications (2)

Publication Number Publication Date
KR20190040416A KR20190040416A (ko) 2019-04-18
KR102495753B1 true KR102495753B1 (ko) 2023-02-03

Family

ID=65992762

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170129143A KR102495753B1 (ko) 2017-10-10 2017-10-10 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치

Country Status (5)

Country Link
US (1) US10812830B2 (ko)
EP (1) EP3471395B1 (ko)
KR (1) KR102495753B1 (ko)
CN (1) CN109658338A (ko)
WO (1) WO2019074252A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102592061B1 (ko) 2018-02-14 2023-10-23 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 처리 방법
KR102499399B1 (ko) 2018-03-20 2023-02-14 삼성전자주식회사 Isp 업데이트를 알리는 전자 장치 및 그 동작 방법
KR102553150B1 (ko) 2018-03-23 2023-07-10 삼성전자주식회사 외부 전자 장치와 이미지를 처리하는 전자 장치 및 그 동작 방법
KR102609734B1 (ko) 2018-07-20 2023-12-05 삼성전자 주식회사 전자 장치 및 이미지의 전송 상태에 기반하여 이미지를 보정하는 방법
JP7403279B2 (ja) * 2019-10-31 2023-12-22 キヤノン株式会社 画像処理装置および画像処理方法
KR20210083840A (ko) * 2019-12-27 2021-07-07 삼성전자주식회사 다이나믹 톤 메타데이터를 포함하는 영상의 편집을 위한 전자 장치 및 그의 동작 방법
CN111242087A (zh) * 2020-01-21 2020-06-05 华为技术有限公司 物体识别方法及装置
CN111491152B (zh) * 2020-04-10 2022-01-21 中国联合网络通信集团有限公司 全息投影装置和方法
JP2022002376A (ja) 2020-06-22 2022-01-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
EP3975129A1 (en) * 2020-09-25 2022-03-30 Medit Corp. Image processing method providing a reliability representation mode and apparatus using the same
CN114697723B (zh) * 2020-12-28 2024-01-16 北京小米移动软件有限公司 一种视频生成方法、装置及介质
CN114760480A (zh) * 2021-01-08 2022-07-15 华为技术有限公司 图像处理方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215001A (ja) * 2006-02-10 2007-08-23 Canon Inc 画像処理装置、画像処理システム及び画像処理方法
US20150365644A1 (en) * 2014-06-16 2015-12-17 Canon Kabushiki Kaisha Image capturing apparatus and method for controlling the same

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040093432A1 (en) 2002-11-07 2004-05-13 Eastman Kodak Company Method and system for conducting image processing from a mobile client device
US20110034209A1 (en) 2007-06-18 2011-02-10 Boris Rubinsky Wireless technology as a data conduit in three-dimensional ultrasonogray
US8717459B2 (en) * 2008-12-11 2014-05-06 Texas Instruments Incorporated Method and apparatus for improving automatic white balance with scene information
CN102696054B (zh) * 2010-11-10 2016-08-03 松下知识产权经营株式会社 进深信息生成装置、进深信息生成方法及立体图像变换装置
JP6282853B2 (ja) * 2012-11-30 2018-02-21 キヤノンメディカルシステムズ株式会社 画像処理装置及び画像処理方法
US9225979B1 (en) * 2013-01-30 2015-12-29 Google Inc. Remote access encoding
US9936200B2 (en) * 2013-04-12 2018-04-03 Qualcomm Incorporated Rice parameter update for coefficient level coding in video coding process
KR102173107B1 (ko) * 2013-12-11 2020-11-02 삼성전자주식회사 클라우드 서버 기반 영상 처리 방법, 단말 및 시스템
KR102228457B1 (ko) * 2014-01-09 2021-03-16 삼성전자주식회사 단말과 서버간의 정보 동기화 방법 및 시스템
US9311735B1 (en) * 2014-11-21 2016-04-12 Adobe Systems Incorporated Cloud based content aware fill for images
JP6549898B2 (ja) * 2015-05-20 2019-07-24 株式会社日立製作所 物体検出システム、物体検出方法、poi情報作成システム、警告システム、及び誘導システム
US10063861B2 (en) * 2015-10-07 2018-08-28 Qualcomm Incorporated Methods and systems of performing predictive random access using a background picture
US20170109912A1 (en) * 2015-10-15 2017-04-20 Motorola Mobility Llc Creating a composite image from multi-frame raw image data
KR102482067B1 (ko) * 2015-11-27 2022-12-28 삼성전자주식회사 전자 장치 및 그의 동작 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215001A (ja) * 2006-02-10 2007-08-23 Canon Inc 画像処理装置、画像処理システム及び画像処理方法
US20150365644A1 (en) * 2014-06-16 2015-12-17 Canon Kabushiki Kaisha Image capturing apparatus and method for controlling the same

Also Published As

Publication number Publication date
EP3471395B1 (en) 2022-12-07
US20190110077A1 (en) 2019-04-11
EP3471395A2 (en) 2019-04-17
EP3471395A3 (en) 2019-06-26
WO2019074252A1 (en) 2019-04-18
KR20190040416A (ko) 2019-04-18
US10812830B2 (en) 2020-10-20
CN109658338A (zh) 2019-04-19

Similar Documents

Publication Publication Date Title
KR102495753B1 (ko) 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치
KR102386385B1 (ko) 전자 장치 및 전자 장치의 이미지 압축 방법
KR102495763B1 (ko) 제1 이미지 처리 방식으로 보정된 이미지를 제2 이미지 처리 방식을 이용하여 외부 전자 장치에서 보정하기 위한 전자 장치 및 방법
US10867372B2 (en) Electronic device and method for correcting images based on image feature information and image correction scheme
US11393078B2 (en) Electronic device and method for correcting image on basis of image transmission state
US11425300B2 (en) Electronic device and method for processing image by electronic device
US10970587B2 (en) Electronic device for notifying of update of image signal processing and method for operating the same
US11330227B2 (en) Electronic device for compressing image acquired by using camera, and operation method therefor
KR20190094044A (ko) 이미지 센서를 이용한 이미지 획득 과정에서 생성된 압축 속성을 이용하여 이미지를 압축하는 전자 장치 및 그 동작 방법
KR102499286B1 (ko) 이미지가 분할된 복수의 블록들의 압축과 관련된 압축 손실 데이터에 기반하여 이미지를 압축하는 전자 장치 및 그 동작 방법
KR102482860B1 (ko) 상황 정보 기반 이미지 처리 방법 및 이를 사용하는 전자 장치
US11477443B2 (en) Electronic device for performing image compression and operating method of electronic device
US11380096B2 (en) Electronic device for performing image processing and method thereof
US11451699B2 (en) Device for correcting and compressing image error data, and method related thereto
CN111937030A (zh) 与外部电子设备一起处理图像的电子设备及其操作方法
KR20190108833A (ko) 카메라를 이용하여 획득한 이미지에 대한 복원 정보를 이용하여 압축 처리하는 전자 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant