KR20170011876A - 영상 처리 장치 및 그 동작 방법 - Google Patents

영상 처리 장치 및 그 동작 방법 Download PDF

Info

Publication number
KR20170011876A
KR20170011876A KR1020150105303A KR20150105303A KR20170011876A KR 20170011876 A KR20170011876 A KR 20170011876A KR 1020150105303 A KR1020150105303 A KR 1020150105303A KR 20150105303 A KR20150105303 A KR 20150105303A KR 20170011876 A KR20170011876 A KR 20170011876A
Authority
KR
South Korea
Prior art keywords
image
quickview
type
processing apparatus
image processing
Prior art date
Application number
KR1020150105303A
Other languages
English (en)
Other versions
KR102351496B1 (ko
Inventor
박종현
이용주
고준혁
박경준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150105303A priority Critical patent/KR102351496B1/ko
Priority to US15/218,860 priority patent/US10009545B2/en
Publication of KR20170011876A publication Critical patent/KR20170011876A/ko
Application granted granted Critical
Publication of KR102351496B1 publication Critical patent/KR102351496B1/ko

Links

Images

Classifications

    • H04N5/23293
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N5/2253
    • H04N5/23222
    • H04N5/23229

Abstract

촬영된 영상의 유형에 따라 결정되는 사용자 프로파일에 기초하여, 촬영된 영상의 일부 영역을 나타내는 퀵뷰 이미지를 생성하고 표시하는 영상 처리 장치 및 영상 처리 방법을 제공한다.

Description

영상 처리 장치 및 그 동작 방법{Image processing apparatus and method for operating thereof}
본 개시는 퀵뷰 이미지를 생성하는 영상 처리 장치 및 그 동작 방법에 관한 것이다.
영상 처리 장치와 관련된 기술이 발전함에 따라, 고화질의 영상을 촬영하거나 저장하는 카메라 등의 영상 처리 장치들이 개발되고 있다.
영상 처리 장치에 촬영된 영상이 저장된 경우, 사용자는 촬영된 영상에서 관심 있는 부분을 확인하기 위해 일일이 확대/축소 또는 상하좌우 이동을 조절해야 하는 번거로움이 존재한다. 또한, 큰 용량을 갖는 고화질의 영상들이 저장된 경우, 영상 처리 장치는 고화질의 영상들을 일일이 화면에 표시하는 데 시간이 많이 걸리게 된다.
본 실시예들에 따르면, 퀵뷰 이미지를 생성하는 방법 및 영상 처리 장치를 제공한다.
제 1 측면에 따른 영상 처리 장치는, 촬영된 영상을 획득하는 영상 획득부;
촬영된 영상의 유형에 따라 결정되는 사용자 프로파일에 기초하여, 촬영된 영상의 일부 영역을 나타내는 퀵뷰 이미지(quick view image)를 생성하는 퀵뷰 이미지 생성부; 및 기 설정된 방식에 따라, 생성된 퀵뷰 이미지를 표시하는 표시부;를 포함할 수 있다.
또한, 퀵뷰 이미지 생성부는, 사용자의 기 사용 패턴을 학습하여, 사용자의 기 사용 패턴이 반영된 사용자 프로파일을 결정할 수 있다.
또한, 퀵뷰 이미지 생성부는, 촬영된 영상을 분석하여 유형을 판단하고, 판단된 유형에 따라 결정되는 사용자 프로파일에 기초하여, 퀵뷰 이미지를 생성할 수 있다.
또한, 퀵뷰 이미지 생성부는, 촬영된 영상의 초점 정보 및 얼굴 인식 정보에 기초하여, 촬영된 영상을 분석할 수 있다.
또한, 사용자 프로파일, 촬영된 영상의 유형, 및 기 설정된 방식 중 적어도 하나는, 사용자의 입력에 기초하여 설정될 수 있다.
또한, 영상 처리 장치는, 생성된 퀵뷰 이미지를 임시 저장하는 퀵뷰 이미지 버퍼;를 더 포함할 수 있다.
또한, 촬영된 이미지의 유형은, 원거리 인물 사진 유형, 근접 사진 유형, 풍경 사진 유형, 스포츠 활동 사진 유형 및 단체 인물 사진 유형 중 적어도 어느 하나를 포함할 수 있다.
또한, 영상 획득부는, 복수의 이미지들을 촬영하고, 퀵뷰 이미지 생성부는, 복수의 이미지들에 대응되는 복수의 퀵뷰 이미지들을 생성하고, 표시부는, 복수의 이미지들에 대응되는 복수의 썸네일 이미지들 또는 복수의 퀵뷰 이미지들을 표시할 수 있다.
제 2 측면에 따른 영상 처리 방법은, 촬영된 영상을 획득하는 단계; 촬영된 영상의 유형에 따라 결정되는 사용자 프로파일에 기초하여, 촬영된 영상의 일부 영역을 나타내는 퀵뷰 이미지(quick view image)를 생성하는 단계; 및 기 설정된 방식에 따라, 생성된 퀵뷰 이미지를 표시하는 단계;를 포함할 수 있다.
제 3 측면에 따라, 전술한 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체가 제공된다.
도 1 은 일 실시예에 따른 영상 처리 장치를 나타낸다.
도 2는 일 실시예에 따라, 촬영된 영상이 원거리 인물 사진인 경우, 영상 처리 장치가 퀵뷰 이미지를 생성하는 실시예를 나타낸다.
도 3은 일 실시예에 따라, 촬영된 영상이 단체 인물 사진인 경우, 영상 처리 장치가 퀵뷰 이미지를 생성하는 실시예를 나타낸다.
도 4는 영상 처리 장치가 복수의 퀵뷰 이미지들을 표시하는 다른 실시예를 나타낸다.
도 5는 일 실시예에 따른, 촬영된 영상이 근접 사진인 경우, 영상 처리 장치가 퀵뷰 이미지를 생성하는 실시예를 나타낸다.
도 6은 일 실시예에 따른, 촬영된 영상이 풍경 사진인 경우, 영상 처리 장치가 퀵뷰 이미지를 생성하는 실시예를 나타낸다.
도 7은 일 실시예에 따른 촬영된 영상이 스포츠 활동 사진인 경우, 영상 처리 장치가 퀵뷰 이미지를 생성하는 실시예를 나타낸다.
도 8는 일 실시예에 따라, 영상 처리 장치가 복수의 썸네일 이미지들 및 복수의 퀵뷰 이미지들을 표시하는 실시예를 나타낸다.
도 9는 일 실시예에 따라, 영상 처리 장치가 퀵뷰 이미지 유형을 설정하기 위한 메뉴를 표시하는 실시예를 나타낸다.
도 10은 일 실시예에 따라, 영상 처리 장치가 퀵뷰 이미지를 설정하기 위한 메뉴를 표시하는 실시예를 나타낸다.
도 11는 다른 실시예에 따른 영상 처리 장치를 나타낸다.
도 12는 일 실시예에 따라, 영상 처리 장치가 동작하는 방법을 나타낸다.
도 13은 일부 실시예에 따른 영상 처리 장치의 다른 예를 도시한 구성도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서 언급되는 영상 처리 장치(100, 1100a, 200)는, 정지 이미지를 촬영하는 디지털 스틸 카메라 또는 동영상을 촬영하는 디지털 비디오 카메라 등의 다양한 형태로 구현될 수 있다. 또한, 영상 처리 장치(100, 1100a, 200)는 디지털 일안 리플렉스 카메라(DSLR), 미러리스 카메라를 포함할 수 있다. 또한, 영상 처리 장치(100, 1100a, 200)는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 또한, 일 실시예에 따른 영상 처리 장치(100, 1100a, 200)는 전술한 기기들에 한정되지 않으며, 렌즈 및 촬상소자를 포함하여 피사체를 촬영하여 이미지를 생성할 수 있는 카메라 모듈을 탑재한 전자 장치를 포함할 수 있다.
또한, 명세서 전체에서 언급되는 '퀵뷰 이미지(quick view image)'는 촬영된 영상의 일부 영역을 나타낼 수 있다. 일 실시예에 따라, 퀵뷰 이미지는 영상 처리 장치(100)에 의해 촬영된 직후의 이미지에서 사용자가 관심 있는 일부 영역을 나타낼 수 있다. 또한, 다른 실시예에 따라, 퀵뷰 이미지는 영상 처리 장치(100)가 외부로부터 획득한 이미지에서 사용자가 관심 있는 일부 영역을 나타낼 수 있다. 따라서, 사용자는 퀵뷰 이미지를 확인하여, 촬영된 영상을 삭제할지 여부를 결정할 수 있다. 또한, 일 실시예에 따라, 퀵뷰 이미지는 촬영된 영상의 일부 영역이 소정의 크기만큼 확대된 이미지를 의미할 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
도 1은 일 실시예에 따른 영상 처리 장치(100)를 설명하기 위한 도면이다.
일 실시예에 따라, 영상 처리 장치(100)는 영상 획득부(110), 퀵뷰 이미지 생성부(120), 및 표시부(130)를 포함할 수 있다. 도 1에 도시된 영상 처리 장치(100)는 본 실시 예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시 예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
영상 획득부(110)는 일 실시예에 따라, 촬영된 영상을 획득할 수 있다. 일 실시예에 따라, 영상 획득부(110)는 피사체를 직접 촬영하여, 영상을 획득할 수 있다. 또한, 다른 실시예에 따라, 영상 획득부(110)는 외부 장치에 의해 촬영된 영상을 외부 장치로부터 획득할 수 있다.
퀵뷰 이미지 생성부(120)는, 일 실시예에 따라, 촬영된 영상의 유형에 따라 결정되는 사용자 프로파일에 기초하여, 촬영된 영상의 일부 영역을 나타내는 퀵뷰 이미지를 생성할 수 있다. 또한, 사용자 프로파일은, 촬영된 영상의 어느 영역을 중심으로 퀵뷰 이미지를 생성할 것인지, 퀵뷰 이미지의 크기는 어느 정도로 할 것인지, 퀵뷰 이미지의 개수는 몇 개까지 허용할 것인지, 또는 퀵뷰 이미지를 압축하여 저장할 것인지 여부를 나타낼 수 있다. 또한, 촬영된 영상의 유형의 예로는, 원거리 인물 사진 유형, 단체 인물 사진 유형, 풍경 사진 유형, 스포츠 활동 사진 유형, 또는 근접 사진 유형이 될 수 있으며, 이에 제한되지는 않는다. 또한, 사용자 프로파일은 촬영된 영상의 유형에 따라 서로 다르게 설정될 수 있다. 즉, 사용자 프로파일은 촬영된 영상의 유형이 원거리 인물 사진 유형인지, 근거리 인물 사진 유형인지 등에 따라 서로 다르게 설정될 수 있다. 따라서, 퀵뷰 이미지 생성부(120)는 촬영된 영상의 유형 별로 사용자 프로파일들을 각각 설정할 수 있다.
일 실시예에 따라, 퀵뷰 이미지 생성부(120)는 사용자의 기 사용 패턴이 반영된 사용자 프로파일을 결정할 수 있다. 즉, 퀵뷰 이미지 생성부(120)는 사용자의 기 사용 패턴을 학습하여, 촬영된 영상의 어느 영역을 중심으로 퀵뷰 이미지를 생성할 것인지, 퀵뷰 이미지의 크기는 어느 정도로 할 것인지를 결정할 수 있다. 퀵뷰 이미지 생성부(120)는 사용자의 기 사용 패턴을 기계 학습(machine learning)할 수 있다. 예를 들어, 이전에 빈번한 빈도로, 사용자가 영상 처리 장치(100)에 의해 촬영된 영상에서 사용자의 모습이 나타나는 영역을 확대하여 확인하였다면, 퀵뷰 이미지 생성부(120)는 사용자의 모습이 나타나는 영역 및 사용자가 영상을 확대하는 비율 등에 따라 사용자 프로파일을 결정할 수 있다. 따라서, 퀵뷰 이미지 생성부(120)는 결정된 사용자 프로파일을 통해 촬영된 영상에서 사용자의 모습이 나타나는 영역을 퀵뷰 이미지로써 생성할 수 있다. 또한, 퀵뷰 이미지 생성부(120)는 사용자의 사용 패턴이 변화함에 따라, 사용자 프로파일을 업데이트 할 수 있다.
또한, 일 실시예에 따라, 사용자 입력에 기초하여, 퀵뷰 이미지 생성부(120)는 사용자 프로파일을 미리 결정할 수 있다. 즉, 퀵뷰 이미지 생성부(120)는, 사용자 입력에 기초하여, 촬영된 영상의 어느 영역을 중심으로 퀵뷰 이미지를 생성할 것인지, 퀵뷰 이미지의 크기는 어느 정도로 할 것인지를 미리 결정할 수 있다. 따라서, 퀵뷰 이미지 생성부(120)는 미리 결정된 사용자 프로파일에 따라, 퀵뷰 이미지를 생성할 수 있다.
일 실시예에 따라, 퀵뷰 이미지 생성부(120)는 촬영된 영상의 유형을 판단할 수 있다. 즉, 퀵뷰 이미지 생성부(120)는 촬영된 영상을 분석하여, 촬영된 영상이 원거리 인물 사진 유형, 단체 인물 사진 유형, 풍경 사진 유형, 스포츠 활동 사진 유형, 또는 근접 사진 유형 중 어느 유형인지를 판단할 수 있다. 일 실시예에 따라, 퀵뷰 이미지 생성부(120)는 촬영된 영상의 초점 정보 및 얼굴 인식 정보에 기초하여, 촬영된 영상의 유형을 판단할 수 있다. 예를 들어, 촬영된 영상의 초점이 영상의 후방에 위치하고, 인식된 얼굴이 존재하는 경우, 퀵뷰 이미지 생성부(120)는 촬영된 영상의 유형이 원거리 인물 사진 유형임을 판단할 수 있다. 따라서, 퀵뷰 이미지 생성부(120)는 판단된 유형에 대응되는 사용자 프로파일에 따라, 퀵뷰 이미지를 생성할 수 있다. 예를 들어, 단체 사진 유형에 대응되는 사용자 프로파일에 따라, 퀵뷰 이미지 생성부(120)는 촬영된 영상 내의 인식된 복수의 얼굴 영역들을 복수의 퀵뷰 이미지들로 생성할 수 있다.
일 실시예에 따라, 퀵뷰 이미지 생성부(120)는 생성된 퀵뷰 이미지를 내부 메모리에 저장할 수 있다. 또한, 퀵뷰 이미지 생성부(120)는 생성된 퀵뷰 이미지를 퀵뷰 이미지 버퍼(미도시)에 임시 저장할 수 있다. 또한, 퀵뷰 이미지 생성부(120)는 생성된 퀵뷰 이미지를 압축하여 퀵뷰 이미지 버퍼(미도시)에 저장할 수 있다.
일 실시예에 따라, 표시부(130)는 기 설정된 방식에 따라, 생성된 퀵뷰 이미지를 표시할 수 있다. 예를 들어, 표시부(130)는 생성된 퀵뷰 이미지를 소정의 크기만큼 확대하여 영상 처리 장치(100)의 화면 상에 표시할 수 있다. 또한, 표시부(130)는 생성된 퀵뷰 이미지를 소정의 크기만큼 확대하여 소정의 시간만큼 표시할 수 있다. 또한, 표시부(130)는 복수개의 퀵뷰 이미지들을 각각 기 설정된 시간만큼 확대하여 표시할 수 있다. 또한, 퀵뷰 이미지 생성부(120)는 사용자의 기 사용 패턴을 학습하여 퀵뷰 이미지를 표시하는 방식을 결정할 수 있다. 또한, 표시부(130)는 퀵뷰 이미지 버퍼(미도시)에 저장된 퀵뷰 이미지를 표시할 수 있다. 따라서, 표시부(130)는 퀵뷰 이미지 버퍼(미도시)에 저장된 퀵뷰 이미지를 읽어내어 표시할 수 있으므로, 내부 메모리에 저장된 퀵뷰 이미지를 읽어내어 표시하는 것보다, 더 빠르게 퀵뷰 이미지를 표시할 수 있다. 또한, 퀵뷰 이미지의 경우 원본 이미지보다 용량이 작으므로, 표시부(130)는 퀵뷰 이미지를 표시하는 시간을 원본 이미지를 표시하는 시간보다 단축시킬 수 있다.
도 2는 일 실시예에 따라, 촬영된 영상이 원거리 인물 사진인 경우, 영상 처리 장치(100)가 퀵뷰 이미지를 생성하는 실시예를 나타낸다.
영상 처리 장치(100)는 일 실시예에 따라, 피사체를 촬영하여, 영상(210)을 획득할 수 있다. 이어서, 영상 처리 장치(100)는 촬영된 영상(210)이 어느 유형인지를 판단할 수 있다. 즉, 영상 처리 장치(100)는 촬영된 영상(210)의 초점 정보 및 얼굴 인식 정보를 기초로, 촬영된 영상(210)의 초점이 후방에 있고, 인식된 얼굴 영역(220)이 하나임을 인식하여, 촬영된 영상(210)이 원거리 인물 사진 유형임을 판단할 수 있다. 영상 처리 장치(100)는 영상 처리 장치(100) 내의 렌즈의 초점 정보를 획득할 수 있고, 영상 처리 장치(100) 내의 얼굴 인식 모듈로부터 얼굴 인식 정보를 획득할 수 있다. 또한, 다른 실시예에 따라, 영상 처리 장치(100)는 사용자의 기 설정된 입력에 따라, 촬영된 영상(210)이 원거리 인물 사진 유형임을 결정할 수 있다.
이어서, 영상 처리 장치(100)는 원거리 인물 사진 유형에 대응되는 사용자 프로파일에 기초하여, 퀵뷰 이미지를 생성할 수 있다. 즉, 원거리 인물 사진 유형의 경우, 얼굴 영역을 확인하는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 촬영된 영상(210)에서 인식된 얼굴 영역(220)을 포함하는 기 설정된 영역(230)을 크로핑(cropping)할 수 있다. 따라서, 영상 처리 장치(100)는 크로핑된 영역(230)을 퀵뷰 이미지로써 생성할 수 있다. 또한, 다른 실시예에 따라, 영상 처리 장치(100)는 크로핑된 영역(230)이 일부 확대된 이미지(240)를 퀵뷰 이미지로써 생성할 수 있다. 또한, 다른 실시예에 따라, 영상 처리 장치(100)는, 사용자가 인물의 전신 영역을 확대하는 사용 패턴을 학습하여 사용자 프로파일을 결정할 수 있고, 결정된 사용자 프로파일에 따라, 촬영된 영상(210)에서 인식된 인물의 전신 영역을 포함하는 영역을 퀵뷰 이미지로써 생성할 수 있다.
따라서, 영상 처리 장치(100)는 기 설정된 방식에 따라, 크로핑된 영역(230)이 일부 확대된 이미지(240)인 퀵뷰 이미지를 표시할 수 있다. 또한, 다른 방식에 따라, 영상 처리 장치(100)는 촬영된 영상(210)와 퀵뷰 이미지(240)를 번갈아 가며 표시할 수 있다. 또한, 또 다른 방식에 따라, 영상 처리 장치(100)는 촬영된 영상(210)에서 기 설정된 영역(230)을 점차 확대하는 줌인(zoom in) 동작을 수행할 수 있다.
따라서, 사용자는 영상 처리 장치(100)를 통해 인물을 촬영한 경우, 인물의 관심 영역을 확인하기 위해 별도로 촬영된 영상에서 줌인 동작을 수행하지 않고도, 촬영 직후 영상 처리 장치(100)에 표시된 퀵뷰 이미지를 통해 인물의 관심 영역을 바로 확인할 수 있다.
도 3은 일 실시예에 따라, 촬영된 영상이 단체 인물 사진인 경우, 영상 처리 장치(100)가 퀵뷰 이미지를 생성하는 실시예를 나타낸다.
영상 처리 장치(100)는 일 실시예에 따라, 단체 인물들을 촬영하여, 영상(310)을 획득할 수 있다. 이어서, 영상 처리 장치(100)는 촬영된 영상(310)이 어느 유형인지를 판단할 수 있다. 즉, 영상 처리 장치(100)는 촬영된 영상(310)의 초점 정보 및 얼굴 인식 정보를 기초로, 촬영된 영상(310)의 초점이 후방에 있고, 인식된 얼굴 영역들(321 내지 331)이 복수개임을 인식하여, 촬영된 영상(310)이 단체 인물 사진 유형임을 판단할 수 있다. 또한, 다른 실시예에 따라, 영상 처리 장치(100)는 사용자의 기 설정된 입력에 따라, 촬영된 영상(310)이 단체 인물 사진 유형임을 결정할 수 있다.
이어서, 영상 처리 장치(100)는 단체 인물 사진 유형에 대응되는 사용자 프로파일에 기초하여, 퀵뷰 이미지를 생성할 수 있다. 즉, 단체 인물 사진 유형의 경우, 복수개의 얼굴 영역들을 확인하는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 촬영된 영상(310)에서 인식된 얼굴 영역들(321 내지 331)을 크로핑할 수 있다. 따라서, 영상 처리 장치(100)는 복수의 크로핑된 영역들(321 내지 331)을 복수의 퀵뷰 이미지들로써 생성할 수 있다.
따라서, 영상 처리 장치(100)는 기 설정된 방식에 따라, 생성된 퀵뷰 이미지들을 표시할 수 있다. 일 실시예에 따라, 사용자의 입력 또는 사용자의 기 사용 패턴에 따라, 영상 처리 장치(100)는 하나의 화면에 표시 가능한 퀵뷰 이미지의 개수를 6개로 설정할 수 있다. 따라서, 영상 처리 장치(100)는 6개의 얼굴 영역들(321 내지 326)에 대응되는 퀵뷰 이미지들(340)을 화면에 표시할 수 있다. 이어서, 소정의 시간이 경과함에 따라, 영상 처리 장치(100)는 나머지 5개의 얼굴 영역들(327 내지 331)에 대응되는 퀵뷰 이미지들을 화면에 표시할 수 있다. 또한, 다른 실시예에 따라, 영상 처리 장치(100)는 촬영된 영상(310)에서 얼굴 영역들(321 내지 331)을 순차적으로 확대하는 줌인(zoom in) 동작을 수행할 수 있다. 즉, 기 설정된 순서에 따라, 영상 처리 장치(100)는 촬영된 영상(310)에서 얼굴 영역들(321 내지 331)을 순차적으로 확대하는 줌인 동작을 수행할 수 있다.
도 4는 영상 처리 장치(100)가 복수의 퀵뷰 이미지들을 표시하는 다른 실시예를 나타낸다.
일 실시예에 따라, 사용자의 입력 또는 사용자의 기 사용 패턴에 따라, 영상 처리 장치(100)는 도 3의 얼굴 영역들(321 내지 331) 각각을 일부 확대하여 소정의 시간마다 순차적으로 표시할 수 있다.
또한, 일 실시예에 따라, 영상 처리 장치(100)는, 사용자 입력에 기초하여, 얼굴 영역들(321 내지 331)에 해당하는 인물들 중에서 얼굴 영역(321)에 포함되는 인물을 중요 인물로써 설정할 수 있다. 또는, 이전에 촬영된 영상들에서 얼굴 영역(321)에 포함되는 인물이 빈번하게 나타나는 경우, 영상 처리 장치(100)는 얼굴 영역들(321 내지 331) 중 얼굴 영역(321)에 중요도를 높게 설정할 수 있다. 따라서, 영상 처리 장치(100)는 얼굴 영역들(321 내지 331) 각각을 일부 확대하여 퀵뷰 이미지로 소정의 시간마다 순차적으로 표시하지만, 얼굴 영역(321)의 경우 확대하여 표시하는 시간을 다른 얼굴 영역들 보다 더 길게 설정할 수 있다. 도 4에서는 일 예시에 따라, 영상 처리 장치(100)는 얼굴 영역(321)의 경우 확대하여 표시하는 시간을 3초로 설정하고, 나머지 얼굴 영역들의 경우 확대하여 표시하는 시간을 1초로 설정할 수 있다.
도 5는 일 실시예에 따른, 촬영된 영상이 근접 사진인 경우, 영상 처리 장치(100)가 퀵뷰 이미지를 생성하는 실시예를 나타낸다.
영상 처리 장치(100)는 일 실시예에 따라, 객체를 근접 촬영하여, 영상(510)을 획득할 수 있다. 이어서, 영상 처리 장치(100)는 촬영된 영상(510)이 어느 유형인지를 판단할 수 있다. 즉, 영상 처리 장치(100)는 촬영된 영상(510)의 초점 정보 및 인식된 객체의 크기 정보를 기초로, 촬영된 영상(510)의 초점이 전방에 있고, 객체의 크기가 소정의 크기 이상임을 인식하여, 촬영된 영상(510)이 근접 사진 유형임을 판단할 수 있다. 객체는 인물, 동물 또는 사물 등이 될 수 있다. 또한, 다른 실시예에 따라, 영상 처리 장치(100)는 사용자의 기 설정된 입력에 따라, 촬영된 영상(510)이 근접 사진 유형임을 결정할 수 있다.
이어서, 영상 처리 장치(100)는 근접 사진 유형에 대응되는 사용자 프로파일에 기초하여, 퀵뷰 이미지를 생성할 수 있다. 즉, 근접 사진 유형의 경우, 촬영된 영상(510)에서 아웃 포커싱을 확인하는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 인식된 객체의 경계를 포함하는 영역(520)을 크로핑할 수 있다. 따라서, 영상 처리 장치(100)는 크로핑된 영역(520)을 퀵뷰 이미지로써 생성할 수 있다. 또한, 다른 실시예에 따라, 근접 사진 유형의 경우, 촬영된 영상(510)을 확대해서 보지 않는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 촬영된 영상(510)을 퀵뷰 이미지로써 생성할 수 있다.
따라서, 영상 처리 장치(100)는 기 설정된 방식에 따라, 크로핑된 영역(520)이 확대된 이미지(530)를 퀵뷰 이미지로 표시할 수 있다.
도 6은 일 실시예에 따른, 촬영된 영상이 풍경 사진인 경우, 영상 처리 장치(100)가 퀵뷰 이미지를 생성하는 실시예를 나타낸다.
영상 처리 장치(100)는 일 실시예에 따라, 풍경을 촬영하여, 영상(610)을 획득할 수 있다. 이어서, 영상 처리 장치(100)는 촬영된 영상(610)이 어느 유형인지를 판단할 수 있다. 즉, 영상 처리 장치(100)는 촬영된 영상(610)의 초점 정보, 얼굴 인식 정보, 및 객체 인식 정보를 기초로, 촬영된 영상(610)의 초점이 후방에 있고, 인식된 얼굴 영역이 없고, 소정의 크기 이상의 객체가 존재하지 않음을 인식하여, 촬영된 영상(610)이 풍경 사진 유형임을 판단할 수 있다. 또한, 다른 실시예에 따라, 영상 처리 장치(100)는 사용자의 기 설정된 입력에 따라, 촬영된 영상(610)이 풍경 사진 유형임을 판단할 수 있다.
이어서, 영상 처리 장치(100)는 풍경 사진 유형에 대응되는 사용자 프로파일에 기초하여, 퀵뷰 이미지들를 생성할 수 있다. 즉, 풍경 사진 유형의 경우, 촬영된 영상(610)에서 엣지(edge)가 많은 부분을 확인하는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 영상 처리시 기 설정된 주파수보다 높은 주파수가 감지되는 영역들을 크로핑할 수 있다. 특히, 영상 처리 장치(100)는 기 설정된 주파수보다 높은 주파수가 감지되는 영역들 중에서 사용자가 설정한 특정 모양(예를 들어, 건축물, 또는 동물)을 포함하는 영역들(622,624)을 크로핑할 수 있다. 따라서, 영상 처리 장치(100)는 크로핑된 영역들(622,624)을 퀵뷰 이미지들로써 생성할 수 있다.
따라서, 영상 처리 장치(100)는 기 설정된 방식에 따라, 크로핑된 영역들(622,624)이 일부 확대된 이미지들(632,634)을 번갈아 가며 표시할 수 있다.
도 7은 일 실시예에 따른 촬영된 영상이 스포츠 활동 사진인 경우, 영상 처리 장치(100)가 퀵뷰 이미지를 생성하는 실시예를 나타낸다.
영상 처리 장치(100)는 일 실시예에 따라, 스포츠 활동인 인물들이 축구를 하는 모습을 촬영하여, 영상(710)을 획득할 수 있다. 이어서, 영상 처리 장치(100)는 촬영된 영상(710)이 어느 유형인지를 판단할 수 있다. 즉, 영상 처리 장치(100)는 촬영된 영상(710)의 객체 인식 정보를 기초로, 축구공과 같이 기 설정된 객체(720)를 인식하여, 촬영된 영상(710)이 스포츠 활동 사진 유형임을 판단할 수 있다. 또한, 다른 실시예에 따라, 영상 처리 장치(100)는 사용자의 기 설정된 입력에 따라, 촬영된 영상(710)이 스포츠 활동 사진 유형임을 판단할 수 있다.
이어서, 영상 처리 장치(100)는 스포츠 활동 사진 유형에 대응되는 사용자 프로파일에 기초하여, 퀵뷰 이미지를 생성할 수 있다. 즉, 스포츠 활동 사진 유형의 경우, 축구공과 같은 기 설정된 객체 주변 영역을 확인하는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 기 설정된 객체(720)의 주변 영역(730)을 크로핑할 수 있다. 따라서, 영상 처리 장치(100)는 크로핑된 영역(730)을 퀵뷰 이미지로써 생성할 수 있다.
따라서, 영상 처리 장치(100)는 기 설정된 방식에 따라, 크로핑된 영역(730)이 확대된 이미지(740)를 표시할 수 있다.
도 8는 일 실시예에 따라, 영상 처리 장치(100)가 복수의 썸네일 이미지들 및 복수의 퀵뷰 이미지들을 표시하는 실시예를 나타낸다.
영상 처리 장치(100)는 촬영된 복수의 이미지들을 외부로부터 획득할 수 있고, 복수의 이미지들에 대응되는 복수의 썸네일 이미지들(812, 814, 816, 818)을 표시할 수 있다. 또한, 다른 실시예에 따라, 영상 처리 장치(100)는 복수번의 걸친 촬영을 통해, 복수의 이미지들을 획득할 수 있고, 복수의 이미지들에 대응되는 복수의 썸네일 이미지들(812, 814, 816, 818)을 표시할 수 있다.
또한, 영상 처리 장치(100)는 복수의 이미지들 각각의 유형에 따라 결정되는 사용자 프로파일에 기초하여, 복수의 퀵뷰 이미지들(822, 824, 826, 828)을 표시할 수 있다. 일 실시예에 따라, 사용자 입력에 기초하여, 영상 처리 장치(100)는 복수의 썸네일 이미지들(812, 814, 816, 818)에서 복수의 퀵뷰 이미지들(822, 824, 826, 828)로 전환하여 표시할 수 있다.
따라서, 사용자는 영상 처리 장치(100)에 표시된 복수의 퀵뷰 이미지들(822, 824, 826, 828)을 통해 관심 영역을 확인할 수 있으므로, 별도로 복수의 이미지들에 대한 줌인 동작 등을 수행하지 않고도, 복수의 퀵뷰 이미지들(822, 824, 826, 828)에 기초하여, 복수의 이미지들에 대한 삭제 여부를 결정할 수 있다.
도 9는 일 실시예에 따라, 영상 처리 장치(100)가 퀵뷰 이미지 유형을 설정하기 위한 메뉴를 표시하는 실시예를 나타낸다.
일 실시예에 따라, 영상 처리 장치(100)는 퀵뷰 이미지 유형 설정을 위한 메뉴(910)를 표시할 수 있다.
영상 처리 장치(100)가 '사용 안함' 항목을 선택하는 사용자 입력을 수신하는 경우, 영상 처리 장치(100)는 촬영된 영상에 대한 퀵뷰 이미지를 생성하지 않을 수 있다.
영상 처리 장치(100)가 '자동 설정' 항목을 선택하는 사용자 입력을 수신하는 경우, 영상 처리 장치(100)는 촬영된 영상을 분석하여 어떤 유형인지를 결정할 수 있다. 따라서, 영상 처리 장치(100)는 결정된 유형에 대응되는 사용자 프로파일에 따라, 퀵뷰 이미지를 생성하여 표시할 수 있다.
영상 처리 장치(100)가 '원거리 인물 사진 유형' 항목을 선택하는 사용자 입력을 수신하는 경우, 영상 처리 장치(100)는 원거리 인물 사진 유형에 대응되는 사용자 프로파일에 따라, 촬영된 영상으로부터 퀵뷰 이미지를 생성하여 표시할 수 있다. 예를 들어, 원거리 인물 사진 유형의 경우, 얼굴 영역을 확인하는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 촬영된 영상에서 인식된 얼굴 영역을 중심으로 퀵뷰 이미지를 생성하여 표시할 수 있다.
영상 처리 장치(100)가 '단체 인물 사진 유형'항목을 선택하는 사용자 입력을 수신하는 경우, 영상 처리 장치(100)는 단체 인물 사진 유형에 대응되는 사용자 프로파일에 따라, 촬영된 영상으로부터 퀵뷰 이미지를 생성하여 표시할 수 있다. 예를 들어, 단체 인물 사진 유형의 경우, 복수개의 얼굴 영역들을 확인하는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 촬영된 영상에서 인식된 얼굴 영역들을 중심으로 퀵뷰 이미지를 생성하여 표시할 수 있다.
영상 처리 장치(100)가 '근접 사진 유형' 항목을 선택하는 사용자 입력을 수신하는 경우, 영상 처리 장치(100)는 근접 사진 유형에 대응되는 사용자 프로파일에 따라, 촬영된 영상으로부터 퀵뷰 이미지를 생성하여 표시할 수 있다. 예를 들어, 촬영된 영상에서 아웃 포커싱을 확인하는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 객체의 경계를 포함하는 영역을 중심으로 퀵뷰 이미지를 생성하여 표시할 수 있다.
영상 처리 장치(100)가 '풍경 사진 유형' 항목을 선택하는 사용자 입력을 수신하는 경우, 영상 처리 장치(100)는 풍경 사진 유형에 대응되는 사용자 프로파일에 따라, 촬영된 영상으로부터 퀵뷰 이미지를 생성하여 표시할 수 있다. 예를 들어, 촬영된 영상에서 엣지(edge)가 많은 부분을 확인하는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 영상 처리시 기 설정된 주파수보다 높은 주파수가 감지되는 영역을 중심으로 퀵뷰 이미지를 생성하여 표시할 수 있다.
영상 처리 장치(100)가 '스포츠 활동 사진' 항목을 선택하는 사용자 입력을 수신하는 경우, 영상 처리 장치(100)는 스포츠 활동 사진에 대응되는 사용자 프로파일에 따라, 촬영된 영상으로부터 퀵뷰 이미지를 생성하여 표시할 수 있다. 예를 들어, 축구공과 같은 기 설정된 객체 주변 영역을 확인하는 사용자의 경향이 반영된 사용자 프로파일에 따라, 영상 처리 장치(100)는 기 설정된 객체의 주변 영역을 중심으로 퀵뷰 이미지를 생성하여 표시할 수 있다.
또한, 일 실시예에 따라, 사용자의 입력에 따라, 영상 처리 장치(100)는 다른 유형의 항목을 생성할 수 있고, 다른 유형에 대응되는 사용자 프로파일에 따라, 촬영된 영상으로부터 퀵뷰 이미지를 생성하여 표시할 수 있다.
도 10은 일 실시예에 따라, 영상 처리 장치(100)가 퀵뷰 이미지를 설정하기 위한 메뉴를 표시하는 실시예를 나타낸다.
일 실시예에 따라, 영상 처리 장치(100)는 사용자 프로파일을 설정을 위한 메뉴(1010)를 표시할 수 있다.
영상 처리 장치(100)는 ‘학습 설정’항목을 선택하는 사용자 입력을 수신할 수 있고, 영상 처리 장치(100)는 사용자의 기 사용 패턴을 학습하여, 사용자의 기 사용 패턴이 반영된 사용자 프로파일을 결정할 수 있다.
영상 처리 장치(100)는 '객체 등록' 항목을 선택하는 사용자 입력을 수신할 수 있고, 영상 처리 장치(100)는 사용자 입력에 기초하여, 사용자가 지정한 객체를 중요도가 높은 객체로 등록할 수 있다. 따라서, 영상 처리 장치(100)는 촬영된 영상에서 복수의 객체들이 인식된 경우, 사용자가 지정한 객체에 대한 퀵뷰 이미지를 우선하여 표시할 수 있다.
영상 처리 장치(100)는 '가로/세로 크기' 항목을 선택하는 사용자 입력을 수신할 수 있고, 사용자 입력에 따라, 퀵뷰 이미지의 가로/세로 크기를 설정할 수 있다. 또한, 다른 실시예에 따라, 별도의 사용자 입력이 없는 경우, 영상 처리 장치(100)는 사용자의 기 사용 패턴이 반영된 사용자 프로파일에 따라, 퀵뷰 이미지의 가로/세로 크기를 결정할 수 있다.
또한, 영상 처리 장치(100)는 '압축 여부' 항목을 선택하는 사용자 입력을 수신할 수 있고, 사용자 입력에 따라, 퀵뷰 이미지에 대한 압축을 수행하여 저장할 지 여부를 결정할 수 있다.
또한, 영상 처리 장치(100)는 '최대 개수' 항목을 선택하는 사용자 입력을 수신할 수 있고, 사용자 입력에 따라, 화면에 표시할 퀵뷰 이미지의 최대 개수를 설정할 수 있다.
또한, 일 실시예에 따라, 사용자의 입력에 따라, 영상 처리 장치(100)는 다른 유형의 항목을 생성할 수 있고, 영상 처리 장치(100)는 다른 유형에 따라 퀵뷰 이미지를 생성하여 표시할 수 있다.
도 11는 다른 실시예에 따른 영상 처리 장치(1100a)를 나타낸다.
영상 처리 장치(1100a)는 일 실시예에 따라, 촬영부(1110), 아날로그 신호 처리부(1120), 메모리(1130), 저장/판독 제어부(1140), 데이터 저장부(1142), 프로그램 저장부(1150), 표시 구동부(1162), 표시부(1164), CPU/DSP(Central Processing Unit/Digital Signal Processor)(1170), 조작부(1180), 퀵뷰 이미지 생성부(1192), 및 퀵뷰 이미지 버퍼(1194)를 포함할 수 있다. 도 1에 도시된 영상 처리 장치(100)는 본 실시 예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시 예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
퀵뷰 이미지 생성부(1192) 및 표시부(1164)는 도 1의 퀵뷰 이미지 생성부(120) 및 표시부(130)의 내용을 포함할 수 있는 바, 중복되는 내용에 대해서는 설명을 생략한다. 또한, 촬영부(1110)는 도 1의 영상 획득부(110)와 대응될 수 있는 바, 중복되는 내용에 대해서는 설명을 생략한다.
퀵뷰 이미지 버퍼(1194)는 일 실시예에 따라, 퀵뷰 이미지 생성부(1192)에 의해 생성된 퀵뷰 이미지를 임시 저장할 수 있다. 또한, 퀵뷰 이미지 버퍼(1194)는 일 실시예에 따라 압축된 퀵뷰 이미지를 저장할 수 있다. CPU/DSP(1170)는 퀵뷰 이미지 버퍼(1194)에 저장된 퀵뷰 이미지를 빠르게 읽어내어, 표시부(1164)를 통해 퀵뷰 이미지를 표시할 수 있다.
영상 처리 장치(1100a)의 전체 동작은 CPU/DSP(1170)에 의해 통괄된다. CPU/DSP(1170)는 렌즈 구동부(1112), 조리개 구동부(1115), 촬상 소자 제어부(1119), 표시 구동부(1162), 조작부(1180) 등 영상 처리 장치(100a)에 포함된 각 구성 요소의 동작을 위한 제어 신호를 제공한다.
촬영부(1110)는 입사광으로부터 전기적인 신호의 영상을 생성하는 구성요소로서, 렌즈(1111), 렌즈 구동부(1112), 조리개(1113), 조리개 구동부(1115), 촬상 소자(1118), 및 촬상 소자 제어부(1119)를 포함한다.
렌즈(1111)는 복수 군, 복수 매의 렌즈들을 구비할 수 있다. 렌즈(1111)는 렌즈 구동부(1112)에 의해 그 위치가 조절된다. 렌즈 구동부(1112)는 CPU/DSP(1170)에서 제공된 제어 신호에 따라 렌즈(1111)의 위치를 조절한다.
조리개(1113)는 조리개 구동부(1115)에 의해 그 개폐 정도가 조절되며, 촬상 소자(1118)로 입사되는 광량을 조절한다.
렌즈(1111) 및 조리개(1113)를 투과한 광학 신호는 촬상 소자(1118)의 수광면에 이르러 피사체의 상을 결상한다. 촬상 소자(1118)는 광학 신호를 전기 신호로 변환하는 CCD(Charge Coupled Device) 이미지센서 또는 CIS(Complementary Metal Oxide Semiconductor Image Sensor)일 수 있다. 촬상 소자(1118)는 촬상 소자 제어부(1119)에 의해 감도 등이 조절될 수 있다. 촬상 소자 제어부(1119)는 실시간으로 입력되는 영상 신호에 의해 자동으로 생성되는 제어 신호 또는 사용자의 조작에 의해 수동으로 입력되는 제어 신호에 따라 촬상 소자(1118)를 제어할 수 있다.
촬상 소자(1118)의 노광 시간은 셔터(미도시)로 조절된다. 셔터(미도시)는 가리개를 이동시켜 빛의 입사를 조절하는 기계식 셔터와, 촬상 소자(1118)에 전기 신호를 공급하여 노광을 제어하는 전자식 셔터가 있다.
아날로그 신호 처리부(1120)는 촬상 소자(1118)로부터 공급된 아날로그 신호에 대하여, 노이즈 저감 처리, 게인 조정, 파형 정형화, 아날로그-디지털 변환 처리 등을 수행한다.
아날로그 신호 처리부(1120)에 의해 처리된 신호는 메모리(1130)를 거쳐 CPU/DSP(1170)에 입력될 수도 있고, 메모리(1130)를 거치지 않고 CPU/DSP(1170)에 입력될 수도 있다. 여기서 메모리(1130)는 영상 처리 장치(1100a)의 메인 메모리로서 동작하고, CPU/DSP(1170)가 동작 중에 필요한 정보를 임시로 저장한다. 프로그램 저장부(1130)는 영상 처리 장치(100a)를 구동하는 운영 시스템, 응용 시스템 등의 프로그램을 저장한다.
아울러, 영상 처리 장치(1100a)는 이의 동작 상태 또는 영상 처리 장치(1100a)에서 촬영한 영상 정보를 표시하도록 표시부(1164)를 포함한다. 표시부(1164)는 시각적인 정보 및/또는 청각적인 정보를 사용자에게 제공할 수 있다. 시각적인 정보를 제공하기 위해 표시부(1164)는 예를 들면, 액정 디스플레이 패널(LCD), 유기 발광 디스플레이 패널 등으로 이루어질 수 있다.
또한, 영상 처리 장치(1100a)는 표시부(1164)를 2개 이상 포함할 수도 있고, 터치 입력을 인식할 수 있는 터치 스크린일 수 있다. 예를 들어, 영상 처리 장치(1100a)에는 촬영될 대상을 나타내는 라이브 뷰 영상을 표시하는 표시부와 영상 처리 장치(1100a)의 상태를 나타내는 영상을 표시하는 표시부를 포함할 수 있다.
표시 구동부(1162)는 표시부(1164)에 구동 신호를 제공한다.
CPU/DSP(1170)는 입력되는 영상 신호를 처리하고, 이에 따라 또는 외부 입력 신호에 따라 각 구성부들을 제어한다. CPU/DSP(1170)는 입력된 영상 데이터에 대해 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 또한, 화질 개선을 위한 영상 신호 처리를 하여 생성한 영상 데이터를 압축 처리하여 영상 파일을 생성할 수 있으며, 또는 영상 파일로부터 영상 데이터를 복원할 수 있다. 영상의 압축형식은 가역 형식 또는 비가역 형식이어도 된다. 적절한 형식의 예로서, 정지 영상에 경우, JPEG(Joint Photographic Experts Group)형식이나 JPEG 2000 형식 등으로 변환도 가능하다. 또한, 동영상을 기록하는 경우, MPEG(Moving Picture Experts Group) 표준에 따라 복수의 프레임들을 압축하여 동영상 파일을 생성할 수 있다. 영상 파일은 예를 들면 Exif(Exchangeable image file format) 표준에 따라 생성될 수 있다.
CPU/DSP(1170)로부터 출력된 이미지 데이터는 메모리(1130)를 통하여 또는 직접 저장/판독 제어부(1140)에 입력되는데, 저장/판독 제어부(1140)는 사용자로부터의 신호에 따라 또는 자동으로 영상 데이터를 데이터 저장부(1142)에 저장한다. 또한 저장/판독 제어부(1140)는 데이터 저장부(1142)에 저장된 영상 파일로부터 영상에 관한 데이터를 판독하고, 이를 메모리(1130)를 통해 또는 다른 경로를 통해 표시 구동부에 입력하여 표시부(1164)에 이미지가 표시되도록 할 수도 있다. 데이터 저장부(1142)는 탈착 가능한 것일 수도 있고 영상 처리 장치(1100a)에 영구 장착된 것일 수 있다.
또한, CPU/DSP(1170)에서는 불선명 처리, 색채 처리, 블러 처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 행할 수 있다. 영상 인식 처리로 얼굴 인식, 장면 인식 처리 등을 행할 수 있다. 아울러, CPU/DSP(1170)에서는 표시부(1164)에 디스플레이하기 위한 표시 영상 신호 처리를 행할 수 있다. 예를 들어, 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 등 생성 및 영상의 합성 처리 등을 행할 수 있다. CPU/DSP(1170)는 외부 모니터와 연결되어, 외부 모니터에 디스플레이 되도록 소정의 영상 신호 처리를 행할 수 있으며, 이렇게 처리된 영상 데이터를 전송하여 외부 모니터에서 해당 영상이 디스플레이 되도록 할 수 있다.
또한, CPU/DSP(1170)는 프로그램 저장부(1150)에 저장된 프로그램을 실행하거나, 별도의 모듈을 구비하여, 오토 포커싱, 줌 변경, 초점 변경, 자동 노출 보정 등을 제어하기 위한 제어 신호를 생성하여, 조리개 구동부(1115), 렌즈 구동부(1112), 및 촬상 소자 제어부(1119)에 제공하고, 셔터, 스트로보 등 영상 처리 장치(1100a)에 구비된 구성 요소들의 동작을 총괄적으로 제어할 수 있다.
조작부(1180)는 사용자가 제어 신호를 입력할 수 있는 구성이다. 조작부(1180)는 정해진 시간 동안 촬상 소자(1118)를 빛에 노출하여 사진을 촬영하도록 하는 셔터-릴리즈 신호를 입력하는 셔터-릴리즈 버튼, 전원의 온-오프를 제어하기 위한 제어 신호를 입력하는 전원 버튼, 입력에 따라 화각을 넓어지게 하거나 화각을 좁아지게 줌 버튼, 모드 선택 버튼, 기타 촬영 설정값 조절 버튼 등 다양한 기능 버튼들을 포함할 수 있다. 조작부(1180)는 버튼, 키보드, 터치 패드, 터치스크린, 원격 제어기 등과 같이 사용자가 제어 신호를 입력할 수 있는 어떠한 형태로 구현되어도 무방하다.
또한, 조작부(1180)는 일 실시예에 따라, 사용자 프로파일, 퀵뷰 이미지의 유형, 또는 퀵뷰 이미지를 표시하는 방식을 결정하는 사용자 입력을 수신할 수 있다.
통신부(190)는 네트워크 인터페이스 카드(NIC: Network Interface Card)나 모뎀 등을 포함하여 이루어 질 수 있으며, 영상 처리 장치(100)가 외부 디바이스와 네트워크를 통해 유무선 방식으로 통신할 수 있도록 하는 역할을 수행할 수 있다.
도 12는 일 실시예에 따라, 영상 처리 장치(100,1100a)가 동작하는 방법을 나타낸다.
도 12에 도시된 방법은, 도 1 및 11의 영상 처리 장치(100,1100a)에 의해 수행될 수 있고, 중복되는 설명에 대해서는 생략한다.
단계 s1210에서, 영상 처리 장치(100,1100a)는 일 실시예에 따라, 촬영된 영상을 획득할 수 있다. 일 실시예에 따라, 영상 처리 장치(100,1100a)는 피사체를 직접 촬영하여, 영상을 획득할 수 있다. 또한, 다른 실시예에 따라, 영상 처리 장치(100,1100a)는 외부 장치에 의해 촬영된 영상을 외부 장치로부터 획득할 수 있다.
단계 s1220에서, 영상 처리 장치(100,1100a)는 일 실시예에 따라, 촬영된 영상의 유형에 따라 결정되는 사용자 프로파일에 기초하여, 촬영된 영상의 일부 영역을 나타내는 퀵뷰 이미지를 생성할 수 있다. 또한, 사용자 프로파일은 촬영된 영상의 유형에 따라 서로 다르게 설정될 수 있다. 즉, 사용자 프로파일은 촬영된 영상의 유형이 원거리 인물 사진 유형인지, 근거리 인물 사진 유형인지 등에 따라 서로 다르게 설정될 수 있다. 따라서, 영상 처리 장치(100,1100a)는 촬영된 영상의 유형 별로 사용자 프로파일들을 각각 설정할 수 있다.
일 실시예에 따라, 영상 처리 장치(100,1100a)는 사용자의 기 사용 패턴이 반영된 사용자 프로파일을 결정할 수 있다. 즉, 영상 처리 장치(100,1100a)는 사용자의 기 사용 패턴을 학습하여, 촬영된 영상의 어느 영역을 중심으로 퀵뷰 이미지를 생성할 것인지, 퀵뷰 이미지의 크기는 어느 정도로 할 것인지를 결정할 수 있다. 또한, 영상 처리 장치(100,1100a)는 사용자의 사용 패턴이 변화함에 따라, 사용자 프로파일을 업데이트 할 수 있다.
또한, 일 실시예에 따라, 사용자 입력에 기초하여, 영상 처리 장치(100,1100a)는 사용자 프로파일을 미리 결정할 수 있다. 즉, 영상 처리 장치(100,1100a)는, 사용자 입력에 기초하여, 촬영된 영상의 어느 영역을 중심으로 퀵뷰 이미지를 생성할 것인지, 퀵뷰 이미지의 크기는 어느 정도로 할 것인지를 미리 결정할 수 있다. 따라서, 영상 처리 장치(100,1100a)는 미리 결정된 사용자 프로파일에 따라, 퀵뷰 이미지를 생성할 수 있다.
일 실시예에 따라, 영상 처리 장치(100,1100a)는 촬영된 영상의 유형을 판단할 수 있다. 즉, 영상 처리 장치(100,1100a)는 촬영된 영상을 분석하여, 촬영된 영상이 원거리 인물 사진 유형, 단체 인물 사진 유형, 풍경 사진 유형, 스포츠 활동 사진 유형, 또는 근접 사진 유형 중 어느 유형인지를 판단할 수 있다. 일 실시예에 따라, 영상 처리 장치(100,1100a)는 촬영된 영상의 초점 정보 및 얼굴 인식 정보에 기초하여, 촬영된 영상의 유형을 판단할 수 있다. 예를 들어, 촬영된 영상의 초점이 영상의 후방에 위치하고, 인식된 얼굴이 존재하는 경우, 영상 처리 장치(100,1100a)는 촬영된 영상의 유형이 원거리 인물 사진 유형임을 판단할 수 있다. 따라서, 영상 처리 장치(100,1100a)는 판단된 유형에 대응되는 사용자 프로파일에 따라, 퀵뷰 이미지를 생성할 수 있다. 예를 들어, 단체 사진 유형에 대응되는 사용자 프로파일에 따라, 영상 처리 장치(100,1100a)는 촬영된 영상 내의 인식된 복수의 얼굴 영역들을 복수의 퀵뷰 이미지들로 생성할 수 있다.
일 실시예에 따라, 영상 처리 장치(100,1100a)는 생성된 퀵뷰 이미지를 내부 메모리에 저장할 수 있다. 또한, 영상 처리 장치(100,1100a)는 생성된 퀵뷰 이미지를 퀵뷰 이미지 버퍼(미도시)에 임시 저장할 수 있다.
단계 s1230에서, 영상 처리 장치(100,1100a)는 일 실시예에 따라, 기 설정된 방식에 따라, 생성된 퀵뷰 이미지를 표시할 수 있다. 예를 들어, 영상 처리 장치(100,1100a)는 생성된 퀵뷰 이미지를 소정의 크기만큼 확대하여 영상 처리 장치(100,1100a)의 화면 상에 표시할 수 있다. 또한, 영상 처리 장치(100,1100a)는 생성된 퀵뷰 이미지를 소정의 크기만큼 확대하여 소정의 시간만큼 표시할 수 있다. 또한, 영상 처리 장치(100,1100a)는 복수개의 퀵뷰 이미지들을 각각 기 설정된 시간만큼 확대하여 표시할 수 있다. 또한, 영상 처리 장치(100,1100a)는 사용자의 기 사용 패턴을 학습하여 퀵뷰 이미지를 표시하는 방식을 결정할 수 있다. 또한, 영상 처리 장치(100,1100a)는 퀵뷰 이미지 버퍼에 저장된 퀵뷰 이미지를 표시할 수 있다. 따라서, 영상 처리 장치(100,1100a)는 퀵뷰 이미지 버퍼에 저장된 퀵뷰 이미지를 읽어내어 표시할 수 있으므로, 내부 메모리에 저장된 퀵뷰 이미지를 읽어내어 표시하는 것보다, 더 빠르게 퀵뷰 이미지를 표시할 수 있다.
도 13은 일부 실시예에 따른 영상 처리 장치의 다른 예를 도시한 구성도이다.
예를 들면, 전자 장치(2000)는, 도 1 및 도 11에 도시된 영상 처리 장치(100,1100a)의 전체 또는 일부를 포함할 수 있다. 전자 장치(2000)는 하나 이상의 프로세서(예를 들어, CPU/DSP 또는 AP(application processor))(2010), 통신 모듈(2020), 가입자 식별 모듈(2024), 메모리(2030), 센서 모듈(2040), 입력 장치(2050), 디스플레이(2060), 인터페이스(2070), 오디오 모듈(2080), 카메라 모듈(2091), 전력 관리 모듈(2095), 배터리(2096), 인디케이터(2097), 및 모터(2098) 를 포함할 수 있다.
프로세서(2010)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(2010)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(2010)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(2010)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서(2010)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(2021))를 포함할 수도 있다. 프로세서(2010) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈(2020)은, 예를 들면, 셀룰러 모듈(2021), WiFi 모듈(2023), 블루투스 모듈(2025), GNSS 모듈(2027)(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈(2028) 및 RF(radio frequency) 모듈(2029)를 포함할 수 있다.
셀룰러 모듈(2021)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(2021)은 가입자 식별 모듈(예: SIM 카드)(2024)을 이용하여 통신 네트워크 내에서 전자 장치(2000)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(2021)은 프로세서(2010)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(2021)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
WiFi 모듈(2023), 블루투스 모듈(2025), GNSS 모듈(2027) 또는 NFC 모듈(2028) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(2021), WiFi 모듈(2023), 블루투스 모듈(2025), GNSS 모듈(2027) 또는 NFC 모듈(2028) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈(2029)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(2029)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(2021), WiFi 모듈(2023), 블루투스 모듈(2025), GNSS 모듈(2027) 또는 NFC 모듈(2028) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
가입자 식별 모듈(2024)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(2030)는, 예를 들면, 내장 메모리(2032) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(2032)는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.
외장 메모리(2034)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리(2034)는 다양한 인터페이스를 통하여 전자 장치(2000)와 기능적으로 및/또는 물리적으로 연결될 수 있다.
센서 모듈(2040)은, 예를 들면, 물리량을 계측하거나 전자 장치(2000)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(2040)은, 예를 들면, 제스처 센서(2040A), 자이로 센서(2040B), 기압 센서(2040C), 마그네틱 센서(2040D), 가속도 센서(2040E), 그립 센서(2040F), 근접 센서(2040G), 컬러(color) 센서(2040H)(예: RGB(red, green, blue) 센서), 생체 센서(2040I), 온/습도 센서(2040J), 조도 센서(2040K), 또는 UV(ultra violet) 센서(2040M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈(2040)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(2040)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(2000)는 프로세서(2010)의 일부로서 또는 별도로, 센서 모듈(2040)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(2010)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(2040)을 제어할 수 있다.
입력 장치(2050)는, 예를 들면, 터치 패널(touch panel)(2052),(디지털) 펜 센서(pen sensor)(2054), 키(key)(2056), 또는 초음파(ultrasonic) 입력 장치(2058)를 포함할 수 있다. 터치 패널(2052)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(2052)은 제어 회로를 더 포함할 수도 있다. 터치 패널(2052)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서(2054)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키(2056)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(2058)는 마이크(예: 마이크(2088))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(2060)(예: 표시부(164))는 패널(2062), 홀로그램 장치(2064), 또는 프로젝터(2066)를 포함할 수 있다. 패널(2062)은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널(2062)은 터치 패널(2052)과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치(2064)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(2066)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(2000)의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 디스플레이(2060)는 패널(2062), 홀로그램 장치(2064), 또는 프로젝터(2066)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스(2070)는, 예를 들면, HDMI(high-definition multimedia interface)(2072), USB(universal serial bus)(2074), 광 인터페이스(optical interface)(2076), 또는 D-sub(D-subminiature)(2078)를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스(2070)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(2080)은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(2080)은, 예를 들면, 스피커(2082), 리시버(2084), 이어폰(2086), 또는 마이크(2088) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(2091)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈(2095)은, 예를 들면, 전자 장치(2000)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(2095)은 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(2096)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(2096)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터(2097)는 전자 장치(2000) 또는 그 일부(예: 프로세서(2010))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(2098)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도 3에는 도시되지는 않았으나, 전자 장치(2000)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
상기 살펴 본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.
본 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.

Claims (17)

  1. 촬영된 영상을 획득하는 영상 획득부;
    상기 촬영된 영상의 유형에 따라 결정되는 사용자 프로파일에 기초하여, 상기 촬영된 영상의 일부 영역을 나타내는 퀵뷰 이미지(quick view image)를 생성하는 퀵뷰 이미지 생성부; 및
    기 설정된 방식에 따라, 상기 생성된 퀵뷰 이미지를 표시하는 표시부;를 포함하는, 영상 처리 장치.
  2. 제 1 항에 있어서,
    상기 퀵뷰 이미지 생성부는,
    사용자의 기 사용 패턴을 학습하여, 상기 사용자의 기 사용 패턴이 반영된 사용자 프로파일을 결정하는, 영상 처리 장치.
  3. 제 1 항에 있어서,
    상기 퀵뷰 이미지 생성부는,
    상기 촬영된 영상을 분석하여 상기 유형을 판단하고,
    상기 판단된 유형에 따라 결정되는 사용자 프로파일에 기초하여, 상기 퀵뷰 이미지를 생성하는, 영상 처리 장치.
  4. 제 3 항에 있어서,
    상기 퀵뷰 이미지 생성부는,
    상기 촬영된 영상의 초점 정보 및 얼굴 인식 정보에 기초하여, 상기 촬영된 영상을 분석하는, 영상 처리 장치.
  5. 제 1 항에 있어서,
    상기 사용자 프로파일, 상기 촬영된 영상의 유형, 및 상기 기 설정된 방식 중 적어도 하나는, 사용자의 입력에 기초하여 설정되는, 영상 처리 장치.
  6. 제 1 항에 있어서,
    상기 생성된 퀵뷰 이미지를 임시 저장하는 퀵뷰 이미지 버퍼;를 더 포함하는, 영상 처리 장치.
  7. 제 1 항에 있어서,
    상기 촬영된 이미지의 유형은,
    원거리 인물 사진 유형, 근접 사진 유형, 풍경 사진 유형, 스포츠 활동 사진 유형 및 단체 인물 사진 유형 중 적어도 어느 하나를 포함하는, 영상 처리 장치.
  8. 제 1 항에 있어서,
    상기 영상 획득부는,
    복수의 이미지들을 촬영하고,
    상기 퀵뷰 이미지 생성부는,
    상기 복수의 이미지들에 대응되는 복수의 퀵뷰 이미지들을 생성하고,
    상기 표시부는,
    상기 복수의 이미지들에 대응되는 복수의 썸네일 이미지들 또는 상기 복수의 퀵뷰 이미지들을 표시하는, 영상 처리 장치.
  9. 촬영된 영상을 획득하는 단계;
    상기 촬영된 영상의 유형에 따라 결정되는 사용자 프로파일에 기초하여, 상기 촬영된 영상의 일부 영역을 나타내는 퀵뷰 이미지(quick view image)를 생성하는 단계; 및
    기 설정된 방식에 따라, 상기 생성된 퀵뷰 이미지를 표시하는 단계;를 포함하는, 영상 처리 방법.
  10. 제 9 항에 있어서,
    상기 퀵뷰 이미지를 생성하는 단계는,
    사용자의 기 사용 패턴을 학습하여, 상기 사용자의 기 사용 패턴이 반영된 상기 사용자 프로파일을 결정하는 단계;를 포함하는, 영상 처리 방법.
  11. 제 9 항에 있어서,
    상기 퀵뷰 이미지를 생성하는 단계는,
    상기 촬영된 영상을 분석하여 상기 유형을 판단하는 단계; 및
    상기 판단된 유형에 따라 결정되는 사용자 프로파일에 기초하여, 상기 퀵뷰 이미지를 생성하는 단계;를 포함하는, 영상 처리 방법.
  12. 제 11 항에 있어서,
    상기 유형을 판단하는 단계는,
    상기 촬영된 영상의 초점 정보 및 얼굴 인식 정보에 기초하여, 상기 촬영된 영상을 분석하는 단계를 포함하는, 영상 처리 방법.
  13. 제 9 항에 있어서,
    상기 사용자 프로파일, 상기 촬영된 영상의 유형, 및 상기 기 설정된 방식 중 적어도 하나는, 사용자의 입력에 기초하여 설정되는, 영상 처리 방법.
  14. 제 9 항에 있어서,
    상기 생성된 퀵뷰 이미지를 임시 저장하는 단계;를 더 포함하는, 영상 처리 방법.
  15. 제 9 항에 있어서,
    상기 촬영된 이미지의 유형은,
    원거리 인물 사진 유형, 근접 사진 유형, 풍경 사진 유형, 스포츠 활동 사진 유형 및 단체 인물 사진 유형 중 적어도 어느 하나를 포함하는, 영상 처리 방법.
  16. 제 9 항에 있어서,
    복수의 이미지들을 촬영하는 단계;
    상기 복수의 이미지들에 대응되는 복수의 퀵뷰 이미지들을 생성하는 단계; 및
    상기 복수의 이미지들에 대응되는 복수의 썸네일 이미지들 또는 상기 복수의 퀵뷰 이미지들을 표시하는 단계;를 더 포함하는, 영상 처리 방법.
  17. 제 9 항 내지 제 16 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020150105303A 2015-07-24 2015-07-24 영상 처리 장치 및 그 동작 방법 KR102351496B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150105303A KR102351496B1 (ko) 2015-07-24 2015-07-24 영상 처리 장치 및 그 동작 방법
US15/218,860 US10009545B2 (en) 2015-07-24 2016-07-25 Image processing apparatus and method of operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150105303A KR102351496B1 (ko) 2015-07-24 2015-07-24 영상 처리 장치 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20170011876A true KR20170011876A (ko) 2017-02-02
KR102351496B1 KR102351496B1 (ko) 2022-01-14

Family

ID=57837559

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150105303A KR102351496B1 (ko) 2015-07-24 2015-07-24 영상 처리 장치 및 그 동작 방법

Country Status (2)

Country Link
US (1) US10009545B2 (ko)
KR (1) KR102351496B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230008056A1 (en) * 2019-12-19 2023-01-12 Overflow Biz, Inc. Apparatus for enlarging and displaying screen and relaying same in real time, and operation method therefor

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7140591B2 (ja) * 2018-07-26 2022-09-21 キヤノン株式会社 画像形成装置及びその制御方法、並びにプログラム
JP7419723B2 (ja) * 2019-09-25 2024-01-23 株式会社リコー 画像処理システム、画像処理装置および方法
KR20210092588A (ko) * 2020-01-16 2021-07-26 삼성전자주식회사 영상 처리 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301440B1 (en) * 2000-04-13 2001-10-09 International Business Machines Corp. System and method for automatically setting image acquisition controls
JP2008035246A (ja) * 2006-07-28 2008-02-14 Mitsubishi Space Software Kk 構図評価装置、構図調整装置、画像撮影装置、構図評価プログラム、構図調整プログラム、画像撮影プログラム、構図評価方法、構図調整方法及び画像撮影方法
KR20100075164A (ko) * 2008-12-24 2010-07-02 삼성전자주식회사 촬상 장치 및 촬상 방법
KR20100138140A (ko) * 2009-06-24 2010-12-31 삼성전자주식회사 사용자 패턴을 이용한 구도 데이터베이스 업데이트 방법 및 장치, 및 디지털 촬영 장치
KR101222928B1 (ko) * 2012-05-04 2013-01-17 (주)비즈텍 구도 설정 촬영장치

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006261711A (ja) 2005-03-15 2006-09-28 Seiko Epson Corp 画像生成装置
KR20090077486A (ko) 2008-01-11 2009-07-15 삼성디지털이미징 주식회사 디지털 영상 처리장치 및 그 제어방법
KR20100093955A (ko) 2009-02-17 2010-08-26 삼성전자주식회사 디지털 영상신호 처리장치에서 이미지확대표시방법
KR20120065043A (ko) 2010-12-10 2012-06-20 삼성전자주식회사 빠른 재생 모드 진입을 위한 디지털 영상 신호 처리 장치 및 이의 제어 방법
KR20140034574A (ko) 2012-09-12 2014-03-20 삼성전자주식회사 휴대단말기의 카메라 프리뷰 화면의 표시 방법 및 장치
JP5854235B2 (ja) 2013-02-14 2016-02-09 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
KR20140115729A (ko) 2013-03-22 2014-10-01 엘지전자 주식회사 이동단말 제어방법
US10455143B2 (en) * 2015-03-18 2019-10-22 Gentex Corporation Vehicle display with view control
US11412123B2 (en) * 2015-03-19 2022-08-09 Gentex Corporation Image processing for camera based vehicle display system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301440B1 (en) * 2000-04-13 2001-10-09 International Business Machines Corp. System and method for automatically setting image acquisition controls
JP2008035246A (ja) * 2006-07-28 2008-02-14 Mitsubishi Space Software Kk 構図評価装置、構図調整装置、画像撮影装置、構図評価プログラム、構図調整プログラム、画像撮影プログラム、構図評価方法、構図調整方法及び画像撮影方法
KR20100075164A (ko) * 2008-12-24 2010-07-02 삼성전자주식회사 촬상 장치 및 촬상 방법
KR20100138140A (ko) * 2009-06-24 2010-12-31 삼성전자주식회사 사용자 패턴을 이용한 구도 데이터베이스 업데이트 방법 및 장치, 및 디지털 촬영 장치
KR101222928B1 (ko) * 2012-05-04 2013-01-17 (주)비즈텍 구도 설정 촬영장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230008056A1 (en) * 2019-12-19 2023-01-12 Overflow Biz, Inc. Apparatus for enlarging and displaying screen and relaying same in real time, and operation method therefor

Also Published As

Publication number Publication date
KR102351496B1 (ko) 2022-01-14
US10009545B2 (en) 2018-06-26
US20170026584A1 (en) 2017-01-26

Similar Documents

Publication Publication Date Title
US10511758B2 (en) Image capturing apparatus with autofocus and method of operating the same
EP3076659B1 (en) Photographing apparatus, control method thereof, and non-transitory computer-readable recording medium
KR102446442B1 (ko) 디지털 촬영 장치 및 그 동작 방법
US9692959B2 (en) Image processing apparatus and method
CN105282430B (zh) 使用照片的构图信息的电子装置及使用该装置的拍摄方法
KR102615091B1 (ko) 촬영 장치 및 그 동작 방법
US20180131869A1 (en) Method for processing image and electronic device supporting the same
KR20160016068A (ko) 이미지 생성 방법 및 그 전자 장치
EP3316568B1 (en) Digital photographing device and operation method therefor
KR20170059704A (ko) 촬영 장치 및 그 동작 방법
KR102400998B1 (ko) 사용자의 제스쳐를 이용하여 기능을 제어하는 방법 및 촬영 장치.
US10187566B2 (en) Method and device for generating images
CN108353129B (zh) 拍摄设备及其控制方法
CN108605087A (zh) 终端的拍照方法、拍照装置和终端
US10009545B2 (en) Image processing apparatus and method of operating the same
KR20170014556A (ko) 이동체를 촬영하는 방법 및 촬영 장치.
US10122937B2 (en) Method and apparatus for processing image obtained by camera
KR20170011555A (ko) 디지털 촬영 장치 및 그 방법
CN113709353B (zh) 图像采集方法和设备
KR102494696B1 (ko) 영상을 생성하는 방법 및 디바이스.
KR20200043818A (ko) 전자 장치 및 그의 이미지 촬영 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant