KR20170082841A - 촬영 디바이스 및 그 제어 방법 - Google Patents

촬영 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
KR20170082841A
KR20170082841A KR1020160002089A KR20160002089A KR20170082841A KR 20170082841 A KR20170082841 A KR 20170082841A KR 1020160002089 A KR1020160002089 A KR 1020160002089A KR 20160002089 A KR20160002089 A KR 20160002089A KR 20170082841 A KR20170082841 A KR 20170082841A
Authority
KR
South Korea
Prior art keywords
resolution
image
input image
input
buffer
Prior art date
Application number
KR1020160002089A
Other languages
English (en)
Other versions
KR102591581B1 (ko
Inventor
이영록
홍현석
박상규
이태희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160002089A priority Critical patent/KR102591581B1/ko
Priority to US15/190,585 priority patent/US9871966B2/en
Publication of KR20170082841A publication Critical patent/KR20170082841A/ko
Application granted granted Critical
Publication of KR102591581B1 publication Critical patent/KR102591581B1/ko

Links

Images

Classifications

    • H04N5/2352
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2137Intermediate information storage for one or a few pictures using still video cameras with temporary storage before final recording, e.g. in a frame buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2129Recording in, or reproducing from, a specific memory area or areas, or recording or reproducing at a specific moment
    • H04N1/2133Recording or reproducing at a specific moment, e.g. time interval or time-lapse
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • H04N5/23232
    • H04N5/235
    • H04N5/2355

Abstract

본 개시는 추가적으로 필요한 메모리 용량 및 전력 소비를 최소화하면서 고해상도의 영상을 지속적으로 촬영하기 위한 촬영 디바이스 및 그 제어 방법 에 관한 것으로, 일 실시 예에 따른 촬영 디바이스를 제어하는 방법은 라이브 뷰 영상으로부터 획득한 제1 해상도의 입력 영상을 지속적으로 버퍼에 저장하고, 소정의 시점에 대한 입력에 따라, 소정의 시점에 라이브 뷰 영상으로부터 획득한 제2 해상도의 입력 영상을 버퍼에 저장하며, 촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 제2 해상도의 입력 영상이 버퍼에서 검색되는 경우, 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 생성하고, 촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 제2 해상도의 입력 영상이 버퍼에서 검색되지 않는 경우, 제1 해상도의 입력 영상 중 적어도 하나를 결과 영상으로 생성한다.

Description

촬영 디바이스 및 그 제어 방법{PHOTOGRAPHING APPARATUS AND METHOD FOR CONTROLLING THE SAME}
본 개시의 실시예들은 촬영 디바이스 및 그 제어 방법에 관한 것이다.
일상에서 휴대 기기를 이용하여 영상을 촬영하는 빈도가 높아지면서 영상의 해상도에 대한 기대도 높아졌다. 그러나, 높은 프레임 레이트로 고해상도의 영상을지속적으로 촬영하는 경우, 메모리 및 전력의 소비가 크다는 문제가 있다. 통상의 휴대 기기들은 메모리 크기와 배터리 용량이 제한적이므로 높은 프레임 레이트에서도 고해상도의 영상을 지속적으로 촬영 가능하도록 장치를 구성하는 데에는 많은 비용이 필요하다.
본 실시예들은 추가적으로 필요한 메모리 용량 및 전력 소비를 최소화하면서 고해상도의 영상을 지속적으로 촬영하기 위한 촬영 디바이스 및 그 제어 방법을 제공하고자 한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 라이브 뷰 영상으로부터 획득한 제1 해상도의 입력 영상을 지속적으로 버퍼에 저장하는 단계, 소정의 시점에 대한 입력에 따라, 상기 소정의 시점에 상기 라이브 뷰 영상으로부터 획득한 제2 해상도의 입력 영상을 상기 버퍼에 저장하는 단계 및 촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 생성하고, 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되지 않는 경우, 상기 제1 해상도의 입력 영상 중 적어도 하나를 상기 결과 영상으로 생성하는 단계를 포함하는 촬영 디바이스 제어 방법이 제공될 수 있다.
상기 제1 해상도 및 상기 제2 해상도는 이미지 센서의 설정에 의해 결정되거나, 상기 이미지 센서로부터 획득한 입력 영상을 인코딩(encoding)하는 방법에 의하여 결정될 수 있다.
상기 제2 해상도는 상기 제1 해상도 보다 높을 수 있다.
상기 소정의 시점에 대한 입력은 소정의 설정에 의해 자동으로 수신되거나, 사용자의 조작에 의해 수동으로 수신될 수 있다.
상기 소정의 설정은 소정의 데이터베이스에 저장된 촬영 히스토리 데이터를 기초로 결정될 수 있다.
상기 소정의 설정은 소정의 시간 간격 또는 소정의 프레임 간격을 기초로 하여 주기적으로 결정될 수 있다.
상기 결과 영상은 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상으로 생성될 수 있다.
상기 결과 영상은 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상을 기초로 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 화질을 개선하여 생성될 수 있다.
상기 결과 영상은 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상에 상기 검색된 제2 해상도의 입력 영상과 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 사이의 차이를 반영하여 생성하여 생성될 수 있다.
일 실시예의 또 다른 측면에 따르면, 소정의 시점에 대한 입력을 수신하는 입력부, 버퍼 및 라이브 뷰 영상으로부터 획득한 제1 해상도의 입력 영상을 상기 버퍼에 지속적으로 저장하고, 상기 소정의 시점에 상기 라이브 뷰 영상으로부터 획득한 제2 해상도의 입력 영상을 상기 버퍼에 저장하고, 촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 생성하고, 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되지 않는 경우, 상기 제1 해상도의 입력 영상 중 적어도 하나를 상기 결과 영상으로 생성하는 프로세서를 포함하는 촬영 디바이스가 제공될 수 있다.
상기 제1 해상도 및 상기 제2 해상도는 이미지 센서의 설정에 의해 결정되거나, 상기 이미지 센서로부터 획득한 입력 영상을 인코딩(encoding)하는 방법에 의하여 결정될 수 있다.
상기 제2 해상도는 상기 제1 해상도 보다 높을 수 있다.
상기 소정의 시점에 대한 입력은 소정의 설정에 의해 자동으로 수신되거나, 사용자의 조작에 의해 수동으로 수신될 수 있다.
상기 소정의 설정은 소정의 데이터베이스에 저장된 촬영 히스토리 데이터를 기초로 결정될 수 있다.
상기 소정의 설정은 소정의 시간 간격 또는 소정의 프레임 간격을 기초로 하여 주기적으로 결정될 수 있다.
상기 결과 영상은 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상으로 생성될 수 있다.
상기 결과 영상은 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상을 기초로 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 화질을 개선하여 생성하여 생성될 수 있다.
상기 결과 영상은 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상에 상기 검색된 제2 해상도의 입력 영상과 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 사이의 차이를 반영하여 생성하여 생성될 수 있다.
프로세서에 의해 독출되어 수행되었을 때, 촬영 디바이스를 제어하는 방법을 수행하는 컴퓨터 프로그램 코드들을 저장하는 컴퓨터 판독가능 기록매체에 있어서, 라이브 뷰 영상으로부터 획득한 제1 해상도의 입력 영상을 지속적으로 버퍼에 저장하는 단계, 소정의 시점에 대한 입력에 따라, 상기 소정의 시점에 상기 라이브 뷰 영상으로부터 획득한 제2 해상도의 입력 영상을 상기 버퍼에 저장하는 단계 및 촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 생성하고, 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되지 않는 경우, 상기 제1 해상도의 입력 영상 중 적어도 하나를 상기 결과 영상으로 생성하는 단계를 포함하는 촬영 디바이스 제어 방법을 포함하는 컴퓨터 판독 가능 기록매체가 제공될 수 있다.
실시 예에 따른 촬영 디바이스 및 그 제어 방법은 추가적으로 필요한 메모리 용량 및 전력에 대한 소비를 최소화하면서 고해상도의 영상을 지속적으로 촬영할 수 있다.
    도 1은 일 실시예에 따른 촬영 디바이스의 블록도이다.
    도 2는 다양한 실시예에 따른 네트워크 환경 내에서의 촬영 디바이스에 대한 개략적인 블록도이다.
    도 3은 다양한 실시예에 따른 촬영 디바이스의 개략적인 블록도이다.
    도 4는 일 실시예에 따라 영상을 촬영하는 촬영 디바이스를 제어하는 방법의 흐름도이다.
    도 5는 일 실시예에 따라 이미지 센서의 제어를 통하여 영상을 촬영하는 촬영 디바이스에 대한 블록도이다.
    도 6는 일 실시예에 따라 이미지 센서의 제어를 통하여 획득된 입력 영상들이 버퍼에 저장된 예시를 도시한 도면이다.
    도 7은 일 실시예에 따라 인코딩 타입의 제어를 통하여 영상을 촬영하는 촬영 디바이스에 대한 블록도이다.
    도 8은 일 실시예에 따라 인코딩 타입의 제어를 통하여 영상을 촬영하는 경우, 이미지 센서로부터 획득된 입력 영상들에 대한 예시를 도시한다.
    도 9는 일 실시예에 따라 이미지 센서의 제어를 통하여 영상을 버퍼링하는 촬영 디바이스 제어 방법에 대한 흐름도이다.
    도 10은 일 실시예에 따라 인코딩 타입의 제어를 통하여 영상을 버퍼링하는 촬영 디바이스 제어 방법에 대한 흐름도이다.
이하, 본 명세서는 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 명세서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 명세서의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)도 본 명세서의 내용에 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
   본 명세서에서 사용되는 용어는 본 명세서에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 실시예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 명세서의 전반에 걸친 내용을 토대로 정의되어야 한다.
   또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
   본 명세서에서 모바일 디바이스는 사용자가 휴대 가능한 비교적 작은 크기의 컴퓨터 장치를 의미하는 것으로, 예로는 휴대 전화, PDA, 노트북 등이 있을 수 있다.
본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 명세서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 명세서에서 사용된 "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 명세서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 명세서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 명세서에서 “프레임”이란 동영상을 구성하는 각각의 정지 사진을 의미할 수 있다.
본 명세서에서 “프레임 레이트”란 디스플레이 장치가 프레임을 표시하는 속도를 의미하는 것으로, 주로 1초 동안 보여주는 프레임의 수 즉, FPS(frame per second) 단위로 표현될 수 있다. 통상 1초 동안 보여주는 프레임의 수가 많을수록 피사체의 움직임이 더 부드럽게 표현될 수 있다.
본 명세서에서 “프레임 그룹”이란 일정 구간을 촬영한 복수의 프레임들의 집합을 의미할 수 있다.
본 명세서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 명세서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 명세서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 명세서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 명세서에서 정의된 용어일지라도 본 명세서의 실시예들을 배제하도록 해석될 수 없다.
본 명세서의 다양한 실시예들에 따른 촬영 디바이스는, 예를 들면, 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에 따르면, 웨어러블 장치는 액세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에서, 촬영 디바이스는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 촬영 디바이스는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시예에 따르면, 촬영 디바이스는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 촬영 디바이스는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시예에 따른 촬영 디바이스는 플렉서블 전자 장치일 수 있다. 또한, 본 명세서의 실시예에 따른 촬영 디바이스는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시예에 따른 촬영 디바이스가 설명된다. 본 명세서에서, 사용자라는 용어는 촬영 디바이스를 사용하는 사람 또는 촬영 디바이스를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
    도 1은 일 실시예에 따른 촬영 디바이스의 블록도이다. 촬영 디바이스(300)는 입력부(310), 버퍼(330) 및 프로세서(350)를 포함할 수 있다.
입력부(310)는 영상의 특징을 변경하는 소정의 시점에 대한 입력을 수신할 수 있다. 영상의 특징을 변경하는 소정의 시점은 사용자가 관심을 가지는 중요한 순간일 수 있다. 예를 들어, 영상의 특징을 변경하는 소정의 시점은 야구의 타격 순간, 투수의 투구 순간, 골프 스윙의 임팩트 순간 등의 시점일 수 있다. 사용자는 위 소정의 시점에는 고해상도의 영상을 얻기를 원할 수 있다. 그러나 촬영 디바이스(300)가 지속적으로 고해상도로 촬영을 하는 경우, 메모리 용량 및 전력에 대한 수요가 너무 커질 수 있다. 따라서, 촬영 디바이스(300)는 위 소정의 시점에 대한 입력을 수신하여 적어도 이 시점에만 고해상도의 영상을 얻을 수 있도록 이미지 센서의 설정 또는 인코딩 타입을 변경할 수 있다.
일부 실시예에서 사용자는 소정의 시점으로 결정될 중요한 순간을 미리 설정할 수 있다. 설정된 순간은 다양한 예측 알고리즘에 의해 예측되어 소정의 시점으로 입력될 수 있다.
일부 실시예에서 영상의 특징을 변경하는 소정의 시점은 특별한 의미가 없이 주기적으로 정해진 시점일 수도 있다.
소정의 시점에 대한 입력은 소정의 설정에 의해 자동으로 수신되거나, 사용자의 조작에 의해 수동으로 수신될 수 있다.
예를 들어, 입력부(310)는 데이터베이스에 저장된 촬영 히스토리 데이터를 기초로 영상의 특징을 변경하는 소정의 시점을 자동으로 설정할 수 있다. 또한, 소정의 설정은 사용자에게 유의미한 순간을 예측하는 각종 알고리즘에 의하여 결정되거나, 소정의 시간 간격 또는 소정의 프레임 간격을 기초로 하여 주기적으로 결정될 수도 있다. 그러나 소정의 시점을 자동으로 설정하는 방법이 이에 한정되는 것은 아니다.
다른 일부 실시예에서 소정의 시점에 대한 입력이 동시에 복수의 루트로 이루어질 수도 있다. 이러한 경우, 소정의 시점은 복수의 루트를 종합적으로 고려하여 결정될 수 있다. 예를 들어, 소정의 시점은 주기적으로 정해진 시점으로 이루어지는 입력과, 예측 알고리즘에 의하여 이루어지는 입력을 종합하여 결정될 수 있다.
입력부(310)는 터치 스크린을 통하여 수신되는 터치 입력을 통하여 사용자로부터 소정의 시점에 대한 입력을 수동으로 수신할 수 있다. 또한, 입력부(310)는 휴대 전화 또는 스마트 폰의 각종 버튼에 대한 사용자의 조작을 통하여 수동으로 소정의 시점에 대한 입력을 수신할 수도 있다. 입력부(310)는 음성 명령의 형태로 소정의 시점에 대한 입력을 수동으로 수신할 수도 있다.
버퍼(330)는 촬영 명령이 없는 동안에도 지속적으로 라이브 뷰 영상을 캡쳐하여 저장하고 있는 임시 저장 장치일 수 있다. 버퍼(330)의 용량은 제한적이므로 일정 시간이 지난 데이터는 자동으로 삭제될 수 있다. 버퍼(330)는 한 번의 촬영 과정에서, 입력부(310)가 수신한 소정의 시점에 저장된 고해상도의 영상 및 그 외 시점에 저장된 저해상도의 영상을 모두 포함할 수 있다. 촬영 디바이스(300)는 촬영 명령이 수신되는 경우, 버퍼(330)에 저장된 영상 중 촬영 명령이 수신된 시점에 가장 근접한 영상을 결과 영상으로 선택할 수 있다.
프로세서(350)는 라이브 뷰 영상으로부터 획득한 입력 영상을 제1 해상도로 버퍼(330)에 저장하고, 입력부(310)가 수신한 소정의 시점에 라이브 뷰 영상으로부터 획득한 입력 영상을 제2 해상도로 버퍼(330)에 저장할 수 있다. 제2 해상도는 제1 해상도보다 높은 해상도일 수 있다.
프로세서(350)는 이미지 센서의 설정을 제어하여 제1 해상도 및 제2 해상도사이에서 해상도를 변경하거나, 이미지 센서로부터 획득한 입력 영상을 인코딩(encoding)하는 방법을 제어하여 제1 해상도 및 제2 해상도 사이에서 해상도를 변경할 수 있다. 프로세서(350)가 해상도를 변경하는 방법에 대한 자세한 내용은 도5 내지 도10에서 후술한다.
프로세서(350)는 촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 제2 해상도의 입력 영상이 버퍼(330)에서 검색되는 경우, 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 결정하고, 촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 제2 해상도의 입력 영상이 버퍼(330)에서 검색되지 않는 경우, 제1 해상도의 입력 영상 중 적어도 하나를 결과 영상으로 생성할 수 있다. 이 경우, 임계 시간은 기본 설정으로 정해진 시간이거나 사용자로부터 수신한 시간일 수 있다.
검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 결정한다는 것은 검색된 제2 해상도의 입력 영상을 결과 영상으로 생성하거나, 검색된 제2 해상도의 입력 영상을 기초로 상기 촬영 명령이 수신된 시점의 제1 해상도의 입력 영상 화질을 개선하여 생성하거나 또는 검색된 제2 해상도의 입력 영상에 상기 검색된 제2 해상도의 입력 영상과 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 사이의 차이를 반영하여 생성하는 것을 의미할 수 있다.
제1 해상도의 입력 영상 중 적어도 하나를 결과 영상으로 생성한다는 것은 제1 해상도의 입력 영상 중 촬영 명령이 수신된 시점과 일치하거나, 촬영 명령이 수신된 시점에 가장 근접한 입력 영상을 결과 영상으로 생성한다는 의미일 수 있다.
본 실시예에서 입력부(310), 버퍼(330) 및 프로세서(350)는 별도의 구성 단위로 표현되어 있으나, 일부 실시예에서는 입력부(310), 버퍼(330) 및 프로세서(350)가 합쳐져 동일한 구성 단위로 구현될 수도 있다.
또한 본 실시예에서 입력부(310), 버퍼(330) 및 프로세서(350)는 촬영 디바이스(300) 내부에 인접하여 위치한 구성 단위로 표현되었지만, 입력부(310), 버퍼(330) 및 프로세서(350)의 각 기능을 담당하는 장치는 반드시 물리적으로 인접할 필요는 없으므로, 실시 예에 따라 입력부(310), 버퍼(330) 및 프로세서(350)가 분산되어 있을 수 있다.
또한, 촬영 디바이스(300)는 물리적 장치에 한정되지 않으므로, 촬영 디바이스(300)의 기능 중 일부는 하드웨어가 아닌 소프트웨어로 구현될 수도 있다.
    도 2는 다양한 실시예에 따른 네트워크 환경 내에서의 촬영 디바이스에 대한 개략적인 블록도이다. 촬영 디바이스(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다.
    본 실시예의 입출력 인터페이스(150)는 도1의 입력부(310)의 일부 또는 전부를 포함할 수 있고, 프로세서(120)는 도1의 프로세서(350)의 일부 또는 전부를 포함할 수 있으며, 메모리(130)는 도1의 버퍼(330)의 일부 또는 전부를 포함할 수 있다. 어떤 실시예에서, 촬영 디바이스(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(110)는, 예를 들면, 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서(120)는, 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 촬영 디바이스(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 촬영 디바이스(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다.
프로그램(140)은, 예를 들면, 커널(141), 미들웨어(143), 어플리케이션 프로그래밍 인터페이스(application programming interface(API))(145), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템(operating system(OS))으로 지칭될 수 있다.
입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 촬영 디바이스(101)의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다. 디스플레이(160)는, 예를 들면, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
통신 인터페이스(170)는, 예를 들면, 촬영 디바이스(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.
무선 통신은, 예를 들면, 셀룰러 통신 프로토콜로서, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용할 수 있다. 제 1 및 제 2 외부 전자 장치(102, 104) 각각은 촬영 디바이스(101)와 동일한 또는 다른 종류의 장치일 수 있다. 한 실시예에 따르면, 서버(106)는 하나 또는 그 이상의 서버들의 그룹을 포함할 수 있다. 다양한 실시예에 따르면, 촬영 디바이스(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106))에서 실행될 수 있다. 한 실시예에 따르면, 촬영 디바이스(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 촬영 디바이스(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 촬영 디바이스(101)로 전달할 수 있다. 촬영 디바이스(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 3은 다양한 실시예에 따른 촬영 디바이스의 개략적인 블록도이다.
촬영 디바이스(201)는, 예를 들면, 도 2에 도시된 촬영 디바이스(101)의 전체 또는 일부를 포함할 수 있다. 촬영 디바이스(201)는 하나 이상의 프로세서(예: AP(application processor))(210), 통신 모듈(220), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 카메라 모듈(291)을 포함할 수 있다.
프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈(220)은, 도 2의 통신 인터페이스(170)와 동일 또는 유사한 구성을 가질 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 촬영 디바이스(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 입력 장치(250)는, 예를 들면, 터치 패널(touch panel)(252), (디지털) 펜 센서(pen sensor)(254), 키(key)(256), 또는 초음파(ultrasonic) 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 포함할 수 있다. 카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
본 명세서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 촬영 디바이스의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 촬영 디바이스는 본 명세서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
    도 4는 일 실시예에 따라 영상을 촬영하는 촬영 디바이스를 제어하는 방법의 흐름도이다.
    촬영 디바이스(300)는 단계 S410에서 라이브 뷰 영상으로부터 획득한 입력 영상을 제1 해상도로 버퍼(330)에 저장할 수 있다. 제1 해상도는 소정의 저해상도 또는 촬영 디바이스(300)의 기본 해상도일 수 있다. 촬영 디바이스(300)는 제로 셔터 랙 촬영을 실행하는 경우, 정지 영상 획득을 위하여 라이브 뷰 영상을 지속적으로 캡쳐하여 버퍼(330)에 저장하고, 셔터 입력이 수신된 시점 또는 촬영 명령이 수신된 시점의 영상을 버퍼(330)에서 검색하여 결과 영상으로 생성할 수 있다. 본 명세서에서 제로 셔터 랙 촬영은 촬영 디바이스의 셔터 입력을 수신하는 순간 딜레이(delay) 없이 촬영하는 촬영 방법을 의미할 수 있다.
    촬영 디바이스(300)는 제로 셔터 랙 촬영 외에 동영상 촬영을 하는 경우에도 라이브 뷰 영상을 지속적으로 캡쳐하여 버퍼(330)에 저장함으로써 결과 영상을 획득할 수 있다.
    촬영 디바이스(300)는 단계 S430에서 소정의 시점에 대한 입력에 따라, 소정의 시점에 이미지 센서의 설정을 변경하거나, 인코딩 타입을 변경하여 라이브 뷰 영상으로부터 획득한 입력 영상을 제2 해상도로 버퍼에 저장할 수 있다. 제2 해상도는 소정의 고해상도 또는 촬영 디바이스(300)가 제공하는 최고 해상도일 수 있다.
촬영 디바이스(300)는 소정의 시점에 대한 입력을 수신할 수 있다. 소정의 시점은 촬영 디바이스(300)가 해상도, 노출 시간 등과 같은 영상의 특징을 변경하는 시점으로, 예를 들어 사용자가 관심을 가지는 중요한 순간일 수 있다. 사용자는 위 소정의 시점에는 고해상도의 영상을 얻기를 원할 수 있다.
일부 실시 예에서 영상의 특징을 변경하는 소정의 시점은 특별한 의미가 없이 주기적으로 정해진 시점일 수도 있다.
소정의 시점에 대한 입력은 소정의 설정에 의해 자동으로 수신되거나, 사용자의 조작에 의해 수동으로 수신될 수 있다.
예를 들어, 촬영 디바이스(300)는 데이터베이스에 저장된 촬영 히스토리 데이터를 기초로 영상의 특징을 변경하는 소정의 시점을 자동으로 설정할 수 있다. 또한, 소정의 시점은 사용자에게 유의미한 순간을 예측하는 각종 알고리즘에 의하여 결정되거나, 소정의 시간 간격 또는 소정의 프레임 간격을 기초로 하여 주기적으로 결정될 수도 있다. 그러나 소정의 시점을 자동으로 설정하는 방법이 이에 한정되는 것은 아니다.
촬영 디바이스(300)는 터치 스크린을 통하여 수신되는 터치 입력을 통하여 사용자로부터 소정의 시점에 대한 입력을 수동으로 수신할 수 있다. 또한, 촬영 디바이스(300)는 휴대 전화 또는 스마트 폰의 각종 버튼에 대한 사용자의 조작을 통하여 수동으로 소정의 시점에 대한 입력을 수신할 수도 있다. 촬영 디바이스(300)는 음성 명령의 형태로 소정의 시점에 대한 입력을 수동으로 수신할 수도 있다.
촬영 디바이스(300)는 소정의 시점에 고해상도의 영상을 얻을 수 있도록 이미지 센서의 설정 또는 인코딩 타입을 변경할 수 있다. 이에 대한 자세한 내용은 도5 내지 도10에서 후술한다.
    촬영 디바이스(300)는 단계 S450에서 촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 제2 해상도의 입력 영상이 버퍼(330)에서 검색되는지 판단할 수 있다.
    만일, 검색되는 경우, 촬영 디바이스(300)는 단계 S470에서 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 결정할 수 있다. 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 결정한다는 것은, 검색된 제2 해상도의 입력 영상을 결과 영상으로 생성하거나, 검색된 제2 해상도의 입력 영상을 기초로 상기 촬영 명령이 수신된 시점의 제1 해상도의 입력 영상 화질을 개선하여 생성하거나 또는 검색된 제2 해상도의 입력 영상에 상기 검색된 제2 해상도의 입력 영상과 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 사이의 차이를 반영하여 생성하는 것을 의미할 수 있다.
만일, 검색되지 않는 경우, 촬영 디바이스(300)는 단계 S490에서 버퍼(330)에 저장된 제1 해상도의 입력 영상 중 적어도 하나를 결과 영상으로 생성할 수 있다. 제1 해상도의 입력 영상 중 적어도 하나를 결과 영상으로 생성한다는 것은 제1 해상도의 입력 영상 중 촬영 명령이 수신된 시점과 일치하거나, 촬영 명령이 수신된 시점에 가장 근접한 입력 영상을 결과 영상으로 생성한다는 의미일 수 있다.
    도 5는 일 실시예에 따라 이미지 센서의 제어를 통하여 영상을 촬영하는 촬영 디바이스에 대한 블록도이다. 촬영 디바이스(500)는 이미지 센서(510), 버퍼(530), 예측부(550) 및 프로세서(570)를 포함할 수 있다.
    이미지 센서(510)는 반도체 소자의 제조 기술을 이용하여 집적회로화된 광전변환 소자로서, 광학 신호를 전기 신호로 변환할 수 있다. 촬영 디바이스(500)는 이미지 센서(510)를 설정하는 방법에 따라 해상도가 다른 영상을 획득할 수 있다. 예를 들어, 촬영 디바이스(500)는 이미지 센서(510)가 포함하는 단위 픽셀을 사용하는 정도에 따라 해상도가 다른 영상을 획득할 수 있다. 만일, 이미지 센서(510)가 포함하는 모든 픽셀을 사용하는 경우, 최고 해상도의 영상을 획득할 수 있고, 촬영에 사용되는 픽셀의 비율을 적게 할수록 저해상도의 영상을 획득할 수 있다. 촬영 디바이스(500)는 이미지 센서(510)의 설정을 변경함으로써 소정의 시점에 고해상도의 입력 영상을 획득할 수 있다.
버퍼(530)는 이미지 센서(510)가 생성한 입력 영상을 저장하는 임시 저장 장치일 수 있다. 버퍼(530)는 이미지 센서(510)가 소정의 시점에 생성한 고해상도의 입력 영상 및 이미지 센서(510)가 그 외의 시점에 생성한 저해상도의 입력 영상을 저장하고 있을 수 있다.
    예측부(550)는 버퍼(530)에 소정 수준 이상의 입력 영상이 저장된 경우, 저장된 입력 영상을 이용하여 사용자에게 유의미한 소정의 시점을 예측할 수 있다. 예측부(550)는 소정의 데이터베이스에 저장된 촬영 히스토리 데이터를 함께 이용하여 소정의 시점을 예측할 수 있다.
    또한 예측부(550)는 소정의 알고리즘을 이용하여 사용자에게 유의미한 소정의 시점을 예측할 수도 있다. 일부 실시예에서 예측부(550)는 소정의 시간 간격 또는 소정의 프레임 간격을 기초로 하여 주기적으로 소정의 시점을 결정할 수도 있다.
    예측부(550)는 예측한 소정의 시점을 이미지 센서(510)에 전송하여 이미지 센서(510)가 소정의 시점에 촬영 조건을 변경하도록 정보를 제공할 수 있다.
프로세서(570)는 이미지 센서(510)의 설정을 제어하여 해상도를 변경할 수 있다.
일부 실시예에서는 이미지 센서 제어부가 이미지 센서(510)의 설정을 제어할 수도 있다. 프로세서(570)는 촬영 명령이 수신된 경우, 촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 고해상도의 입력 영상을 버퍼(530)에서 검색할 수 있다. 만일, 고해상도의 입력 영상이 검색되는 경우, 프로세서(570)는 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 결정하고, 검색되지 않는 경우 저해상도의 입력 영상 중 적어도 하나를 결과 영상으로 생성할 수 있다.
검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 결정한다는 것은 검색된 제2 해상도의 입력 영상을 결과 영상으로 생성하거나, 검색된 제2 해상도의 입력 영상을 기초로 상기 촬영 명령이 수신된 시점의 제1 해상도의 입력 영상 화질을 개선하여 생성하거나 또는 검색된 제2 해상도의 입력 영상에 상기 검색된 제2 해상도의 입력 영상과 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 사이의 차이를 반영하여 생성하는 것을 의미할 수 있다.
제1 해상도의 입력 영상 중 적어도 하나를 결과 영상으로 생성한다는 것은 제1 해상도의 입력 영상 중 촬영 명령이 수신된 시점과 일치하거나, 촬영 명령이 수신된 시점에 가장 근접한 입력 영상을 결과 영상으로 생성한다는 의미일 수 있다.
결과 영상은 정지 영상 또는 동영상일 수 있다.
본 실시예에서 이미지 센서(510), 버퍼(530), 예측부(550) 및 프로세서(570)는 별도의 구성 단위로 표현되어 있으나, 일부 실시예에서는 이미지 센서(510), 버퍼(530), 예측부(550) 및 프로세서(570)가 합쳐져 동일한 구성 단위로 구현될 수도 있다.
또한 본 실시예에서 이미지 센서(510), 버퍼(530), 예측부(550) 및 프로세서(570)는 촬영 디바이스(300) 내부에 인접하여 위치한 구성 단위로 표현되었지만, 이미지 센서(510), 버퍼(530), 예측부(550) 및 프로세서(570)의 각 기능을 담당하는 장치는 반드시 물리적으로 인접할 필요는 없으므로, 실시 예에 따라 이미지 센서(510), 버퍼(530), 예측부(550) 및 프로세서(570)가 분산되어 있을 수 있다.
또한, 촬영 디바이스(500)는 물리적 장치에 한정되지 않으므로, 촬영 디바이스(500)의 기능 중 일부는 하드웨어가 아닌 소프트웨어로 구현될 수도 있다.
    도 6는 일 실시예에 따라 이미지 센서의 제어를 통하여 획득된 입력 영상들이 버퍼에 저장된 예시를 도시한 도면이다.
    촬영 디바이스(500)는 버퍼(530)에 고해상도의 영상(610) 및 저해상도의 영상(630)을 함께 저장할 수 있다. 본 실시예는 소정의 시간 간격을 기준으로 소정의 시점을 결정한 경우에 대한 예시일 수 있다. 예를 들어, 사용자는 3초 마다 고해상도의 영상이 획득되도록 촬영 디바이스(500)를 설정할 수 있다.
    높은 프레임 레이트로 동영상 촬영을 진행하는 경우 촬영 디바이스(500)는 전체를 고해상도로 촬영하지 않으므로 촬영에 필요한 메모리 용량 및 전력 소모를 감소시킬 수 있다. 반면, 고해상도로 촬영된 영상을 이용하여 저해상도로 촬영된 영상의 화질을 개선함으로써 전체를 고해상도로 촬영한 것과 유사한 효과를 얻을 수 있다.
    도 7은 일 실시예에 따라 인코딩 타입의 제어를 통하여 영상을 촬영하는 촬영 디바이스에 대한 블록도이다. 촬영 디바이스(700)는 이미지 센서(710), 인코딩부(730), 버퍼(750), 예측부(770) 및 프로세서(790)를 포함할 수 있다.
    이미지 센서(710)는 반도체 소자의 제조 기술을 이용하여 집적회로화된 광전변환 소자로서, 광학 신호를 전기 신호로 변환할 수 있다. 촬영 디바이스(700)는 이미지 센서(710)를 통하여 일정한 해상도의 입력 영상을 획득할 수 있다.
인코딩부(730)는 인코딩 타입의 제어를 통하여 이미지 센서(710)로부터 획득된 입력 영상의 해상도를 변경하여 변경된 해상도의 영상을 버퍼(750)에 저장할 수 있다. 인코딩부(730)는 소정의 시점에는 고해상도 인코딩 타입을 사용하여 고해상도의 입력 영상을 생성하고, 그 외의 시점에는 저해상도 인코딩 타입을 사용하여 저해상도의 입력 영상을 생성할 수 있다.
버퍼(750)는 이미지 센서(710)가 생성한 입력 영상을 저장하는 임시 저장 장치일 수 있다. 버퍼(750)는 이미지 센서(710)가 소정의 시점에 생성한 고해상도의 입력 영상 및 이미지 센서(710)가 소정의 시점이 아닌 시점에 생성한 저해상도의 입력 영상을 저장하고 있을 수 있다.
    예측부(770)는 버퍼(750)에 일정 수준 이상의 입력 영상이 저장된 경우, 저장된 입력 영상을 이용하여 사용자에게 유의미한 소정의 시점을 예측할 수 있다. 예측부(770)는 소정의 데이터베이스에 저장된 촬영 히스토리 데이터를 함께 이용하여 소정의 시점을 예측할 수 있다. 또한 예측부(770)는 소정의 알고리즘을 이용하여 사용자에게 유의미한 소정의 시점을 예측할 수도 있다. 일부 실시예에서 예측부(770)는 소정의 시간 간격 또는 소정의 프레임 간격을 기초로 하여 주기적으로 소정의 시점을 결정할 수도 있다.
    예측부(770)는 예측한 소정의 시점을 인코딩부(730)에 전송하여 인코딩부(730)가 소정의 시점에 인코딩 타입을 변경하도록 정보를 제공할 수 있다.
프로세서(790)는 인코딩 타입을 제어하여 해상도를 변경할 수 있다. 일부 실시예에서는 인코딩 제어부가 인코딩 타입을 결정할 수도 있다. 프로세서(790)는 촬영 명령이 수신된 경우, 촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 고해상도의 입력 영상을 버퍼(750)에서 검색할 수 있다. 만일, 고해상도의 입력 영상이 검색되는 경우, 프로세서(790)는 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 결정하고, 검색되지 않는 경우 저해상도의 입력 영상 중 적어도 하나를 결과 영상으로 생성할 수 있다.
검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 결정한다는 것은 검색된 제2 해상도의 입력 영상을 결과 영상으로 생성하거나, 검색된 제2 해상도의 입력 영상을 기초로 상기 촬영 명령이 수신된 시점의 제1 해상도의 입력 영상 화질을 개선하여 생성하거나 또는 검색된 제2 해상도의 입력 영상에 상기 검색된 제2 해상도의 입력 영상과 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 사이의 차이를 반영하여 생성하는 것을 의미할 수 있다.
제1 해상도의 입력 영상 중 적어도 하나를 결과 영상으로 생성한다는 것은 제1 해상도의 입력 영상 중 촬영 명령이 수신된 시점과 일치하거나, 촬영 명령이 수신된 시점에 가장 근접한 입력 영상을 결과 영상으로 생성한다는 의미일 수 있다.
결과 영상은 정지 영상 또는 동영상일 수 있다.
본 실시예에서 이미지 센서(710), 인코딩부(730), 버퍼(750), 예측부(770) 및 프로세서(790)는 별도의 구성 단위로 표현되어 있으나, 일부 실시예에서는 이미지 센서(710), 인코딩부(730), 버퍼(750), 예측부(770) 및 프로세서(790)가 합쳐져 동일한 구성 단위로 구현될 수도 있다.
또한 본 실시예에서 이미지 센서(710), 인코딩부(730), 버퍼(750), 예측부(770) 및 프로세서(790)는 촬영 디바이스(700) 내부에 인접하여 위치한 구성 단위로 표현되었지만, 이미지 센서(710), 인코딩부(730), 버퍼(750), 예측부(770) 및 프로세서(790)의 각 기능을 담당하는 장치는 반드시 물리적으로 인접할 필요는 없으므로, 실시 예에 따라 이미지 센서(710), 인코딩부(730), 버퍼(750), 예측부(770) 및 프로세서(790)가 분산되어 있을 수 있다.
또한, 촬영 디바이스(700)는 물리적 장치에 한정되지 않으므로, 촬영 디바이스(700)의 기능 중 일부는 하드웨어가 아닌 소프트웨어로 구현될 수도 있다.
    도 8은 일 실시예에 따라 인코딩 타입의 제어를 통하여 영상을 촬영하는 경우, 이미지 센서로부터 획득된 입력 영상들에 대한 예시를 도시한다. 인코딩 타입의 제어를 통하여 영상을 촬영하는 경우, 이미지 센서(710)로부터는 810과 같이 동일한 해상도의 입력 영상들이 획득될 수 있다.
    인코딩 제어 방법을 사용하는 경우, 이미지 센서(710)로부터 동일한 해상도의 입력 영상들이 획득된다는 점에서 이미지 센서 제어 방법을 사용하는 경우, 이미지 센서(510)로부터 고해상도의 입력 영상 및 저해상도의 입력 영상이 도6에 도시된 바와 같이 함께 획득된다는 점과 구별될 수 있다.
    인코딩 타입의 제어를 통하여 영상을 촬영하는 경우에도 버퍼(750)에는 도6과 같이 고해상도의 영상 및 저해상도의 영상이 함께 저장될 수 있다.
    도 9는 일 실시예에 따라 이미지 센서의 제어를 통하여 영상을 버퍼링하는 촬영 디바이스 제어 방법에 대한 흐름도이다.
    본 흐름도는 사용자에 의해 카메라의 전원이 켜지거나, 카메라 애플리케이션이 실행된 시점으로부터 셔터 입력 즉 촬영 명령이 수신되거나 카메라의 전원이 꺼지거나 카메라 애플리케이션이 종료되는 시점 까지의 일련의 과정을 나타낼 수 있다.
    촬영 디바이스(300)가 이미지 센서 제어 방법을 사용하여 영상을 촬영하는 경우, 촬영 디바이스(300)는 미리 센서 제어 모드 및 인코딩 제어 모드 중 센서 제어 모드를 선택할 수 있다.
    촬영 디바이스(300)가 센서 제어 모드로 설정된 경우(S901), 촬영 디바이스(300)는 소정의 시점에 대한 입력을 수신할 수 있다(S903). 소정의 시점에 대한 입력은 소정의 설정에 의해 자동으로 수신되거나, 사용자의 조작에 의해 수동으로 수신될 수 있다. 소정의 시점이 소정의 설정에 의해 자동으로 수신되는 일 실시예에서, 촬영 디바이스(300)는 유의미한 장면을 미리 설정해 두고 다양한 방법으로 유의미한 장면이 출현하는 시점을 예측하여 소정의 시점에 대한 입력으로 인식할 수 있다.
    촬영 디바이스(300)는 현재 시점이 단계 S903에서 수신한 소정의 시점에 해당하는 지 여부를 판단할 수 있다(S905). 만일, 현재 시점이 단계 S903에서 수신한 소정의 시점에 해당하지 않는 경우, 촬영 디바이스(300)는 일련의 센서 제어 파라미터들을 초기화하여(S907), 센서에 적용할 수 있다(S911). 일련의 센서 제어 파라미터들은 일련의 연속된 시점에 대한 각 시점의 센서 제어 파라미터들을 의미할 수 있다. 일련의 센서 제어 파라미터들을 초기화한다는 것은 동일한 해상도로 라이브 뷰 영상을 캡쳐(S913)하도록 파라미터들을 설정하거나 일정한 간격으로 고해상도로 라이브 뷰 영상을 캡쳐하도록 파라미터들을 설정하는 것 등과 같이 파라미터에 대해 초기 설정 하는 것을 의미할 수 있다. 초기화된 파라미터들은 파라미터 변경에 대한 입력이 수신되지 않는 한 동일하게 유지될 수 있다. 라이브 뷰 영상을 캡쳐한다는 것은 이미지 센서가 기 설정된 센서 제어 파라미터의 설정에 따라 라이브 뷰 영상을 캡쳐한다는 것을 의미할 수 있다.
    만일, 현재 시점이 단계 S903에서 수신한 소정의 시점에 해당하는 경우, 촬영 디바이스(300)는 일련의 센서 제어 파라미터들을 변경할 수 있다(S909). 이 경우, 센서 제어 파라미터들은 고해상도의 영상이 라이브 뷰로부터 캡쳐될 수 있도록 변경될 수 있다. 촬영 디바이스(300)는 변경된 센서 제어 파라미터들을 센서에 적용할 수 있다(S911). 변경된 센서 제어 파라미터들은 영상 캡쳐가 완료된 이후에는 다시 초기화될 수 있다. 일 실시예에서, 파라미터 초기화가 일정한 간격으로 고해상도로 라이브 뷰 영상을 캡쳐하도록 이루어진 상태에서 소정의 장면에 대한 예측 알고리즘에 의해 소정의 시점에 대한 입력이 이루어진 경우, 소정의 시점에 고해상도로 라이브 뷰 영상을 캡쳐하는 대신 그 시점 주변 시점의 주기적으로 이루어지는 고해상도의 라이브 뷰 캡쳐는 저해상도의 라이브 뷰 캡쳐로 변경될 수 있다.
촬영 디바이스(300)가 센서 제어 모드로 설정되지 않은 경우(S901), 촬영 디바이스(300)는 일련의 센서 제어 파라미터들을 초기화하여(S907), 센서에 적용할 수 있다(S911). 촬영 디바이스(300)는 라이브 뷰 영상을 캡쳐하여(S913) 버퍼에 저장할 수 있다(S915).     촬영이 종료되지 않는 경우, 촬영 디바이스(300)는 다시 단계 S901을 반복할 수 있다. 반복되는 과정을 통하여 촬영 디바이스(300)는 피사체에 대한 고해상도의 영상과 저해상도의 영상을 함께 버퍼(330)에 저장할 수 있다. 버퍼(330)에 저장된 고해상도의 영상은 결과 영상을 생성하는데 이용될 수 있다.
    도 10은 일 실시예에 따라 인코딩 타입의 제어를 통하여 영상을 버퍼링하는 촬영 디바이스 제어 방법에 대한 흐름도이다. 본 흐름도는 라이브 뷰 영상으로부터 캡쳐한 영상을 인코딩하는 방법에 대한 예시를 도시한다. 본 흐름도는 사용자에 의해 카메라의 전원이 켜지거나, 카메라 애플리케이션이 실행된 시점으로부터 셔터 입력 즉 촬영 명령이 수신되거나 카메라의 전원이 꺼지거나 카메라 애플리케이션이 종료되는 시점 까지의 일련의 과정을 나타낼 수 있다.
    촬영 디바이스(300)는 인코딩 제어 방법을 사용하여 영상을 촬영하는 경우, 미리 센서 제어 모드 및 인코딩 제어 모드 중 인코딩 제어 모드를 선택할 수 있다.
    촬영 디바이스(300)는 인코딩 제어 모드로 설정된 경우(S1001), 소정의 시점에 대한 입력을 수신할 수 있다(S1003). 소정의 시점에 대한 입력은 소정의 설정에 의해 자동으로 수신되거나, 사용자의 조작에 의해 수동으로 수신될 수 있다.
    촬영 디바이스(300)는 현재 시점이 단계 S1003에서 수신한 소정의 시점에 해당하는 지 여부를 판단할 수 있다(1007). 만일, 현재 시점이 단계 S1003에서 수신한 소정의 시점에 해당하는 경우, 촬영 디바이스(300)는 이미지 센서로부터 획득한 입력 영상을 고해상도로 인코딩하여(S1009), 버퍼(330)에 저장할 수 있다(S1019).
만일, 현재 시점이 단계 S1003에서 수신한 소정의 시점에 해당하지 않는 경우, 촬영 디바이스(300)는 버퍼(330)에 저장된 이전 N개 프레임 내에 고해상도 영상이 존재하는지 판단할 수 있다(S1011).
    만일, 이전 N개 프레임 내에 고해상도 영상이 존재하지 않는 경우, 촬영 디바이스(300)는 이미지 센서로부터 획득한 입력 영상을 저해상도로 인코딩하여(S1021), 버퍼에 저장할 수 있다(S1019).
만일, 이전 N개 프레임 내에 고해상도 영상이 존재하는 경우, 촬영 디바이스(300)는 고해상도 영상과 현재 영상 사이의 차분 영상을 추출할 수 있다(S1013). 본 명세서에서 차분 영상이란 현재 영상과 이전에 버퍼(330)에 저장된 고해상도 영상 사이의 차이 영상을 의미할 수 있다.
    촬영 디바이스(300)는 차분 영상의 크기가 임계값보다 작은 경우(S1015), 차분 영상을 고해상도로 인코딩하여(S1017) 버퍼에 저장할 수 있다(S1019). 그러나, 차분 영상의 크기가 임계값보다 크거나 같은 경우(S1015), 촬영 디바이스(300)는 이미지 센서로부터 획득한 입력 영상을 저해상도로 인코딩하여(S1021), 버퍼(330)에 저장할 수 있다(S1019). 차분 영상의 크기가 너무 큰 경우에도 차분 영상을 고해상도로 인코딩할 경우 대부분의 입력 영상이 고해상도로 인코딩되는 결과를 초래할 수도 있기 때문이다.
    촬영이 종료되지 않는 경우, 촬영 디바이스(300)는 다시 단계 S1001을 반복할 수 있다. 반복되는 과정을 통하여 촬영 디바이스(300)는 피사체에 대한 고해상도의 영상과 저해상도의 영상을 함께 버퍼(330)에 저장할 수 있다. 버퍼(330)에 저장된 고해상도의 영상은 결과 영상을 생성하는데 이용될 수 있다.
한편, 본 실시 예는 컴퓨터 판독가능 저장매체에 컴퓨터가 판독 가능한 코드를 저장하여 구현하는 것이 가능하다. 상기 컴퓨터 판독가능 저장매체는 컴퓨터 시스템에 의하여 판독될 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다.
상기 컴퓨터가 판독 가능한 코드는, 상기 컴퓨터 판독가능 저장매체로부터 프로세서에 의하여 독출되어 실행될 때, 본 실시 예에 따른 촬영 디바이스 제어 방법을 구현하는 단계들을 수행하도록 구성된다. 상기 컴퓨터가 판독 가능한 코드는 다양한 프로그래밍 언어들로 구현될 수 있다. 그리고 본 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 실시 예가 속하는 기술분야의 통상의 기술자들에 의하여 용이하게 프로그래밍될 수 있다.
컴퓨터 판독가능 저장매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 반송파(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터 판독가능 저장매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행되는 것도 가능하다.
   전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일 형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
   본 실시 예의 범위는 위 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 실시 예 범위에 포함되는 것으로 해석되어야 한다.

Claims (19)

  1. 라이브 뷰 영상으로부터 획득한 제1 해상도의 입력 영상을 지속적으로 버퍼에 저장하는 단계;
    소정의 시점에 대한 입력에 따라, 상기 소정의 시점에 상기 라이브 뷰 영상으로부터 획득한 제2 해상도의 입력 영상을 상기 버퍼에 저장하는 단계; 및
    촬영 명령이 수신된 시점으로부터 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 생성하고, 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되지 않는 경우, 상기 지속적으로 저장된 제1 해상도의 입력 영상 중 적어도 하나의 입력 영상을 상기 결과 영상으로 생성하는 단계를 포함하는 촬영 디바이스 제어 방법.
  2. 제1항에 있어서, 상기 제1 해상도 및 상기 제2 해상도는,
    이미지 센서의 설정에 의해 결정되거나, 상기 이미지 센서로부터 획득한 입력 영상을 인코딩(encoding)하는 타입에 의하여 결정되는 촬영 디바이스 제어 방법.
  3. 제1항에 있어서,
    상기 제2 해상도는 상기 제1 해상도 보다 높은 것을 특징으로 하는 촬영 디바이스 제어 방법.
  4. 제1항에 있어서, 상기 소정의 시점에 대한 입력은,
    소정의 설정에 의해 자동으로 수신되거나, 사용자의 조작에 의해 수동으로 수신되는 촬영 디바이스 제어 방법.
  5. 제4항에 있어서, 상기 소정의 설정은,
    소정의 데이터베이스에 저장된 촬영 히스토리 데이터를 기초로 결정되는 촬영 디바이스 제어 방법.
  6. 제4항에 있어서, 상기 소정의 설정은,
    소정의 시간 간격 또는 소정의 프레임 간격을 기초로 하여 주기적으로 결정되는 촬영 디바이스 제어 방법.
  7. 제1항에 있어서, 상기 결과 영상은,
    상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상으로 생성되는 촬영 디바이스 제어 방법.
  8. 제1항에 있어서, 상기 결과 영상은,
    상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상을 기초로 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 화질을 개선하여 생성되는 촬영 디바이스 제어 방법.
  9. 제1항에 있어서, 상기 결과 영상은,
    상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상에 상기 검색된 제2 해상도의 입력 영상과 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 사이의 차이를 반영하여 생성되는 촬영 디바이스.
  10. 소정의 시점에 대한 입력을 수신하는 입력부;
    버퍼; 및
    라이브 뷰 영상으로부터 획득한 제1 해상도의 입력 영상을 지속적으로 상기 버퍼에 저장하고, 상기 소정의 시점에 상기 라이브 뷰 영상으로부터 획득한 제2 해상도의 입력 영상을 상기 버퍼에 저장하고, 촬영 명령을 수신한 시점으로부터 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상을 기초로 결과 영상을 생성하고, 상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되지 않는 경우, 상기 제1 해상도의 입력 영상 중 적어도 하나를 상기 결과 영상으로 생성하는 프로세서를 포함하는 촬영 디바이스.
  11. 제10항에 있어서, 상기 제1 해상도 및 상기 제2 해상도는,
    이미지 센서의 설정에 의해 결정되거나, 상기 이미지 센서로부터 획득한 입력 영상을 인코딩(encoding)하는 타입에 의하여 결정되는 촬영 디바이스.
  12. 제10항에 있어서,
    상기 제2 해상도는 상기 제1 해상도 보다 높은 것을 특징으로 하는 촬영 디바이스.
  13. 제10항에 있어서, 상기 소정의 시점에 대한 입력은,
    소정의 설정에 의해 자동으로 수신되거나, 사용자의 조작에 의해 수동으로 수신되는 촬영 디바이스.
  14. 제13항에 있어서, 상기 소정의 설정은,
    소정의 데이터베이스에 저장된 촬영 히스토리 데이터를 기초로 결정되는 촬영 디바이스.
  15. 제13항에 있어서, 상기 소정의 설정은,
    소정의 시간 간격 또는 소정의 프레임 간격을 기초로 하여 주기적으로 결정되는 촬영 디바이스.
  16. 제10항에 있어서, 상기 결과 영상은,
    상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상으로 생성되는 촬영 디바이스.
  17. 제10항에 있어서, 상기 결과 영상은,
    상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상을 기초로 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 화질을 개선하여 생성되는 촬영 디바이스.
  18. 제10항에 있어서, 상기 결과 영상은,
    상기 촬영 명령이 수신된 시점으로부터 상기 임계 시간 이내에 저장된 상기 제2 해상도의 입력 영상이 상기 버퍼에서 검색되는 경우, 상기 검색된 제2 해상도의 입력 영상에 상기 검색된 제2 해상도의 입력 영상과 상기 촬영 명령이 수신된 시점의 상기 제1 해상도의 입력 영상 사이의 차이를 반영하여 생성되는 촬영 디바이스.
  19. 제1항 내지 제9항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020160002089A 2016-01-07 2016-01-07 촬영 디바이스 및 그 제어 방법 KR102591581B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160002089A KR102591581B1 (ko) 2016-01-07 2016-01-07 촬영 디바이스 및 그 제어 방법
US15/190,585 US9871966B2 (en) 2016-01-07 2016-06-23 Photographing apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160002089A KR102591581B1 (ko) 2016-01-07 2016-01-07 촬영 디바이스 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20170082841A true KR20170082841A (ko) 2017-07-17
KR102591581B1 KR102591581B1 (ko) 2023-10-20

Family

ID=59276375

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160002089A KR102591581B1 (ko) 2016-01-07 2016-01-07 촬영 디바이스 및 그 제어 방법

Country Status (2)

Country Link
US (1) US9871966B2 (ko)
KR (1) KR102591581B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172901A1 (ko) * 2020-02-25 2021-09-02 삼성전자 주식회사 카메라 프리뷰를 제공하는 전자 장치 및 그 동작 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070046785A1 (en) * 2005-08-31 2007-03-01 Kabushiki Kaisha Toshiba Imaging device and method for capturing image
US20090002504A1 (en) * 2006-03-03 2009-01-01 Olympus Corporation Image acquisition apparatus, resolution enhancing method, and recording medium
JP2009077362A (ja) * 2007-08-24 2009-04-09 Sony Corp 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3562049B2 (ja) * 1995-07-21 2004-09-08 セイコーエプソン株式会社 映像表示方法および装置
US6992707B2 (en) * 2002-03-06 2006-01-31 Hewlett-Packard Development Company, L.P. Delayed encoding based joint video and still image pipeline with still burst mode
US7683942B2 (en) * 2004-05-18 2010-03-23 Canon Kabushiki Kaisha Information recording apparatus and control method thereof
EP2082571B1 (en) * 2006-11-07 2016-05-04 Thomson Licensing Method for reducing channel change times and synchronizing audio/video content during channel change
JP4710887B2 (ja) * 2007-08-09 2011-06-29 ソニー株式会社 画像処理装置、及び、画像処理装置の制御方法
JP4565015B2 (ja) * 2008-05-15 2010-10-20 シャープ株式会社 画像処理装置、画像形成装置、画像処理システム、画像処理プログラムおよびその記録媒体
US8385422B2 (en) * 2008-08-04 2013-02-26 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP4427599B1 (ja) * 2008-11-28 2010-03-10 株式会社東芝 画像処理装置、受信装置および表示装置
KR101606931B1 (ko) 2009-02-11 2016-04-11 엘지이노텍 주식회사 키프레임 정지영상 저장 및 재생 장치 및 그 동작 방법
US8724928B2 (en) * 2009-08-31 2014-05-13 Intellectual Ventures Fund 83 Llc Using captured high and low resolution images
US9154700B2 (en) * 2009-10-16 2015-10-06 Samsung Electronics Co., Ltd. Apparatus and method for image capture using image stored in camera
US8493464B2 (en) * 2010-06-18 2013-07-23 Altek Corporation Resolution adjusting method
JP5733565B2 (ja) * 2011-03-18 2015-06-10 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5867424B2 (ja) * 2013-02-28 2016-02-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム
EP2974265B1 (en) * 2013-03-15 2019-02-13 Canon Kabushiki Kaisha Imaging apparatus and imaging apparatus control method
US9134948B1 (en) * 2013-12-11 2015-09-15 Google Inc. Method and system for detecting and serving high-resolution images to high-resolution devices
JP6366268B2 (ja) * 2013-12-25 2018-08-01 キヤノン株式会社 撮像装置及びその制御方法
JP6335563B2 (ja) * 2014-03-18 2018-05-30 キヤノン株式会社 撮像装置及びその制御方法
JP2015195572A (ja) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 コンテンツ処理装置およびコンテンツ処理方法
CN105100829B (zh) * 2015-06-29 2019-07-02 小米科技有限责任公司 视频内容截取方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070046785A1 (en) * 2005-08-31 2007-03-01 Kabushiki Kaisha Toshiba Imaging device and method for capturing image
US20090002504A1 (en) * 2006-03-03 2009-01-01 Olympus Corporation Image acquisition apparatus, resolution enhancing method, and recording medium
JP2009077362A (ja) * 2007-08-24 2009-04-09 Sony Corp 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172901A1 (ko) * 2020-02-25 2021-09-02 삼성전자 주식회사 카메라 프리뷰를 제공하는 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
KR102591581B1 (ko) 2023-10-20
US20170201680A1 (en) 2017-07-13
US9871966B2 (en) 2018-01-16

Similar Documents

Publication Publication Date Title
CN107040714B (zh) 拍摄设备及其控制方法
KR102485127B1 (ko) 카메라의 방향에 따라 프리뷰 이미지의 위치를 변경하기 위한 전자 장치 및 방법
US11004223B2 (en) Method and device for obtaining image, and recording medium thereof
KR102457724B1 (ko) 영상 처리를 수행하기 위한 방법 및 그 전자 장치
KR102622754B1 (ko) 이미지 합성 방법 및 이를 지원하는 전자 장치
KR102360453B1 (ko) 카메라 설정 방법 및 장치
US20180025478A1 (en) Electronic device for processing image
KR20180081362A (ko) 촬영 방법 및 전자 장치
US10809710B2 (en) Method for controlling unmanned aerial vehicle and electronic device for controlling unmanned aerial vehicle
KR20170031525A (ko) 디스플레이 사이의 각도를 측정하는 방법 및 이를 사용하는 전자 장치
KR102657050B1 (ko) 전자 장치 및 전자 장치에서의 영상을 촬영하기 위한 방법
CN106254807B (zh) 提取静止图像的电子设备和方法
EP3476119B1 (en) Method for controlling multi-filed of view image and electronic device for supporting the same
KR102504308B1 (ko) 디스플레이의 밝기를 제어하는 방법, 전자 장치 및 컴퓨터 판독가능 기록매체
US9767360B2 (en) Image processing method and electronic device implementing the same
KR20160099435A (ko) 카메라 시스템의 제어 방법, 전자 장치 및 저장 매체
KR20160114434A (ko) 전자 장치 및 전자 장치의 이미지 촬영 방법
KR102457247B1 (ko) 이미지를 처리하는 전자 장치 및 그 제어 방법
US20180322908A1 (en) Method for giving dynamic effect to video and electronic device thereof
KR102452973B1 (ko) 영상 처리 방법 및 이를 지원하는 전자 장치
KR20170082841A (ko) 촬영 디바이스 및 그 제어 방법
KR102352680B1 (ko) 촬영 디바이스 및 그 제어 방법
US20240073514A1 (en) System and method for detecting a user intent to start a video recording

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant