KR20180102626A - 합성 장시간 노출에 대한 실시간 업데이트 - Google Patents

합성 장시간 노출에 대한 실시간 업데이트 Download PDF

Info

Publication number
KR20180102626A
KR20180102626A KR1020187023039A KR20187023039A KR20180102626A KR 20180102626 A KR20180102626 A KR 20180102626A KR 1020187023039 A KR1020187023039 A KR 1020187023039A KR 20187023039 A KR20187023039 A KR 20187023039A KR 20180102626 A KR20180102626 A KR 20180102626A
Authority
KR
South Korea
Prior art keywords
image
time interval
exposure time
buffer
aggregate
Prior art date
Application number
KR1020187023039A
Other languages
English (en)
Other versions
KR102156304B1 (ko
Inventor
사무엘 윌리엄 하시노프
지아웬 첸
Original Assignee
구글 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 엘엘씨 filed Critical 구글 엘엘씨
Publication of KR20180102626A publication Critical patent/KR20180102626A/ko
Application granted granted Critical
Publication of KR102156304B1 publication Critical patent/KR102156304B1/ko

Links

Images

Classifications

    • H04N5/2355
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2137Intermediate information storage for one or a few pictures using still video cameras with temporary storage before final recording, e.g. in a frame buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • H04N5/23216
    • H04N5/23293
    • H04N5/2353
    • H04N5/35581

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

이미지 캡처 디바이스의 이미지 센서는 이미지를 캡처할 수 있다. 캡처된 이미지는 2개 이상의 이전에 캡처된 이미지들의 버퍼에 저장될 수 있다. 이전에 캡처한 2개 이상의 이미지들 중 가장 오래된 이미지가 버퍼에서 제거될 수 있다. 버퍼 내의 이미지들에 대한 총계 이미지가 업데이트될 수 있다. 이 업데이트는 총계 이미지로부터 가장 오래된 이미지의 표현을 감산하고, 캡처된 이미지의 표현을 총계 이미지에 추가하는 것을 포함할 수 있다. 이미지 캡처 디바이스의 뷰파인더는 총계 이미지의 표현을 디스플레이할 수 있다.

Description

합성 장시간 노출에 대한 실시간 업데이트
본 발명은 이미지 처리 방법 및 이미지 캡처 디바이스에 관한 발명이다.
특정 노출 길이로 캡처된 이미지의 합성 장시간 노출 버전(synthetic long exposure version)을 생성하는 것은 이미지의 적어도 일부 픽셀에 디지털 또는 아날로그 이득을 적용하는 것을 포함할 수 있다. 이러한 방식으로, 조명이 약한 장면의 이미지를 밝게할 수 있으므로, 일부 경우들에서 상기 장면의 세부 사항들이 보다 용이하게 보여질 수 있다. 이러한 합성 장시간 노출 이미지가 이미지 캡처 디바이스의 뷰파인더(viewfinder) 상에 디스플레이될 수 있지만, 진정한 장시간 노출 이미지가 캡처된 경우에 나타나는 이미지를 정확히 나타내지 않을 수도 있다. 예를 들어, 장면에서 모션이 있는 경우, 이러한 모션은 실제 장시간 노출 이미지에서는 흐리게 보이거나 줄무늬(streakys)로 나타날 수 있지만, 상기 모션은 합성 장시간 노출 이미지에서는 덜 흐릿해지고 줄무늬가 적을 수 있다(less streaky). 결과적으로, 사용자는, 실제 캡처된 장시간 노출 이미지들을 뷰파인더 상에 정확하게 나타내지 않는 이미지 캡처 디바이스에 의해 좌절될 수 있다.
무선 컴퓨팅 디바이스, 디지털 카메라, 헤드 마운트 디스플레이 등과 같은 이미지 캡처 디바이스는, 장면을 나타내는 일련의 캡처된 이미지들을 디스플레이하는 뷰파인더(예컨대, 스크린)를 포함할 수 있다. 이들 뷰파인더 이미지들은 시간 상으로 연속적으로 캡처될 수 있으며(아마도 몇 밀리 초 또는 그 이하만큼 서로 이격되어), 뷰파인더에 순차적으로 표시될 수 있다. 따라서, 뷰파인더에 표시된 정보는 뷰파인더 리프레시 속도(예컨대, 초당 15-30 프레임)로 업데이트될 수 있으며, 따라서 일련의 뷰파인더 이미지들은 라이브 비디오와 유사하다. 사용자는 이미지 캡처 디바이스의 설정을 조정하거나 및/또는 하나 이상의 페이로드 이미지를 캡처하기 위해 셔터 기능을 트리거링할 때 이러한 뷰파인더 이미지들에 의존할 수 있다. 페이로드 이미지는 디스플레이 또는 추가 프로세싱을 위해 메모리에 저장될 수 있다.
이미지 캡처 디바이스가 뷰파인더 이미지들을 이미 캡처하고 있다고 가정하면, 연속적인 뷰파인더 이미지들의 시퀀스의 픽셀 값들을 부가함으로써, 이들 뷰파인더 이미지들의 합성 장시간 노출이 생성될 수 있다. 캡처된 뷰파인더 이미지들의 링 버퍼(ring buffer)(또는 유사한 표현)가 유지될 수 있다. 또한, 가장 최근의 뷰파인더 이미지들의 러닝 합계(running sum)는 총계 뷰파인더 이미지(aggregate viewfinder image)에서 유지될 수 있다. 새로운 뷰파인더 이미지가 캡처되면, 이러한 새로운 이미지는 총계 뷰파인더 이미지에 부가되며, 그리고 총계 뷰파인더 이미지에 기여하는 가장 오래된 프레임(링 버퍼에 의해 표시됨)이 총계 뷰파인더 이미지로부터 차감된다. 다음으로, 상기 새로운 뷰파인더 이미지가 링 버퍼의 가장 오래된 프레임을 대체한다.
뷰파인더가 리프레시될 때마다, 가장 최근에 캡처한 뷰파인더 이미지 대신에, 총계 뷰파인더 이미지가 뷰파인더 상에 디스플레이될 수 있다. 이러한 방식으로, 뷰파인더는 예측된 모션 블러를 갖는 매우 장시간의 노출(예를 들어, 1000-2000 밀리 초)을 나타낼 수 있지만, 훨씬 더 빠른 뷰파인더 리프레시 속도로 여전히 업데이트될 것이다.
따라서, 제 1 실시예는 이미지를 캡처하는 이미지 캡처 디바이스의 이미지 센서를 포함할 수 있다. 캡처된 이미지는 2개 이상의 이전에 캡처된 이미지들의 버퍼에 저장될 수 있다. 이전에 캡처한 2개 이상의 이미지들 중 가장 오래된 이미지가 버퍼에서 제거될 수 있다. 버퍼 내의 이미지들의 총계 이미지가 업데이트될 수 있다. 이러한 업데이트는 총계 이미지로부터 가장 오래된 이미지의 표현을 차감하고, 그리고 캡처된 이미지의 표현을 상기 총계 이미지에 부가하는 것을 포함할 수 있다. 이미지 캡처 디바이스의 뷰파인더는 총계 이미지에 대한 표현을 디스플레이할 수 있다.
제 2 실시예에서, 제조 물품은 컴퓨터 판독가능 매체를 포함할 수 있는바, 컴퓨터 판독가능 매체에는, 컴퓨팅 디바이스에 의한 실행시, 상기 컴퓨팅 디바이스로 하여금 상기 제 1 실시예에 따른 동작을 수행하게 하는 프로그램 명령들이 저장될 수 있다.
제 3 실시예에서, 컴퓨팅 디바이스는 적어도 하나의 프로세서 뿐만 아니라 데이터 저장부 및 프로그램 명령들을 포함할 수 있다. 프로그램 명령들은 데이터 저장부에 저장될 수 있고, 상기 적어도 하나의 프로세서에 의한 실행시, 컴퓨팅 디바이스로 하여금 제 1 실시예에 따른 동작을 수행하게 할 수 있다.
제 4 실시예에서, 시스템은 제 1 실시예의 동작들 중 각각을 수행하기 위한 다양한 수단들을 포함할 수 있다.
이들 뿐만 아니라 다른 실시예들, 양상들, 장점들, 및 대안예들은, 적절한 도면을 참조하여 이하의 상세한 설명을 숙독함으로써 당업자에게 명백해질 것이다. 또한, 본 명세서에 제공된 이러한 개요 및 다른 설명 및 도면은 단지 일례로서 실시예를 설명하기 위한 것이며, 그 자체로 많은 변형예들이 가능함을 이해해야 한다. 예를 들어, 구조적 요소들 및 처리 단계들은 청구된 실시예들의 범위 내에서 재배열, 결합, 분배, 제거 또는 변경될 수 있다.
도 1은 예시적인 실시예들에 따른 디지털 카메라 디바이스의 전면, 우측면, 후면을 도시한다.
도 2는 예시적인 실시예들에 따른 이미지 캡처 능력을 가진 컴퓨팅 디바이스의 블록도를 도시한다.
도 3은 예시적인 실시예에 따른, 이미지 캡처의 타이밍을 도시한다.
도 4는 예시적인 실시예에 따른, 캡처된 이미지들의 프로세싱을 도시한다.
도 5는 예시적인 실시예에 따른 사용자 인터페이스를 도시한다.
도 6은 예시적인 실시예에 따른 사용자 인터페이스를 도시한다.
도 7은 예시적인 실시예에 따른 순서도이다.
도 8은 예시적인 실시예에 따른 순서도이다.
예시적인 방법들, 디바이스들 및 시스템들이 설명된다. 다음을 유의해야 하는바, "일례" 및 "예시적인" 이라는 단어는 본 명세서에서 "일례, 사례, 또는 설명으로서 제공되는" 을 의미하는 것으로 사용된다. "일례" 또는 "예시적인" 것으로서 본 명세서에 설명된 임의의 실시예 또는 피처들은 다른 실시예들 또는 피처들보다 바람직하거나 유리한 것으로 해석될 필요는 없다. 본 명세서에 제시된 본 발명의 범위를 벗어남이 없이, 다른 실시예들이 이용될 수 있으며 다른 변경들이 이루어질 수도 있다.
따라서, 본 명세서에 설명된 예시적인 실시예들은 이들만으로 제한되는 것을 의미하는 것이 아니다. 본 명세서에 일반적으로 기술되고 도면에 예시된 바와 같은 본 개시의 양상들은 본 명세서에서 모두 고려되는 다양한 상이한 구성들로 배열, 대체, 결합, 분리 및 설계될 수 있다.
또한, 문맥에서 달리 제시되지 않는 한, 각 도면에 도시된 피처들은 서로 조합되어 사용될 수 있다. 따라서, 예시된 모든 피처들이 각 실시예에 필수적인 것은 아니라는 점을 이해하면서, 도면들은 하나 이상의 전체 실시예의 컴포넌트적인 측면으로서 일반적으로 간주되어야 한다.
문맥에 따라 "카메라"는 개별 이미지 캡처 컴포넌트를 지칭하거나 또는 하나 이상의 이미지 캡처 컴포넌트를 포함하는 디바이스를 지칭할 수도 있다. 일반적으로, 이미지 캡처 컴포넌트는 아래에 설명된 것처럼 조리개, 렌즈, 레코딩 표면 및 셔터를 포함할 수 있다.
1. 이미지 캡처 디바이스의 일례
카메라와 같은 이미지 캡처 디바이스가 점점 대중화됨에 따라 이들 디바이스는 독립 하드웨어 디바이스로서 사용되거나 또는 다양한 다른 유형들의 디바이스들 내에 통합될 수 있다. 예를 들어, 스틸 및 비디오 카메라는 현재 무선 컴퓨팅 디바이스(예컨대, 휴대폰), 태블릿 컴퓨터, 랩톱 컴퓨터, 비디오 게임 인터페이스, 홈 오토메이션 디바이스, 심지어 자동차 및 기타 유형의 차량에도 통상적으로 포함된다.
카메라의 물리적 컴포넌트는, 빛이 입사되는 하나 이상의 조리개들(apertures), 빛에 의해 표상되는 이미지들을 캡처하기 위한 하나 이상의 레코딩 표면들, 및 각각의 조리개 앞에 위치되어 이미지의 적어도 일부분을 상기 레코딩 표면 상에 포커싱하기 위한 렌즈들을 포함한다. 조리개는 고정된 크기를 갖거나 또는 조정가능할 수 있다. 아날로그 카메라에서 레코딩 표면은 사진 필름일 수 있다. 디지털 카메라에서, 레코딩 표면은 캡처된 이미지를 데이터 저장 유닛(예컨대, 메모리)에 전송 및/또는 저장하기 위한 전자 이미지 센서(예컨대, 전하 결합 소자(CCD) 또는 상보형 금속 산화물 반도체(CMOS) 센서)를 포함할 수 있다.
하나 이상의 셔터들은 렌즈 또는 레코딩 표면에 결합되거나 또는 그 근처에 있을 수 있다. 각각의 셔터는 빛이 레코딩 표면에 도달하는 것을 차단하는 닫힌 위치 또는 광이 레코딩 표면에 도달하도록 허용되는 열린 위치에 있을 수 있다. 각 셔터의 위치는 셔터 버튼에 의해 제어될 수 있다. 예를 들어, 셔터는 디폴트로 닫힌 위치에 있을 수 있다. 셔터 버튼이 트리거링되면(예컨대, 눌려지면), 셔터는 셔터 사이클이라고 하는 시간 기간 동안 닫힌 위치에서 열린 위치로 바뀔 수 있다. 셔터 사이클 동안 이미지가 레코딩 표면에 캡처될 수 있다. 셔터 사이클이 끝나면 셔터는 닫힌 위치로 다시 변경될 수 있다.
대안적으로, 셔터링 프로세스는 전자적일 수도 있다. 예를 들어, CCD 이미지 센서의 전자 셔터가 "열리기" 전에, 상기 센서는 포토다이오드들에 있는 임의의 잔류 신호를 제거하도록 리셋될 수 있다. 전자 셔터가 열려 있는 동안 포토다이오드는 전하를 축적할 수 있다. 셔터가 닫히거나 닫힌 후에 이러한 전하는 장기 데이터 저장 디바이스로 전송될 수 있다. 기계적 및 전자적 셔터링의 조합도 가능할 수 있다.
유형에 상관없이, 셔터는 셔터 버튼 이외의 것에 의해 활성화 및/또는 제어될 수 있다. 예를 들어, 소프트 키, 타이머 또는 다른 트리거에 의해 셔터가 활성화될 수 있다. 본 명세서에서, "이미지 캡처"라는 용어는 셔터링 프로세스가 트리거되거나 제어되는 방식에 관계없이, 하나 이상의 이미지가 레코딩되는 임의의 기계적 및/또는 전자적 셔터링 프로세스를 지칭할 수 있다.
캡처된 이미지에 대한 노출은, 조리개의 크기, 조리개로 진입하는 빛의 밝기, 및 셔터 사이클의 길이((셔터 길이 또는 노출 길이라고 지칭될 수도 있음)의 조합에 의해 결정될 수 있다. 또한, 디지털 및/또는 아날로그 이득이 이미지에 적용될 수 있으며, 따라서 노출에 영향을 줄 수 있다. 일부 실시예에서, "노출 길이", "노출 시간" 또는 "노출 시간 간격" 이라는 용어는, 특정 조리개 사이즈에 대해서 이득이 곱해진 셔터 길이를 지칭할 수 있다. 따라서, 이들 용어는 다소 상호 교환가능하게 사용될 수 있고, 셔터 길이, 노출 시간, 및/또는 레코딩 표면에 도달하는 광으로부터 야기되는 신호 응답의 양을 제어하는 임의의 다른 메트릭일 수 있는 것으로 해석되어야 한다.
스틸 카메라는 이미지 캡처가 트리거될 때마다 하나 이상의 이미지를 캡처할 수 있다. 비디오 카메라는 이미지 캡처가 트리거링되어 있는 한(예컨대, 셔터 버튼을 누르고 있는 동안), 특정 속도(예컨대, 초당 24 이미지 또는 프레임)로 이미지를 연속적으로 캡처할 수 있다. 일부 디지털 스틸 카메라는 카메라 디바이스 또는 어플리케이션이 활성화될 때 셔터를 개방할 수 있으며, 상기 셔터는 카메라 디바이스 또는 어플리케이션이 비활성화될 때까지 개방 위치로 남아있을 수 있다. 셔터가 열려있는 동안, 카메라 디바이스 또는 어플리케이션은 장면에 대한 표시를 캡처하여 뷰파인더에 디스플레이할 수 있다. 이미지 캡처가 트리거되면, 현재 장면의 하나 이상의 별개의 페이로드 이미지들이 캡처될 수 있다.
카메라들(심지어, 아날로그 카메라 조차도)은 조리개 사이즈, 노출 길이, 이득 기타 등등과 같은 하나 이상의 카메라 기능들 및/또는 설정들을 제어하기 위한 소프트웨어를 포함할 수 있다. 또한, 일부 카메라들은 이미지 캡처 중 또는 이미지 캡처 후에 이미지를 디지털 방식으로 프로세싱하는 소프트웨어를 포함할 수 있다. 전술한 내용은 일반적으로 카메라에 대한 것이지만, 이는 특히 디지털 카메라와 관련될 수도 있다.
전술한 바와 같이, 디지털 카메라는 독립 디바이스가 될 수도 있으며 또는 다른 디바이스와 통합될 수 있다. 일례로서, 도 1은 디지털 카메라 디바이스(100)의 폼 팩터를 도시한다. 디지털 카메라 디바이스(100)는 예를 들어, 이동 전화, 태블릿 컴퓨터, 또는 착용가능한 컴퓨팅 디바이스일 수 있다. 그러나, 다른 실시예들도 가능하다. 디지털 카메라 디바이스(100)는 본체(102), 전면 카메라(104), 다중 요소 디스플레이(106), 셔터 버튼(108) 및 다른 버튼(110) 등과 같은 다양한 요소를 포함할 수 있다. 또한, 디지털 카메라 디바이스(100)는 후면 카메라(112)를 더 포함할 수 있다. 전면 카메라(104)는 동작시에 통상적으로 사용자를 향하고 있는 본체(102)의 일측에 또는 다중 요소 디스플레이(106)와 동일한 일측에 위치될 수 있다. 후면 카메라(112)는 전면 카메라(104)에 반대되는 본체(102)의 일측 상에 위치될 수 있다. 전면 카메라 또는 후면 카메라라고 지칭하는 것은 임의적이며, 디지털 카메라 디바이스(100)는 본체(102)의 다양한 측면 상에 위치된 다수의 카메라들을 포함할 수 있다.
다중 요소 디스플레이(106)는 음극선관(CRT) 디스플레이, 발광 다이오드(LED) 디스플레이, 액정(LCD) 디스플레이, 플라즈마 디스플레이, 또는 당업계에 공지된 임의의 다른 타입의 디스플레이를 나타낼 수 있다. 일부 실시예에서, 다중 요소 디스플레이(106)는, 전면 카메라(104) 및/또는 후면 카메라(112)에 의해 캡처되는 현재 이미지의 디지털 표현을 디스플레이하거나, 또는 이들 카메라들 중 어느 하나 또는 둘다에 의해 캡처될 수 있는 혹은 캡처되었던 이미지들을 디스플레이할 수 있다. 따라서, 다중 요소 디스플레이(106)는 어느 카메라에 대한 뷰파인더로서의 역할을 할 수 있다. 또한, 다중 요소 디스플레이(106)는 디지털 카메라 디바이스(100)의 임의의 양상들의 설정 및/또는 구성을 조정할 수 있는 터치 스크린 및/또는 존재 감지 기능(presence-sensitive functions)을 지원할 수 있다.
전면 카메라(104)는 이미지 센서 및 렌즈와 같은 연관된 광학 요소를 포함할 수 있다. 전면 카메라(104)는 줌 기능을 제공하거나 고정된 초점 길이를 가질 수 있다. 다른 실시예에서, 교체식 렌즈들이 전면 카메라(104)와 함께 사용될 수 있다. 전면 카메라(104)는 가변 기계적 조리개 및 기계식 및/또는 전자식 셔터를 가질 수 있다. 전면 카메라(104)는 또한 정지 이미지, 비디오 이미지 또는 이들 모두를 캡처하도록 구성될 수 있다. 또한, 전면 카메라(104)는 모노스코픽, 스테레오스코픽 또는 멀티스코픽 카메라를 나타낼 수 있다. 후면 카메라(112)는 유사하게 또는 상이하게 구성될 수 있다. 또한, 전면 카메라(104), 후면 카메라(112) 또는 이들 모두는 하나 이상의 카메라들의 어레이일 수 있다.
전면 카메라(104) 및 후면 카메라(112) 중 하나 또는 둘다는 타겟 객체를 조명하기 위한 광 필드를 제공하는 조명 요소를 포함하거나 또는 이와 관련될 수 있다. 예를 들어, 조명 요소는 타겟 물체의 플래시 또는 일정한 조명을 제공할 수 있다. 또한, 조명 요소는 하나 이상의 구조화된 광, 편광된 광 및 특정 스펙트럼 내용을 갖는 광을 포함하는 광 필드를 제공하도록 구성될 수 있다. 객체로부터 3차원(3D) 모델을 복구하는데 이용되는 공지된 다른 유형의 광 필드들도 본 명세서의 실시예와 관련하여 가능하다.
전면 카메라(104) 및 후면 카메라(112) 중 하나 또는 둘다는 카메라가 캡처할 수 있는 장면의 주변 밝기를 연속적으로 또는 때때로 결정할 수 있는 주변 광 센서를 포함하거나 이와 관련될 수 있다. 일부 디바이스에서는 주변 광 센서를 사용하여 카메라와 관련된 스크린(예컨대, 뷰파인더)의 디스플레이 밝기를 조정할 수 있다. 결정된 주변 밝기가 높으면, 화면의 밝기 레벨이 높아져서 화면을 보기 쉽게할 수 있다. 결정된 주변 밝기가 낮으면, 화면의 밝기 레벨이 감소되어 화면을 보기 쉽게 만들 수 있으며 잠재적으로 전력을 절약할 수도 있다. 또한, 주변 광 센서의 입력은 관련 카메라의 노출 길이를 결정하거나 또는 이러한 결정을 돕는데 사용될 수 있다.
디지털 카메라는 디바이스(100)는 멀티 요소 디스플레이(106) 및 전면 카메라(104) 또는 후면 카메라(112) 중 어느 하나를 사용하여 타겟 객체의 이미지를 캡처하도록 구성될 수 있다. 캡처된 이미지는 복수의 스틸 이미지들 또는 비디오 스트림일 수 있다. 이미지 캡처는 셔터 버튼(108)을 활성화하거나, 멀티 요소 디스플레이(106) 상의 소프트 키를 누르거나, 또는 다른 메커니즘에 의해 트리거링될 수 있다. 구현예에 따라, 특정한 시간 간격으로 이미지들이 자동으로 캡처될 수 있는바, 예를 들면, 셔터 버튼(108)을 누를 때, 타겟 객체의 적절한 조명 조건에 따라, 디지털 카메라 디바이스(100)를 미리 결정된 거리만큼 이동시킬 때, 또는 미리 결정된 캡처 스케줄에 따라 자동으로 캡처될 수 있다.
전술한 바와 같이, 디지털 카메라(100)의 기능들(또는 또 다른 유형의 디지털 카메라)은 무선 컴퓨팅 디바이스, 휴대 전화, 태블릿 컴퓨터, 랩톱 컴퓨터 등과 같은 컴퓨팅 디바이스에 통합될 수 있다. 예를 들어, 도 2는 카메라 컴포넌트(224)를 포함할 수 있는 예시적인 컴퓨팅 디바이스(200)의 컴포넌트들 중 일부를 도시한 단순화된 블록도이다.
단지 일례로서, 컴퓨팅 디바이스(200)는 셀룰러 이동 전화(예를 들면, 스마트 폰), 스틸 카메라, 비디오 카메라, 팩스, 컴퓨터(가령, 데스크탑, 노트북, 태블릿, 휴대용 컴퓨터), PDA(personal digital assistant), 홈 오토메이션 컴포넌트, 디지털 비디오 레코더(DVR), 디지털 텔레비전, 원격 제어, 웨어러블 컴퓨팅 디바이스 또는 적어도 몇몇의 이미지 캡처 및/또는 이미지 프로세싱 기능을 구비한 다른 유형의 디바이스일 수 있다. 다음을 유의해야 하는바, 컴퓨팅 디바이스(200)는 가령, 디지털 카메라, 카메라 어플리케이션이 소프트웨어로 동작할 수 있는 특정한 물리적 하드웨어 플랫폼 등의 물리적 카메라 디바이스, 또는 카메라 기능을 수행하도록 구성된 하드웨어 및 소프트웨어의 다른 조합들을 나타낼 수 있다.
도 2에 도시된 바와 같이, 컴퓨팅 디바이스(200)는 통신 인터페이스(202), 사용자 인터페이스(204), 프로세서(206), 데이터 스토리지(208), 카메라 컴포넌트(224)를 포함할 수 있으며, 이들 모두는 시스템 버스, 네트워크 또는 다른 접속 메카니즘(210)에 의해 통신가능하게 함께 링크될 수 있다.
통신 인터페이스(202)는 컴퓨팅 디바이스(200)가, 아날로그 또는 디지털 변조를 사용하여, 다른 디바이스, 액세스 네트워크, 및/또는 전송 네트워크와 통신하게 할 수 있다. 따라서, 통신 인터페이스(202)는 평범한 구식의 전화 서비스(POTS) 통신 및/또는 인터넷 프로토콜(IP) 또는 다른 패킷화된 통신과 같은 회선 교환(circuit-switched) 및/또는 패킷 교환 통신을 용이하게 할 수 있다. 예를 들어, 통신 인터페이스(202)는 무선 액세스 네트워크 또는 액세스 포인트와의 무선 통신을 위해 구성된 칩셋 및 안테나를 포함할 수 있다. 또한, 통신 인터페이스(202)는 이더넷, 범용 직렬 버스(Universal Serial Bus: USB) 또는 HDMI(High-Definition Multimedia Interface) 포트와 같은 유선 인터페이스의 형태를 취하거나 포함할 수 있다. 또한, 통신 인터페이스(202)는 와이파이(Wifi), 블루투스(BLUETOOTH®), 지피에스(global positioning system: GPS) 또는 광역 무선 인터페이스(wide-area wireless interface)(예를 들어, WiMAX 또는 3GPP Long-Term Evolution(LTE)와 같은 무선 인터페이스의 형태를 취하거나 포함할 수 있다. 하지만, 다른 형태의 물리 계층 인터페이스 및 다른 유형의 표준들 또는 전용 통신 프로토콜들이 통신 인터페이스(202)에 이용될 수 있다. 또한, 통신 인터페이스(202)는 다수의 물리적 통신 인터페이스들(예를 들어, Wifi 인터페이스, BLUETOOTH® 인터페이스, 및 wide-area wireless interface)을 포함할 수 있다.
사용자 인터페이스(204)는 컴퓨팅 디바이스(200)가 사용자로부터 입력을 수신하고 사용자에게 출력을 제공하는 등과 같은, 인간 또는 비-인간 사용자와 상호작용하도록 동작할 수 있다. 따라서, 사용자 인터페이스(204)는 키패드, 키보드, 터치 감지 또는 존재 감지 패널, 컴퓨터 마우스, 트랙볼, 조이스틱, 마이크로폰 등과 같은 입력 컴포넌트를 포함할 수 있다. 사용자 인터페이스(204)는 또한 예를 들어 존재 감지 패널과 결합될 수 있는 디스플레이 스크린 등과 같은 하나 이상의 출력 컴포넌트를 포함할 수 있다. 디스플레이 스크린은 CRT, LCD 및/또는 LED 기술, 또는 현재 공지되거나 추후 개발될 다른 기술에 기초할 수 있다. 사용자 인터페이스(204)는 또한 스피커, 스피커 잭, 오디오 출력 포트, 오디오 출력 디바이스, 이어폰 및/또는 다른 유사한 디바이스를 통해 가청 출력(들)을 생성하도록 구성될 수 있다.
일부 실시예에서, 사용자 인터페이스(204)는 스틸 카메라 및/또는 컴퓨팅 디바이스(200)에 의해 지원되는 비디오 카메라 기능을 위한 뷰파인더 역할을하는 디스플레이 포함할 수 있다. 또한, 사용자 인터페이스(204)는 이미지들을 캡처하고(예: 사진 캡처), 카메라 기능을 설정하는데 도움을 주는 하나 이상의 버튼, 스위치, 노브 및/또는 다이얼을 포함할 수 있다. 이들 버튼, 스위치, 노브 및/또는 다이얼들의 전부 또는 일부는 존재 감지 패널을 통해 구현될 수도 있다.
프로세서(206)는 하나 이상의 범용 프로세서(예컨대, 마이크로 프로세서)를 포함하거나 및/또는 하나 이상의 특수 목적 프로세서들, 가령 디지털 신호 프로세서(DSP), 그래픽 프로세싱 유닛(GPU), 부동 소수점 유닛(FPU), 네트워크 프로세서 혹은 주문형 집적회로(ASIC)를 포함할 수 있다. 일부 실시예들에서, 특수 목적 프로세서는 다른 가능성들 중에서도 이미지 프로세싱, 이미지 정렬 및 이미지 병합이 가능할 수 있다. 데이터 스토리지(208)는 자기, 광학, 플래시 또는 유기 스토리지와 같은 하나 이상의 휘발성 및/또는 비휘발성 스토리지 컴포넌트를 포함할 수 있으며, 프로세서(206)와 그 전체 또는 일부가 통합될 수 있다. 데이터 스토리지(208)는 착탈가능한 및/또는 비-착탈가능한 컴포넌트를 포함할 수 있다.
프로세서(206)는 본 명세서에 설명된 다양한 기능들을 수행하기 위해 프로그램 명령(218)(예를 들어, 컴파일되거나 프로그램 로직 및/또는 기계어 코드 컴파일되지 않은)을 실행시킬 수 있다. 따라서, 데이터 스토리지(208)는 컴퓨팅 디바이스(200)에 의한 실행시, 컴퓨팅 디바이스(200)로 하여금 본 명세서 및/또는 첨부된 도면들에 개시된 방법들, 프로세스들, 또는 동작들 중 임의의 것을 수행하게 하는 프로그램 명령들이 저장된 비일시적 컴퓨터 판독 가능 매체를 포함할 수 있다. 프로세서(206)에 의한 프로그램 명령(218)의 실행은 프로세서(206)가 데이터(212)를 사용하게 할 수 있다.
일례로서, 프로그램 명령들(218)은 운영 체제(222)(예를 들면, 운영체제 커널 디바이스 드라이버(들), 및/또는 다른 모듈들) 및 컴퓨팅 디바이스(200)에 설치된 하나 이상의 어플리케이션 프로그램들(220)(예를 들어, 카메라 기능, 주소록, 이메일, 웹 브라우징, 소셜 네트워킹, 및/또는 게임 어플리케이션)을 포함할 수 있다. 마찬가지로, 데이터(212)는 운영 체제 데이터(216) 및 응용 프로그램 데이터(214)를 포함할 수 있다. 운영 시스템 데이터(216)은 주로 운영 체제(222)에 의해 액세스될 수 있으며, 어플리케이션 데이터(214)는 주로 하나 이상의 어플리케이션 프로그램(220)에 의해 액세스될 수 있다. 어플리케이션 데이터(214)는 컴퓨팅 디바이스(200)의 사용자에게 보이거나 보이지 않는 파일 시스템에 배치될 수 있다.
어플리케이션 프로그램(220)은 하나 이상의 어플리케이션 프로그래밍 인터페이스(API)를 통해 운영 체제(222)와 통신할 수 있다. 이들 API는 예를 들어 어플리케이션 프로그램(220)이 어플리케이션 데이터(214)를 판독 및/또는 기록하고, 통신 인터페이스(202)를 통해 정보를 송신 또는 수신하고, 사용자 인터페이스(204)에 정보를 수신 및/또는 표시하는 것 등을 용이하게 할 수 있다.
일부 언어들에서, 어플리케이션 프로그램(220)은 짧게 "앱(app)"이라 지칭될 수도 있다. 또한, 어플리케이션 프로그램(220)은 하나 이상의 온라인 어플리케이션 스토어 또는 어플리케이션 마켓을 통해 컴퓨팅 디바이스(200)로 다운로드될 수도 있다. 그러나, 어플리케이션 프로그램은 또한 컴퓨팅 디바이스(200) 상의 웹 브라우저 또는 물리적 인터페이스(예를 들어, USB 포트)를 통한 다른 방법으로 컴퓨팅 디바이스(200) 상에 설치될 수 있다.
카메라 컴포넌트(224)는 조리개, 셔터, 레코딩 표면(예를 들어, 사진 필름 및/또는 이미지 센서), 렌즈 및/또는 셔터 버튼을 포함할 수 있지만, 이에 한정되지 않는다. 카메라 컴포넌트(224)는 프로세서(206)에 의해 실행되는 소프트웨어에 의해 적어도 부분적으로 제어될 수 있다.
2. 합성 노출의 일례
상술된 바와 같이, 다수의 이미지 캡처 디바이스들은 뷰파인더를 포함한다. 디바이스의 조리개가 개방되거나 및/또는 다른 방식으로 디바이스가 페이로드 이미지를 캡처할 준비가 되었을 때, 프리뷰 이미지가 뷰파인더에 디스플레이될 수 있다. 이러한 프리뷰 이미지는 뷰파인더 리프레시 속도라 지칭되는 특정 속도로 리프레시될 수 있다. 경우에 따라, 뷰파인더 리프레시 속도는 15 Hz 또는 30 Hz이지만, 다른 속도들이 사용될 수도 있다. 이러한 리프레시 속도는 뷰파인더의 리프레시 시간 간격을 정의하며, 이는 리프레시들 사이의 시간 분량이다. 리프레시 시간 간격은 리프레시 속도의 역수이다. 따라서, 30 Hz의 리프레시 속도는 33.33 밀리 초의 리프레시 시간 간격을 가지며, 15 Hz의 리프레시 속도는 66.66 밀리 초의 리프레시 시간 간격을 갖는다.
사용자는 이미지 캡처 디바이스를 겨냥(aim), 포커싱 또는 달리 조정하기 위해 프리뷰 이미지를 이용할 수 있다. 일부 상황에서는, 사용자가 뷰파인더 상에 보이는 것에 만족하면, 사용자는 이미지 캡처 디바이스의 셔터 기능을 트리거링한다. 이는, 아마도 뷰파인더 이미지보다 해상도가 높은 페이로드 이미지가 캡처되게 할 수 있다. 페이로드 이미지는 메모리에 저장되거나 및/또는 실제 촬영된 이미지로서 사용자에게 제시된다. 그러면 사용자는 이러한 페이로드 이미지를 공유, 인쇄 또는 추가로 조작할 수 있다.
어떤 경우에는, 사용자는 장시간 노출 길이로 페이로드 이미지를 캡처하는 것이 바람직하다고 여길 수 있다. 예를 들어, 사용자가 저조도 장면의 이미지를 캡처하고자 하는 경우, 상기 장면 내의 일부 세부 사항을 적절하게 획득하기 위하여 장시간 노출이 필요할 수 있다. 대안적으로 또는 추가적으로, 장시간 노출을 사용하여 예술 사진을 찍을 수도 있다. 일례로서, 사용자는 지나가는 자동차의 헤드 라이트 불빛이 줄무늬 모양으로 나타나는 방식으로 황혼의 건물 사진을 촬영하기를 원할 수 있다. 장시간 노출은 사용자가 이 목표를 달성하는데 도움이 될 수 있다.
비록, 1000 ~ 2000 밀리 초의 장시간 노출이 일례로서 본 명세서에서 논의되지만, "장시간" 노출은 더 길거나 더 짧을 수 있고, 그리고 뷰파인더의 리프레시 시간 간격보다 큰 임의의 노출 시간 간격을 포함할 수도 있다.
도 3은 뷰파인더 리프레시(302) 및 뷰파인더 디스플레이(304)와 비교되는, 장시간 노출 이미지 캡처들(300)의 밀리세컨드 타이밍도(233)를 예시한다. 이미지 캡처들(300)은 이미지 캡처 디바이스에 의한 이미지 1, 이미지 2, 이미지 3, 이미지 4의 연속적인 캡처들을 포함한다. 각각의 노출 시간 간격은 100 밀리 초이다. 결과적으로, 이미지 1 및 이미지 4의 캡처는 도 3에서 점선으로 표시된 바와 같이 일부만이 도시된다. 비록, 이미지 캡처(300)는 이전 이미지 캡처가 종료될 때 후속 이미지 캡처가 시작하는 것으로 도시되어 있지만, 일부 실시예는 이들 이벤트들 사이에 지연을 포함할 수 있다.
뷰파인더 리프레시(302)는 이미지 캡처 디바이스가 그것의 뷰파인더의 디스플레이된 이미지를 리프레쉬할 수 있을 때의 타이밍을 도시한다. 본 일례에서, 리프레시 속도는 30 Hz이므로, 리프레시 시간 간격은 33.33 밀리 초이다. 편의상, 도 3에 도시되고 본 명세서 전반에 걸쳐 사용되는 리프레시 시간 간격은 가장 가까운 밀리 초로 반올림될 수 있다.
뷰파인더 디스플레이(304)는 각각의 시간 포인트 동안 디스플레이되는 이미지들을 예시한다. 33 밀리 초가 될 때까지 이미지 0이 디스플레이된다. 이미지 0은 이미지 1의 캡처가 시작되기 전에 완전히 캡처된 이미지라고 가정한다. 모든 이미지들은 100 밀리 초의 노출 시간 간격을 가지므로, 도 3의 타이밍도가 왼쪽으로 확장된다면, 이미지 0의 디스플레이는 -67 밀리 초에서 시작될 것이다.
이미지 1의 디스플레이는 33 밀리 초에서 시작하고, 133 밀리 초에서 종료된다. 이미지 1의 캡처가 10 밀리 초에서 끝나기 때문에, 이미지 1이 디스플레이되기 시작할 수 있는 가장 빠른 것은 33 밀리 초 부터이며, 이는 다음 번 이용가능한 뷰파인더 리프레시이다. 마찬가지로, 이미지 2의 디스플레이는 133 밀리 초(이미지 2의 캡처가 끝난 이후의, 다음 번 사용가능한 뷰파인더 리프레시)에서 시작하여 233 밀리 초에서 종료된다. 유사하게, 이미지 3(도시되지 않음)의 디스플레이는 233 밀리 초에서 시작하고(이미지 3의 캡처가 끝난 이후의 다음 번 사용가능한 뷰파인더 리프레시) 333 밀리 초에서 종료된다.
도 3에서 노출 시간 간격과 뷰파인더 리프레시 시간 간격으로 사용된 값들은 단지 일례일 뿐이며, 다른 값들도 사용될 수 있다.
전술한 바와 같이, 뷰파인더 리프레시 시간 간격 보다 더 긴 노출 시간 간격이 사용되는 경우, 도 3의 경우와 같이, 뷰파인더에 디스플레이되는 이미지는 사용자의 기대에 부응하지 않을 수 있다. 도 3의 일례에서 뷰파인더는 100 밀리 초마다 한 번씩 새로운 이미지를 디스플레이한다. 충분히 긴 노출 시간 간격 동안(예컨대, 100 밀리 초 이상), 상기 뷰파인더 디스플레이는 사용자에게 더 이상 "라이브"로 표시되지 않을 수 있다. 달리 말하면, 타겟 장면의 라이브 비디오 캡처를 디스플레이하는 것처럼 보이는 대신에, 뷰파인더는 일련의 간헐적으로 업데이트된 정지 이미지들을 디스플레이하는 것처럼 보일 수 있다. 따라서, 원하는 노출 시간 간격이 이러한 속도와 관련된 리프레시 시간 간격보다 충분히 긴 경우, 약 15Hz 이상의 뷰파인더 리프레쉬 레이트를 갖는 결과인 무빙 픽처의 환영이 깨진다.
3. 장시간 합성 노출의 일례
도 4는 이러한 한계를 해결하기 위해 사용될 수있는 기술을 도시한다. 버퍼(400)는 7개의 엔트리들을 갖는 링 버퍼(순환 버퍼라고도 함)이다. 버퍼(400)에 대한 액세스는 반복적인 랩 어라운드(back-around) 방식으로 발생한다. 새로운 데이터는 엔트리 0에 기입된 다음 엔트리 1, 엔트리 2 등으로 기입된다. 마지막 엔트리(이 경우 엔트리 6)가 기입될 때, 추가적인 새로운 데이터가 엔트리 0, 엔트리 1 등에 기입된다. 버퍼가 순환 방식으로 순차적으로 횡단되는 이러한 프로세스는 무한정 계속될 수 있다.
데이터가 기입될 다음 번 엔트리를 참조하기 위하여 포인터가 사용될 수 있으며, 이러한 포인터는 각각의 엔트리가 기입된 후에 진행할 수 있다. 엔트리 6이 기입되면 포인터는 엔트리 0으로 이동한다.
버퍼(400)가 사용될 수 있으며, 따라서 뷰파인더 리프레시 속도와 매칭되는(또는 적절히 매칭되는) 이미지 캡처 속도가 적용될 수 있다. 이미지 캡처 디바이스는 m 개(여기서, m은 7)의 가장 최근에 캡처된 이미지들을 상기 링 버퍼에 저장한다. 또한, 이미지 캡처 디바이스는 이미지들의 러닝 합계(running sum)(도 4에 명시적으로 도시되지는 않음)을 링 버퍼에 저장한다. 러닝 합계는 캡처된 이미지의 장면에 대한 합성 장시간 노출을 나타내는 유효 총계 이미지이다.
버퍼(400)와 상기 총계 이미지가 라이브 합성 장시간 노출을 디스플레이하는데 사용되는 방법의 일례가 도 4에 도시된다. 다음이 가정되는바, 뷰파인더는 소정 시간 동안 활성화되었으며, 버퍼(400)는 캡처된 이미지들로 가득 차있고, 그리고 총계 이미지는 이들 캡처된 이미지들의 합계(sum)이다. 또한, 포인터는 엔트리 0을 가리키고 있다고 가정한다.
시간 T0에서, 새로운 이미지 A가 캡처된다. 이에 응답하여, 이미지 캡처 디바이스는 다음의 단계들을 수행한다: (i) 엔트리 0에 저장된 이미지(이는 버퍼 400에서 가장 오래된 이미지임)가 총계 이미지로부터 감산되고, (ii) 새로운 이미지 A가 총계 이미지에 부가되고, (iii) 새로운 이미지 A가 엔트리 0에 기입되고(따라서, 상기 가장 오래된 이미지를 덮어씀), 그리고 (iv) 포인터는 엔트리 1을 가리키도록 진행된다.
유사하게, 시간 T1에서, 새로운 이미지 B가 캡처된다. 이에 응답하여, 이미지 캡처 디바이스는 다음의 단계들을 수행한다: (i) 엔트리 1에 저장된 이미지(이것은 이제 버퍼 400에서 가장 오래된 이미지임)가 총계 이미지로부터 감산되고, (ii) 새로운 이미지 B가 총계 이미지에 부가되고, (iii) 새로운 이미지 B가 엔트리 1에 기입되고(따라서, 가장 오래된 이미지를 덮어씀), 그리고 (iv) 포인터는 엔트리 2를 가리키도록 진행된다.
유사하게, 시간 T2에서, 새로운 이미지 C가 캡처된다. 이에 응답하여, 이미지 캡처 디바이스는 다음의 단계들을 수행한다: (i) 엔트리 2에 저장된 이미지(이것은 이제 버퍼 400에서 가장 오래된 이미지임)가 총계 이미지로부터 감산되고, (ii) 새로운 이미지 C가 총계 이미지에 부가되고, (iii) 새로운 이미지 C가 엔트리 2에 기입되고(따라서, 가장 오래된 이미지를 덮어씀), 그리고 (iv) 포인터는 엔트리 3을 가리키도록 진행된다.
이러한 프로세스는 많은 반복들(iterations)에 대해서 계속될 수 있는바, 새로운 이미지가 엔트리 6에 기입된 이후에 엔트리 0으로부터 엔트리 6으로의 포인터의 "랩핑(wrapping)"을 포함한다. 각각의 반복(iteration) 동안, 총계 이미지가 뷰파인더에 디스플레이된다. 따라서, 버퍼(400) 내의 엔트리들의 수에 의해 정의되는 노출 시간 간격을 갖는, 라이브 합성 장시간 노출이 리프레시 시간 간격마다 한번씩 업데이트된다.
일부 실시예에서, 버퍼(400)는 다른 방식으로 관리될 수 있다. 하나의 가능한 대안예에서, 새롭게 캡처된 이미지가 버퍼(400) 내의 새로운 엔트리에 추가될 수 있다(버퍼 내의 가장 오래된 이미지(및 그것과 연관된 엔트리)가 제거되기 전에). 따라서, 적어도 일부 시점에서, 버퍼(400)는 m + 1의 깊이를 가질 수 있다. 이러한 경우들에서, 버퍼(400)는 2개의 포인터들과 관련될 수 있는바, 상기 2개의 포인터들 중 하나의 포인터는 버퍼(400)의 헤드(예컨대, 가장 최근에 캡처된 이미지를 포함하는 엔트리)를 참조하고, 다른 하나의 포인터는 버퍼(400)의 테일(예컨대, 가장 오래된 캡처된 이미지를 포함하는 엔트리)을 참조한다.
도 4의 기술 또는 이와 동등한 기술을 사용하는 것에 상관없이, 뷰파인더 리프레시 시간 간격의 배수인 임의의 노출 시간 간격이 지원될 수 있다. 예를 들어, 뷰파인더 리프레시 속도가 30 Hz라고 가정하면, 리프레시 시간 간격은 33 밀리 초이다. 단지 몇몇 가능한 일례로서, 버퍼(400) 내의 엔트리의 수를 2, 4, 6, 12, 24, 30, 60으로 각각 조정함으로써, 67, 133, 200, 400, 600, 800, 1000 및 2000 밀리 초의 장시간 노출 시간 간격들이 지원될 수 있다.
버퍼 내의 엔트리 수가 1 인 경우, 노출 시간 간격은 뷰파인더 리프레시 시간 간격과 동일하다. 또한, 뷰파인더 리프레시 시간 간격보다 작은 임의의 노출 시간 간격들이, 사이즈 1의 버퍼로 지원될 수 있다. 예를 들어, 뷰파인더 리프레시 시간 간격이 33 밀리 초이고 노출 시간 간격이 20 밀리 초이면, 20 밀리 초 노출 이미지가 33 밀리 초마다 한번 캡처될 수 있으며, 그리고 가장 최근에 캡처된 이미지는 뷰파인더에 의해 디스플레이될 수 있다.
따라서, 일부 실시예에서, 유효 노출 시간 간격들은, 리프레시 시간 간격 이하의 임의의 값을 취할 수 있으며 또는 리프레시 시간 간격의 배수인 값들을 취할 수 있다. 일례로서, 리프레시 시간 간격이 33 밀리 초인 경우, 0 밀리 초 보다 크며 33 밀리 초 이하인 임의의 노출 시간 간격이 선택될 수 있다. 하지만, 33 밀리 초 보다 큰 노출 시간 간격이 요망되는 경우, 67 밀리 초, 100 밀리 초, 133 밀리 초 등등의 값만 선택될 수 있다.
도 5는 이러한 특성을 도시하는 예시적인 사용자 인터페이스 컴포넌트(500)를 도시한다. 사용자 인터페이스 컴포넌트(500)는 선택가능한 노출 시간 간격들의 범위를 나타내는 슬라이더(502)를 포함한다. 바(504)는 디폴트 또는 선택된 노출 시간 간격을 나타내고, 이러한 노출 시간 간격의 값은 바로 아래에 표시된다(이 경우, 노출 시간 간격은 23 밀리 초임).
사용자 인터페이스 컴포넌트(500)에서, 리프레시 시간 간격의 배수들이 다이아몬드로 표시되며, 이들 각각의 간격들은 아래에 도시된다. 따라서, 좌측에서 우측으로, 다이아몬드들은 0 밀리 초, 33 밀리 초, 67 밀리 초, 100 밀리 초 및 133 밀리 초의 리프레시 시간 간격을 나타낸다. 단순화를 위해, 사용자 인터페이스 컴포넌트는 133 밀리 초보다 큰 리프레시 시간 간격의 표현을 명시적으로 나타내지는 않는다. 그럼에도 불구하고, 일부 실시예에서, 이러한 배수의 시퀀스는 임의의 높은 값들, 예컨대 1000 또는 2000 밀리 초로 계속될 수 있다.
사용자 인터페이스 컴포넌트(500)는 임의의 노출 시간 간격들이 슬라이더(502)의 폭에 의해 선택가능한지의 여부를 나타낸다. 예를 들어, 슬라이더(502)의 섹션(506)은 두꺼운데, 이는 임의의 노출 시간 간격들이 선택될 수 있음을 의미한다. 반면에, 슬라이더(502)의 섹션(508)은 얇으며, 이는 다이아몬드들로 표시되는 노출 시간 간격들만이 선택될 수 있음을 나타낸다. 따라서, 사용자가 섹션(508)에서 33 밀리 초와 67 밀리 초 사이의 포인트로 바(504)를 이동시키려고 한다면, 사용자 인터페이스는 이러한 값이 선택되는 것을 방지하며 및/또는 슬라이더(502) 상의 가장 가까운 다이아몬드로 상기 바(504)를 자동으로 이동시킬 수 있다.
비록, 앞선 설명에서, 리프레시 시간 간격보다 적은 "임의의" 노출 시간 간격들이 선택될 수 있다라고 언급되었지만, 일부 구현예들에서는 이들 노출 시간 간격들은 개별 값들로 제한될 수도 있다. 예를 들어, 슬라이더(502)의 섹션(506)에서, 바(504)는 가장 가까운 초, 0.5 초, 1/4 초로 반올림되는 값만을 선택할 수 있다.
사용자 인터페이스 컴포넌트(500)는 사용자 인터페이스에 의해 사용자가 노출 시간 간격을 선택할 수 있는 방법에 대한 단지 하나의 가능한 표현일 뿐이다. 동일하거나 유사한 기능을 달성하기 위한, 다른 사용자 인터페이스 컴포넌트, 디자인, 레이아웃 또는 토폴로지가 이용될 수 있다. 예를 들어, 다이얼, 노브, 스크롤 바, 텍스트 상자 또는 다른 유형의 사용자 인터페이스 컴포넌트가 본 발명의 피처들을 지원하도록 구성될 수 있다. 또한, 사용자 인터페이스 컴포넌트(500)는 디지털 카메라, 스마트 폰, 태블릿 컴퓨터, 웨어러블 컴퓨팅 디바이스 등과 같은 다양한 유형의 카메라 디바이스 상에 나타날 수 있다.
대안적인 실시예들에서는, 노출 시간 간격들이 리프레시 시간 간격보다 큰 경우에도, 이들 임의의 노출 시간 간격이 선택될 수 있다. 이는 캡처된 이미지에 합성 이득(디지털 또는 아날로그)을 적용함으로써 성취될 수 있다.
예를 들어, 원하는 노출 시간 간격을 n 이라 가정하고, 리프레시 시간 간격을 r 이라 가정하자(여기서, n > r 이다). 또한, 도 4의 구성에서는, 리프레시 시간 간격은 캡처된 이미지의 노출 시간 간격이다. 노출 시간 간격 당 전체 리프레시 시간 간격의 수는 f = αr 로 표시되며, 여기서 α는 1 이상의 정수이다. 또한, α의 값은 라이브 합성 장시간 노출 이미지를 형성하기 위해 결합될 캡처된 이미지들의 수를 나타낸다.
일례로서, n = 87 밀리 초이고, r = 33.33 밀리 초라 가정하자. 노출 시간 간격 n 에는 2개의 전체 리프레시 시간 간격들 r 이 존재한다. 따라서, α= 2 이고, f = 2r = 66.66 밀리 초이다. 가장 가까운 정수로 반올림하면 f = 67 이다.
n 과 f 의 차이값은 20 밀리 초이다. 이것은 노출 시간 간격 n의 밝기를 정확하게 나타기 위하여 2개의 캡처된 이미지들에 적용되어야 하는 합성 이득의 분량을 나타낸다. 이러한 이득을 캡처된 이미지들에 균등하게 분배하면 이미지 당 이득(per-image gain)이 얻어지며, 이는
g = (n - f)/α 이다.
상기 일례에서 g 의 값은 이미지당 10 밀리 초이다.
캡처된 각각의 이미지의 픽셀들에 적용하기 위하여, 상기 값을 승수(multiplier)로서 표현하는 것이 편리하다. α= f/r 이므로, 상기 이득은,
g = r(n - f)/f 로 표현될 수 있다.
상기 이득의 스케일된 승수 m 은 다음과 같이 주어진다.
Figure pct00001
전술한 일례에서, m 은 대략 1.3 이다. 따라서, 2개의 캡처된 이미지들 각각의 픽셀 밝기는 1.3이 곱해져서, 43.33 밀리 초의 합성 노출로 이미지를 생성할 수 있다.
도 4의 절차에 따라 총계 이미지를 형성하기 위해 함께 더해지는 경우, 그 결과는 86.66 밀리 초의 합성 장시간 노출이며, 이는 n = 87 밀리 초인 원하는 장시간 노출의 근사값이다.
편리하게도, 이들 공식들은 n 이 r의 배수인 경우에도 적용될 수 있으므로, 이 기술은 r 보다 크거나 같은 임의의 n 값에 대해서도 사용될 수 있다. 예를 들어, n = 100 밀리 초이고 r = 33.33 밀리 초라고 가정하자. n = f 이기 때문에 (n - f)/f 항목이 0 이 되므로, 상기 이미지들에는 합성 이득이 적용되지 않는다.
도 6은 임의의 합성 장시간 노출 시간 간격들의 선택을 용이하게 하는 예시적인 사용자 인터페이스 컴포넌트(600)를 도시한다. 사용자 인터페이스 컴포넌트(600)는 선택가능한 노출 시간 간격들의 범위를 나타내는 슬라이더(602)를 포함한다. 바(604)는 디폴트 또는 선택된 노출 시간 간격을 나타내고, 이러한 노출 시간 간격의 값은 바로 아래에 표시된다(이 경우, 노출 시간 간격은 90 밀리 초임).
사용자 인터페이스 컴포넌트(500)에서와 같이, 사용자 인터페이스 컴포넌트(600)는 리프레시 시간 간격의 배수들을 다이아몬드로 디스플레이하며, 이들 각각의 간격들은 아래에 도시된다. 하지만, 사용자 인터페이스 컴포넌트(500)와 달리, 임의의 노출 시간 간격들이 선택가능하다. 다시 한번 설명하면, 일부 구현예들에서, 이러한 "임의의" 노출 시간 간격들은 개별적인 값들로 제한될 수 있다.
사용자 인터페이스 컴포넌트(600)는 사용자 인터페이스에 의해 사용자가 임의의 합성 장시간 노출 시간 간격을 선택할 수 있게 하는 방법에 대한 단지 하나의 가능한 표현일 뿐이다. 동일하거나 유사한 기능을 달성하기 위한, 다른 사용자 인터페이스 컴포넌트, 디자인, 레이아웃 또는 토폴로지가 이용될 수도 있다.
4. 예시적인 동작들
도 7은 실시예를 나타내는 흐름도이다. 이 실시예는 디지털 카메라 디바이스(100)와 같은 컴퓨팅 디바이스에 의해 수행될 수 있다. 그러나, 이 실시예의 하나 이상의 양상들은 다른 유형의 디바이스 또는 디바이스 서브 시스템에 의해 수행될 수 있다. 또한, 이 실시예는 본 명세서 또는 첨부 도면들에 개시된 임의의 양상 또는 특징과 결합되거나 통합될 수 있다.
특히, 도 7의 단계들 또는 블록들은 도면에 도시된 것과 다른 순서로 발생할 수 있다. 특히, 다양한 실시예에서, 블록(702, 704 및 706)은 다른 순서로 정렬될 수 있다(예를 들어, 도 8에 도시된 실시예 참조).
도 7의 블록(700)은 이미지 캡처 디바이스의 이미지 센서에 의해 이미지를 캡처하는 단계를 포함할 수 있다.
블록(702)은 캡처된 이미지를 2 이상의 이전에 캡처된 이미지들의 버퍼에 저장하는 단계를 포함할 수 있다. 캡처된 이미지 및 2 이상의 이전에 캡처된 이미지들은 동일하거나 유사한 장면일 수 있다. 예를 들어, 이미지 센서는 이들 이미지들을 캡처할 때, 동일한 일반적인 방향을 향하고 있을 수 있다.
블록(704)은 상기 버퍼로부터, 2 이상의 이전에 캡처된 이미지들 중 가장 오래된 이미지를 제거하는 단계를 포함할 수 있다.
블록(706)은 상기 버퍼 내의 이미지들의 총계 이미지를 업데이트하는 단계를 포함할 수 있다. 이러한 업데이트는 가장 오래된 이미지의 표현을 총계 이미지로부터 감산하고, 캡처된 이미지의 표현을 총계 이미지에 부가하는 것을 포함할 수 있다. 따라서, 총계 이미지는 버퍼 내의 이미지들에 대한 부가적인 표현(additive representation)일 수 있다.
블록(708)은 이미지 캡처 디바이스의 뷰파인더 상에, 총계 이미지의 표현을 디스플레이하는 단계를 포함할 수 있다. 이러한 표현은 뷰파인더 리프레시 간격 마다 한번 리프레시될 수 있다. 일부 실시예에서, 뷰파인더가 총계 이미지의 표현을 디스플레이하는 동안, 이미지 센서는 또 다른 이미지를 캡처할 수 있으며, 이는 버퍼에 배치되어 총계 이미지에 추가될 수 있다.
상기 총계 이미지를 업데이트하는 것은 이미지 안정화(image stabilization)를 총계 이미지에 적용하는 것을 포함할 수 있다. 이미지 안정화의 일례로서, 휴대용 이미지 캡처 디바이스(예: 스마트 폰)는 예컨대, 비행 중인 축구공의 이미지들의 시퀀스를 기록하는데 이용될 수 있다. 하지만, 이미지 캡처 디바이스의 사용자의 손이 떨린다면, 결과적인 비디오 시퀀스에는 프레임 간 지터(frame-to-frame jitter)가 발생할 수 있다. 이러한 지터를 감소시키기 위하여, 2개 이상의 이미지들에서 축구 공의 위치가 매칭될 수 있다. 다음으로, 이러한 지터를 보상하고 그리고 축구 공이 부드러운 원호로 움직이는 것처럼 만들기 위하여, 이미지 시퀀스가 조정될 수 있다. 하지만, 이미지 안정화는 움직임이 거의없는 정적 장면에도 적용될 수 있다.
일부 실시예에서, 이미지 캡처 디바이스의 뷰파인더는 리프레시 시간 간격에 의해 정의되는 리프레시 속도를 갖느낟. 총계 이미지의 표현은 합성 노출 시간 간격에 의해 정의되는 합성 노출 길이를 가질 수 있으며, 여기서 합성 노출 시간 간격은 리프레시 시간 간격보다 크다. 일부의 경우, 합성 노출 시간 간격은 적어도 1000 밀리 초일 수 있고, 리프레시 시간 간격은 150 밀리 초 미만일 수 있다. 예를 들어, 합성 노출 시간 간격은 2000 밀리 초일 수 있고, 리프레시 시간 간격은 33 밀리 초, 67 밀리 초 또는 133 밀리 초일 수 있다. 다른 값들도 가능하다.
상기 버퍼는 적어도 15개의 이전에 캡처된 이미지들을 캡처 시간 순서대로 저장할 수 있다. 그러나, 더 많거나 더 적은 개수의 이전에 캡처된 이미지들이 버퍼에 저장될 수 있으며, 버퍼에 저장되는 이전에 캡처된 이미지들의 개수는 합성 노출 시간 간격 대 리프레시 시간 간격의 비율에 기초할 수 있다.
일부 실시예에서, 합성 노출 시간 간격은 리프레시 시간 간격의 배수인 정수가 될 수 있다. 이들 실시예에서, 이미지 캡처 디바이스는 리프레시 시간 간격의 상이한 정수 배수들인 복수의 가능한 합성 노출 시간 간격들로부터 합성 노출 시간 간격의 선택을 수신하도록 구성된 하나 이상의 사용자 인터페이스 컴포넌트를 제공할 수 있다. 특히, 사용자 인터페이스는 합성 노출 시간 간격의 선택을 리프레시 시간 간격의 정수배인 것들로 제한할 수 있다. 이러한 선택을 수신하는 것에 응답하여, 이미지 캡처 디바이스는 선택된 바와 같이 합성 노출 시간 간격을 설정할 수 있다.
추가적인 실시예에서, 합성 노출 시간 간격은 리프레시 시간 간격의 실수 배수이다(a real-number multiple of the refresh time interval). 이들 실시예에서, 이미지 캡처 디바이스는 리프레시 시간 간격의 상이한 실수 배수들인 복수의 가능한 합성 노출 시간 간격들로부터 합성 노출 시간 간격의 선택을 수신하도록 구성된 하나 이상의 사용자 인터페이스 컴포넌트를 제공할 수 있다. 특히, 사용자 인터페이스는 리프레시 시간 간격의 정수배 또는 실수 배수인 합성 노출 시간 간격들의 선택을 용이하게 할 수 있다. 이러한 선택의 수신에 응답하여, 이미지 캡처 디바이스는 합성 노출 시간 간격을 선택된 바와 같이 설정할 수 있다.
일부 실시예에서, n 은 합성 노출 시간 간격을 나타낼 수 있고, 그리고 f 는 합성 노출 시간 간격에 있는 모든 전체 리프레시 시간 간격들의 전체 길이를 나타낼 수 있다. 장면의 이미지를 캡처하는 것은, 대략적으로 1 + (n - f)/f 인 아날로그 또는 디지털 이득을 캡처된 이미지에 적용하는 것을 포함할 수 있다. "대략적으로" 라는 용어는, 상기 이득이 정확히 1 + (n - f)/f 이거나, 또는 설정 값(예 : 0.10 또는 0.25) 보다 작은 편차를 갖거나, 또는 1 + (n - f)/f 로부터 소정 퍼센티지(예컨대, 5%, 10%, 20%) 이상으로 차이가 나지 않는 것을 의미한다.
일부 실시예에서, 제로 셔터 래그(zero-shutter-lag: ZSL) 이미지 캡처가 지원될 수 있다. 일부 이미지 캡처 디바이스에서는, 뷰파인더가 장면의 이미지들을 디스플레이하는 경우에도, 해당 장면의 고해상도 페이로드 이미지가 캡처 및 저장되지 않는다(사용자가 이미지 캡처 디바이스의 셔터 기능을 트리거할 때까지). 이 시점에서, 이미지 캡처 디바이스는 포커싱 및 노출-결정(예를 들어, 자동 노출) 단계를 수행할 수 있다. 결과적으로, 셔터 기능이 트리거되는 때와 이미지가 캡처되는 시점 사이에 눈에 띄는 지연이 발생할 수 있다.
ZSL 기술을 지원하는 이미지 캡처 디바이스는 뷰파인더가 활성화될 때 고해상도 페이로드 이미지들을 연속적으로 캡처할 수 있다. 셔터 기능이 트리거될 때, 저장된 이미지들 중 하나 이상이 "캡처된 이미지"가 된다. 따라서, 본 명세서의 실시예에서, 뷰파인더는 총계 이미지의 저해상도 버전을 디스플레이할 수 있으며, 반면에 이미지의 고해상도 버전은 페이로드 이미지로 사용될 수 있다. 이러한 방식으로, 총계 이미지의 디스플레이된 표현은 제한된 해상도를 갖는 이미지일 수 있으며, 이전에 캡처된 이미지들 및 총계 이미지는 풀-해상도 이미지 일 수 있다. 이들 실시예에서, 이미지 캡처 디바이스는 셔터 기능이 트리거되었다는 표시를 수신할 수 있고, 그리고 이미지 캡처 디바이스는 저장된 총계 이미지를 하나 이상의 이미지 조작 어플리케이션들(예컨대, 포토 갤러리 어플리케이션, 소셜 네트워킹 어플리케이션, 등등)에 이용가능하게 만들 수 있다.
일부 실시예에서, 이미지 캡처 디바이스는 캡처된 이미지들에 톤 매핑을 적용하는 이미지 프로세싱 파이프라인을 포함한다. 톤 매핑은 더 작은 동적 범위를 지원하는 매체 상에서 큰 동적 범위의 컬러들과 밝기 레벨들을 나타내는 방법을 결정하는 다양한 기법들을 포함한다. 이러한 기술 중 일부는 이미지의 주변 영역의 명암을 유지하기 위해 인간의 두뇌에서 색상과 밝기가 어떻게 감지되는지를 고려하지만 반드시 정확한 색상의 강도는 아니다. 이는 캡처된 이미지들의 일부 또는 모든 픽셀 값에 톤 맵핑 커브를 적용하는 것을 수반할 수 있다. 이렇게 하면 캡처된 이미지의 "선형성"이 더 이상 유지되지 않으므로, 총계 이미지를 형성하기 위해 이들 이미지들의 픽셀 값들을 합산하는 것은, 총계 이미지의 색상 및/또는 밝기가 왜곡되게 할 수 있다.
톤 매핑을 사용하는 이미지 처리 파이프라인에 본 발명의 실시예들이 적용될 수 있는 적어도 2개의 방법이 있다. 하나의 방법에서, 캡처된 이미지들은 파이프 라인으로부터 이미지 프로세싱없이 버퍼 및/또는 총계 이미지에 저장된다. 예를 들어, 캡처된 이미지가 이미지 프로세싱 파이프라인에 도입되기 전에, 라이브 합성 장시간 노출 시간 간격들을 제공할 목적으로 복사본들이 만들어 질 수 있다.
대안적으로, 캡처된 이미지에 톤 매핑이 적용된 후, 이러한 프로세싱은, 라이브 합성 장시간 노출 시간 간격들을 제공할 목적으로 원본 이미지 버전을 얻기 위해 역전될 수 있다. 따라서, 이미지 캡처 디바이스는, 캡처된 이미지들을 버퍼에 저장하기 전에 캡처된 이미지에 톤 맵핑을 적용하는 이미지 프로세싱 파이프라인을 포함할 수 있다. 다음으로, 톤 맵핑이 적용된 후, 캡처된 이미지들을 버퍼에 저장하기 전에, 이미지에 역전(reverse) 톤 맵핑이 적용될 수 있으며, 여기서 역전 톤 맵핑은 이미지로부터 톤 맵핑을 제거한다.
도 8은 실시예를 나타내는 흐름도이다. 이 실시예는 디지털 카메라 디바이스(100)와 같은 컴퓨팅 디바이스에 의해 수행될 수 있다. 그러나, 이 실시예의 하나 이상의 양태는 다른 유형의 디바이스 또는 디바이스 서브 시스템에 의해 수행될 수 있다. 또한, 이 실시예는 본 명세서 또는 첨부 도면에 개시된 임의의 양상 또는 특징과 결합되거나 통합될 수 있다. 예를 들어, 도 7의 맥락에서 논의된 임의의 특징, 변형 또는 양태는 도 8과 일치하는 실시예에서 사용될 수 있다.
도 8의 블록(800)은 이미지 캡처 디바이스의 이미지 센서에 의해 이미지를 캡처하는 단계를 포함할 수 있다. 이미지 캡처 디바이스는 2개 이상의 이전에 캡처된 이미지들을 버퍼에 저장할 수 있다.
블록(802)은 버퍼 내의 이미지들의 총계 이미지를 업데이트하는 단계를 포함할 수 있다. 이러한 업데이트는 버퍼 내의 가장 오래된 이미지의 표현을 총계 이미지로부터 감산하고, 캡처된 이미지의 표현을 총계 이미지에 부가하는 것을 포함할 수 있다. 따라서, 총계 이미지는 버퍼 내의 이미지들에 대한 부가적인 표현(additive representation)일 수 있다.
블록(804)은 버퍼에 캡처된 이미지들을 저장하는 단계를 포함할 수 있다. 블록(806)은 버퍼로부터 2 이상의 이전에 캡처된 이미지들 중 가장 오래된 이미지를 제거하는 단계를 포함할 수 있다. 몇몇 경우들에서, 블록(804 및 806)은 가장 오래된 이미지를 캡처된 이미지로 덮어쓰기함으로써 구현될 수 있다.
블록(808)은 이미지 캡처 디바이스의 뷰파인더 상에, 총계 이미지의 표현을 디스플레이하는 단계를 포함할 수 있다. 이러한 표현은 뷰파인더 리프레시 간격마다 한 번 리프레시될 수 있다.
5. 결론
본 발명은 본 출원에서 서술된 특정 실시예들만으로 한정되지 않으며, 이는 다양한 양상들에 대한 예시로서 의도된 것이다. 해당 기술 분야의 당업자에게 명백한 바와 같이, 많은 변형예들 및 수정예들이 본 발명의 범위를 벗어나지 않고 이루어질 수 있다. 본원에 열거된 것 이외에도, 본 발명의 범주 내에 있는 기능적으로 동등한 방법 및 디바이스는 전술한 설명으로부터 당업자에게 명백할 것이다. 이러한 변형예들 및 수정예들은 첨부된 청구 범위의 범주 내에 속한다.
전술한 상세한 설명은 첨부된 도면들을 참조하여 개시된 시스템들, 디바이스들 및 방법들의 다양한 특징 및 기능들을 설명한다. 본 명세서 및 도면에 설명된 예시적인 실시예는 제한하려는 것이 아니다. 본 명세서에 제시된 주제의 범위를 벗어남이 없이도 다른 실시예들이 이용될 수 있으며 다른 변경들이 이루어질 수 있다. 본 명세서에 일반적으로 기술되고 도면에 예시된 바와 같은 본 개시의 양상들은 다양한 다른 구성들로 배열, 대체, 결합, 분리 및 설계될 수 있음을 쉽게 이해할 수 있으며, 이들 모두는 본원에서 명백하게 고려된다.
도면들 및 본원에서 논의된 메시지 흐름도, 시나리오 및 순서 차트의 전부 또는 일부와 관련하여, 각각의 단계, 블록, 및/또는 통신은, 예시적인 실시예들에 따른 정보의 프로세싱 및/또는 정보의 전송을 나타낼 수 있다. 대안적인 실시예들은 이들 예시적인 실시예들의 범위 내에 포함된다. 이러한 대안적인 실시예에서, 예를 들어, 단계들, 블록들, 전송들, 통신들, 요청들, 응답들 및/또는 메시지들로서 설명된 기능들은, 관련된 기능에 따라, 도시 또는 논의된 것과는 다른 순서대로(실질적으로 동시에 또는 역순을 포함하여) 실행될 수 있다. 또한, 더 많거나 또는 더 적은 블록들 및/또는 기능들이 본원에서 논의된 블록도, 시나리오, 및 플로우 차트와 함께 이용될 수 있으며, 이들 블록도, 시나리오, 및 플로우 차트는 부분적으로 또는 전체적으로 서로 결합될 수 있다.
정보의 처리를 나타내는 단계 또는 블록은 본원에 설명된 방법 또는 기술의 특정 논리 기능을 수행하도록 구성된 회로에 대응할 수 있다. 선택적으로 또는 부가 적으로, 정보의 처리를 나타내는 단계 또는 블록은 모듈, 세그먼트 또는 프로그램 코드의 일부에 대응할 수 있다(관련 데이터를 포함하는). 프로그램 코드는 방법 또는 기술의 특정 논리 기능 또는 동작을 구현하기 위해 프로세서에 의해 실행가능한 하나 이상의 명령을 포함할 수 있다. 프로그램 코드 및/또는 관련 데이터는 디스크, 하드 드라이브 또는 다른 저장 매체를 포함하는 저장 디바이스와 같은 임의의 유형의 컴퓨터 판독 가능 매체에 저장될 수 있다.
컴퓨터 판독가능 매체는 또한 레지스터 메모리, 프로세서 캐시, 및 랜덤 액세스 메모리(RAM)와 같은 단기 데이터를 저장하는 컴퓨터 판독가능 매체와 같은 비-일시적 컴퓨터 판독가능 매체를 포함할 수 있다. 또한, 컴퓨터 판독가능 매체는 더 장시간의 시간 동안 프로그램 코드 및/또는 데이터를 저장하는 비 일시적 컴퓨터 판독가능 매체를 포함할 수 있다. 따라서, 컴퓨터 판독가능 매체는 예를 들어, 판독 전용 메모리(ROM), 광학 또는 자기 디스크, CD-ROM(compact-disk read only memory)과 같은 2차 또는 영구적인 장시간 기억 디바이스를 포함할 수 있다. 컴퓨터 판독가능 매체는 또한 임의의 다른 휘발성 또는 비휘발성 저장 시스템일 수 있다. 컴퓨터 판독가능 매체는 예를 들어 컴퓨터 판독가능 저장 매체 또는 유형의(tangible) 저장 디바이스로 간주될 수 있다.
또한, 하나 이상의 정보 송신을 나타내는 단계 또는 블록은 동일한 물리적 디바이스의 소프트웨어 및/또는 하드웨어 모듈들 사이에서의 정보 전송에 대응할 수 있다. 하지만, 상이한 물리적 디바이스들의 소프트웨어 모듈 및/또는 하드웨어 모듈 사이에서 다른 정보 전송이 있을 수 있다.
도면에 도시된 특정 구성은 제한적인 것으로 간주되어서는 안된다. 다른 실시예는 주어진 도면에 도시된 각 요소를 다소 포함할 수 있음을 이해해야 한다. 또한, 도시된 컴포넌트 중 일부는 결합되거나 생략될 수 있다. 또한, 예시적인 실시예는 도면들에 도시되지 않은 요소들을 포함할 수 있다.
또한, 본 명세서 또는 청구 범위에 기재된 요소들, 블록들, 또는 단계들의 열거는 명확성을 위한 것이다. 따라서, 이러한 열거는 이러한 요소들, 블록들 또는 단계들이 특정 배열을 고수하거나 특정 순서대로 수행된다는 것을 요구하거나 암시하는 것으로 해석되어서는 안된다.
다양한 양상들 및 실시예들이 본 명세서에 개시되었지만, 다른 양상들 및 실시예들이 당업자에게 명백할 것이다. 본 명세서에 개시된 다양한 양상들 및 실시예들은 예시의 목적을 위한 것이며, 다음의 청구 범위에 의해 지시되는 진정한 범위를 제한하려는 것이 아니다.

Claims (20)

  1. 방법으로서,
    이미지 캡처 디바이스의 이미지 센서에 의해, 장면의 이미지를 캡처하는 단계;
    상기 장면의 2개 이상의 이전에 캡처된 이미지들의 버퍼에 상기 캡처된 이미지를 저장하는 단계;
    상기 2개 이상의 이전에 캡처된 이미지들 중 가장 오래된 이미지를 상기 버퍼로부터 제거하는 단계;
    상기 버퍼의 이미지들의 총계 이미지(aggregate image)를 업데이트하는 단계, 상기 업데이트하는 단계는 상기 가장 오래된 이미지의 표현을 상기 총계 이미지로부터 감산하고, 상기 캡처된 이미지의 표현을 상기 총계 이미지에 추가하는 단계를 포함하며; 그리고
    상기 이미지 캡처 디바이스의 뷰파인더 상에 상기 총계 이미지의 표현을 디스플레이하는 단계를 포함하는 방법.
  2. 제1항에 있어서,
    상기 총계 이미지는 상기 버퍼 내의 이미지들에 대한 부가적인 표현(additive representation)인 것을 특징으로 하는 방법.
  3. 제1항에 있어서,
    총계 이미지의 표현을 디스플레이하면서, 상기 장면의 추가 이미지를 캡처하는 단계를 더 포함하는 방법.
  4. 제1항에 있어서,
    상기 이미지 캡처 디바이스의 뷰파인더는 리프레시 시간 간격에 의해 정의 되는 리프레시 속도(refresh rate)를 가지며, 상기 총계 이미지의 표현은 합성 노출 시간 간격에 의해 정의되는 합성 노출 길이를 가지며, 합성 노출 시간 간격은 상기 리프레시 시간 간격보다 큰 것을 특징으로 하는 방법.
  5. 제4항에 있어서,
    상기 합성 노출 시간 간격은 적어도 1000 밀리 초이고, 상기 리프레시 시간 간격은 150 밀리 초 미만인 것을 특징으로 하는 방법.
  6. 제4항에 있어서,
    상기 합성 노출 시간 간격은 상기 리프레시 시간 간격의 정수 배수(integer multiple)인 것을 특징으로 하는 방법.
  7. 제6항에 있어서,
    상기 이미지 캡처 디바이스에 의해, 상기 리프레시 시간 간격의 서로 다른 정수 배수들인 복수의 가능한 합성 노출 시간 간격들로부터 합성 노출 시간 간격의 선택을 수신하도록 구성된 하나 이상의 사용자 인터페이스 컴포넌트를 제공하는 단계; 및
    선택된 합성 노출 시간 간격으로 상기 합성 노출 시간 간격을 설정하는 단계
    를 더 포함하는 방법.
  8. 제4항에 있어서,
    상기 합성 노출 시간 간격은 상기 리프레시 시간 간격의 실수 배수인 것을 특징으로 하는 방법.
  9. 제8항에 있어서,
    상기 이미지 캡처 디바이스에 의해, 상기 리프레시 시간 간격의 서로 다른 실수 배수들인 복수의 가능한 합성 노출 시간 간격들로부터 합성 노출 시간 간격의 선택을 수신하도록 구성된 하나 이상의 사용자 인터페이스 컴포넌트를 제공하는 단계; 및
    선택된 합성 노출 시간 간격으로 상기 합성 노출 시간 간격을 설정하는 단계
    를 더 포함하는 방법.
  10. 제8항에 있어서,
    n은 합성 노출 시간 간격을 나타내며, f는 합성 노출 시간 간격 내의 전체 전체 리프레시 시간 간격들의 총 길이를 나타내고, 상기 장면의 이미지를 캡처하는 단계는,
    대략 1+(n-f)/f의 이득을 상기 캡처된 이미지에 적용하는 단계를 포함하는 것을 특징으로 하는 방법.
  11. 제1항에 있어서,
    상기 버퍼는 적어도 15개의 이전에 캡처된 이미지들을 캡처 시간 순서대로 저장하는 것을 특징으로 하는 방법.
  12. 제1항에 있어서,
    상기 총계 이미지의 디스플레이된 표현은 저해상도 이미지이고, 상기 이전에 캡처된 이미지들 및 상기 총계 이미지는 상기 저해상도 이미지보다 더 높은 해상도를 갖는 고해상도 이미지이며, 상기 방법은,
    상기 이미지 캡처 디바이스에 의해, 셔터 기능이 트리거되었다라는 표시를 수신하는 단계; 및
    상기 총계 이미지가 하나 이상의 이미지 조작 어플리케이션들에 이용가능하도록, 상기 이미지 캡처 디바이스의 메모리에 상기 총계 이미지를 저장하는 단계
    를 더 포함하는 것을 특징으로 하는 방법.
  13. 제1항에 있어서,
    상기 이미지 캡처 디바이스는 캡처된 이미지에 톤 맵핑을 적용하는 이미지 프로세싱 파이프라인을 포함하고, 상기 캡처된 이미지는 상기 파이프라인으로부터의 이미지 프로세싱 없이 상기 버퍼에 저장되는 것을 특징으로 하는 방법.
  14. 제1항에 있어서,
    상기 이미지 캡처 디바이스는 캡처된 이미지를 상기 버퍼에 저장하기 전에 상기 캡처된 이미지에 톤 맵핑을 적용하는 이미지 프로세싱 파이프라인을 포함하고, 상기 방법은,
    톤 맵핑이 적용된 후 및 캡처된 이미지를 버퍼에 저장하기 전에, 이미지에 역전(reverse) 톤 맵핑을 적용하는 단계를 더 포함하고, 상기 역전 톤 맵핑은 이미지로부터 톤 맵핑을 제거하는 것을 특징으로 하는 방법.
  15. 제1항에 있어서,
    상기 총계 이미지를 업데이트하는 단계는, 상기 총계 이미지에 이미지 안정화(image stabilization)를 적용하는 단계를 포함하는 것을 특징으로 하는 방법.
  16. 이미지 캡처 디바이스에 의한 실행시 상기 이미지 캡처 디바이스로 하여금 동작들을 수행하게 하는 프로그램 명령들이 저장된 비일시적 컴퓨터 판독가능 매체로서, 상기 동작들은,
    상기 이미지 캡처 디바이스의 이미지 센서에 의해, 장면의 이미지를 캡처하는 동작;
    상기 장면의 2개 이상의 이전에 캡처된 이미지들의 버퍼에 상기 캡처된 이미지를 저장하는 동작;
    상기 2개 이상의 이전에 캡처된 이미지들 중 가장 오래된 이미지를 상기 버퍼로부터 제거하는 동작;
    상기 버퍼의 이미지들의 총계 이미지(aggregate image)를 업데이트하는 동작, 상기 업데이트하는 동작은 상기 가장 오래된 이미지의 표현을 상기 총계 이미지로부터 감산하고, 상기 캡처된 이미지의 표현을 상기 총계 이미지에 추가하는 동작을 포함하며; 그리고
    상기 이미지 캡처 디바이스의 뷰파인더 상에 상기 총계 이미지의 표현을 디스플레이하는 동작을 포함하는 비일시적 컴퓨터 판독가능 매체.
  17. 제16항에 있어서,
    상기 이미지 캡처 디바이스의 뷰파인더는 리프레시 시간 간격에 의해 정의 되는 리프레시 속도를 가지며, 상기 총계 이미지의 표현은 합성 노출 시간 간격에 의해 정의되는 합성 노출 길이를 가지며, 합성 노출 시간 간격은 상기 리프레시 시간 간격보다 큰 것을 특징으로 하는 비일시적 컴퓨터 판독가능 매체.
  18. 제17항에 있어서,
    상기 동작들은,
    상기 리프레시 시간 간격의 서로 다른 정수 배수들인 복수의 가능한 합성 노출 시간 간격들로부터 합성 노출 시간 간격의 선택을 수신하도록 구성된 하나 이상의 사용자 인터페이스 컴포넌트를 제공하는 동작; 및
    선택된 합성 노출 시간 간격으로 상기 합성 노출 시간 간격을 설정하는 동작
    을 더 포함하는 것을 특징으로 하는 비일시적 컴퓨터 판독가능 매체.
  19. 제17항에 있어서,
    상기 동작들은,
    상기 리프레시 시간 간격의 서로 다른 실수 배수들인 복수의 가능한 합성 노출 시간 간격들로부터 합성 노출 시간 간격의 선택을 수신하도록 구성된 하나 이상의 사용자 인터페이스 컴포넌트를 제공하는 동작; 및
    선택된 합성 노출 시간 간격으로 상기 합성 노출 시간 간격을 설정하는 동작
    을 더 포함하는 것을 특징으로 하는 비일시적 컴퓨터 판독가능 매체.
  20. 이미지 캡처 디바이스로서,
    이미지 센서;
    뷰파인더;
    프로세서;
    메모리; 및
    상기 메모리에 저장된 프로그램 명령들을 포함하고,
    상기 프로그램 명령들은 상기 프로세서에 의한 실행시 상기 이미지 캡처 디바이스로 하여금,
    상기 이미지 센서에 의해 장면의 이미지를 캡처하는 동작;
    상기 장면의 2개 이상의 이전에 캡처된 이미지들의 버퍼에 상기 캡처된 이미지를 저장하는 동작;
    상기 2개 이상의 이전에 캡처된 이미지들 중 가장 오래된 이미지를 상기 버퍼로부터 제거하는 동작;
    상기 버퍼의 이미지들의 총계 이미지(aggregate image)를 업데이트하는 동작, 상기 업데이트하는 동작은 상기 가장 오래된 이미지의 표현을 상기 총계 이미지로부터 감산하고, 상기 캡처된 이미지의 표현을 상기 총계 이미지에 추가하는 동작을 포함하며; 그리고
    상기 뷰파인더 상에 상기 총계 이미지의 표현을 디스플레이하는 동작
    을 포함하는 동작들을 수행하게 하는 이미지 캡처 디바이스.
KR1020187023039A 2016-04-13 2017-02-16 합성 장시간 노출에 대한 실시간 업데이트 KR102156304B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/097,687 2016-04-13
US15/097,687 US10187587B2 (en) 2016-04-13 2016-04-13 Live updates for synthetic long exposures
PCT/US2017/018032 WO2017180233A1 (en) 2016-04-13 2017-02-16 Live updates for synthetic long exposures

Publications (2)

Publication Number Publication Date
KR20180102626A true KR20180102626A (ko) 2018-09-17
KR102156304B1 KR102156304B1 (ko) 2020-09-16

Family

ID=58266724

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187023039A KR102156304B1 (ko) 2016-04-13 2017-02-16 합성 장시간 노출에 대한 실시간 업데이트

Country Status (6)

Country Link
US (2) US10187587B2 (ko)
EP (1) EP3395060B1 (ko)
JP (1) JP6720324B2 (ko)
KR (1) KR102156304B1 (ko)
CN (1) CN108781260B (ko)
WO (1) WO2017180233A1 (ko)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2016252993B2 (en) 2015-04-23 2018-01-04 Apple Inc. Digital viewfinder user interface for multiple cameras
US11308601B2 (en) * 2015-04-29 2022-04-19 Emhart Glass S.A. Container inspection system with individual light control
US10187587B2 (en) * 2016-04-13 2019-01-22 Google Llc Live updates for synthetic long exposures
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
GB2554669B (en) * 2016-09-30 2022-04-06 Apical Ltd Image processing
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US10677899B2 (en) * 2017-08-07 2020-06-09 Waymo Llc Aggregating non-imaging SPAD architecture for full digital monolithic, frame averaging receivers
US11276031B2 (en) * 2017-12-12 2022-03-15 Dover Europe Sarl Ultraviolet (UV) fluorescing product codes
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
CN111341284A (zh) * 2018-12-19 2020-06-26 富泰华工业(深圳)有限公司 电子装置及其显示屏亮度调节方法
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11039079B1 (en) * 2019-05-07 2021-06-15 Lux Optics Incorporated Generating long exposure images
US20220294964A1 (en) * 2019-10-11 2022-09-15 Google Llc Low-light autofocus technique
CN111263082B (zh) * 2020-03-16 2021-12-14 维沃移动通信(杭州)有限公司 一种曝光数据获取方法及电子设备
US11394900B1 (en) 2020-05-07 2022-07-19 Lux Optics Incorporated Synthesizing intermediary frames for long exposure images
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11818465B2 (en) * 2022-01-10 2023-11-14 Gopro, Inc. Systems, apparatus, and methods for stabilization and blending of exposures

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080052263A (ko) * 2006-12-06 2008-06-11 삼성전자주식회사 자동 화상 관리 방법 및 장치
JP2012222820A (ja) * 2011-04-05 2012-11-12 Polycom Inc 直接的なアイコンタクトを増進するビデオ会議ユニット
JP2014085897A (ja) * 2012-10-25 2014-05-12 Kyocera Corp 表示制御装置,表示制御プログラムおよび表示制御方法
WO2015184208A1 (en) * 2014-05-30 2015-12-03 Apple Inc. Constant bracketing for high dynamic range operations (chdr)

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3394662B2 (ja) * 1996-08-30 2003-04-07 沖電気工業株式会社 交通流計測方法および装置
US7027172B1 (en) * 2000-08-15 2006-04-11 Eastman Kodak Company Color digital printer having a graphical user interface for displaying and selecting images for local and remote printing
JP4503892B2 (ja) 2001-08-22 2010-07-14 オリンパス株式会社 撮像装置
JP4250436B2 (ja) * 2003-02-27 2009-04-08 キヤノン株式会社 表示制御装置
JP4323969B2 (ja) 2004-01-16 2009-09-02 キヤノン株式会社 撮影装置
JP4574473B2 (ja) * 2005-07-11 2010-11-04 キヤノン株式会社 情報処理装置および方法
JP4441882B2 (ja) * 2005-11-18 2010-03-31 ソニー株式会社 撮影装置、表示制御方法、プログラム
JP2007140278A (ja) * 2005-11-21 2007-06-07 Eastman Kodak Co デジタルカメラ、露出条件決定方法
JP4483841B2 (ja) * 2006-09-06 2010-06-16 カシオ計算機株式会社 撮像装置
JP2008079222A (ja) * 2006-09-25 2008-04-03 Nikon Corp デジタルカメラ
US8199220B2 (en) * 2006-12-06 2012-06-12 Samsung Electronics Co., Ltd. Method and apparatus for automatic image management
KR100831661B1 (ko) * 2006-12-06 2008-05-22 삼성전자주식회사 이미지 센서를 구비하는 촬영 장치와 그 사진 촬영 방법
JP5148989B2 (ja) * 2007-12-27 2013-02-20 イーストマン コダック カンパニー 撮像装置
JP4958807B2 (ja) * 2008-01-24 2012-06-20 株式会社キーエンス 画像処理装置
JP4544332B2 (ja) 2008-04-07 2010-09-15 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4655239B2 (ja) 2008-09-24 2011-03-23 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP5434038B2 (ja) * 2008-10-08 2014-03-05 株式会社ニコン 撮像装置
JP2010252006A (ja) * 2009-04-15 2010-11-04 Casio Computer Co Ltd 撮像装置、撮影方法、及びそのプログラム
JP5384273B2 (ja) * 2009-09-30 2014-01-08 富士フイルム株式会社 カメラ及びカメラの記録方法
GB2474886A (en) 2009-10-30 2011-05-04 St Microelectronics Image stabilisation using motion vectors and a gyroscope
JP5136664B2 (ja) 2010-07-09 2013-02-06 カシオ計算機株式会社 画像処理装置、及びプログラム
KR101953614B1 (ko) * 2012-10-12 2019-05-22 삼성전자주식회사 카메라장치의 이미지처리장치 및 방법
US20140111670A1 (en) * 2012-10-23 2014-04-24 Nvidia Corporation System and method for enhanced image capture
US9319589B2 (en) * 2013-05-31 2016-04-19 Sony Corporation Device and method for capturing images and selecting a desired image by tilting the device
CN103293825B (zh) 2013-06-26 2014-11-26 深圳市中兴移动通信有限公司 多重曝光方法和装置
US8879858B1 (en) * 2013-10-01 2014-11-04 Gopro, Inc. Multi-channel bit packing engine
GB2520319A (en) * 2013-11-18 2015-05-20 Nokia Corp Method, apparatus and computer program product for capturing images
US9172869B2 (en) * 2013-12-04 2015-10-27 Omnivision Technologies, Inc. Image data aggregating high dynamic range imaging systems and associated methods
JP6501536B2 (ja) * 2015-02-02 2019-04-17 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US10187587B2 (en) * 2016-04-13 2019-01-22 Google Llc Live updates for synthetic long exposures

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080052263A (ko) * 2006-12-06 2008-06-11 삼성전자주식회사 자동 화상 관리 방법 및 장치
JP2012222820A (ja) * 2011-04-05 2012-11-12 Polycom Inc 直接的なアイコンタクトを増進するビデオ会議ユニット
JP2014085897A (ja) * 2012-10-25 2014-05-12 Kyocera Corp 表示制御装置,表示制御プログラムおよび表示制御方法
WO2015184208A1 (en) * 2014-05-30 2015-12-03 Apple Inc. Constant bracketing for high dynamic range operations (chdr)

Also Published As

Publication number Publication date
JP6720324B2 (ja) 2020-07-08
US10523875B2 (en) 2019-12-31
JP2019511856A (ja) 2019-04-25
US20190116304A1 (en) 2019-04-18
US10187587B2 (en) 2019-01-22
US20170302840A1 (en) 2017-10-19
CN108781260A (zh) 2018-11-09
EP3395060A1 (en) 2018-10-31
WO2017180233A1 (en) 2017-10-19
EP3395060B1 (en) 2021-05-19
CN108781260B (zh) 2019-06-04
KR102156304B1 (ko) 2020-09-16

Similar Documents

Publication Publication Date Title
KR102156304B1 (ko) 합성 장시간 노출에 대한 실시간 업데이트
US9100589B1 (en) Interleaved capture for high dynamic range image acquisition and synthesis
KR102381713B1 (ko) 촬영 방법, 촬영 장치, 및 이동 단말
EP3599760B1 (en) Image processing method and apparatus
EP3010226B1 (en) Method and apparatus for obtaining photograph
US9253375B2 (en) Camera obstruction detection
US9264630B2 (en) Method and apparatus for creating exposure effects using an optical image stabilizing device
EP3136391B1 (en) Method, device and terminal device for video effect processing
US9195880B1 (en) Interactive viewer for image stacks
WO2015143841A1 (zh) 移动终端及其拍摄方法
US10609265B2 (en) Methods and apparatus for synchronizing camera flash and sensor blanking
TW201931844A (zh) 在不同影像擷取條件下組合光學及數位變焦
JP2012109835A (ja) 撮像装置、撮像方法及びプログラム
WO2021057359A1 (zh) 图像处理方法、电子设备及可读存储介质
JP6461107B2 (ja) ピクチャ表示方法および装置
WO2018116824A1 (ja) 制御装置、制御方法、並びにプログラム
US9723217B2 (en) Imaging device and control method for imaging device
US20190268530A1 (en) Imaging device, imaging method, and imaging program
CN114070998A (zh) 一种拍摄月亮的方法、装置、电子设备及介质
US9736387B2 (en) Irradiation device, irradiation method, and program for switching irradiation regions
JP2013225923A (ja) カメラ、表示装置および画像処理装置
US20240187715A1 (en) Mobile Device Support for Capture and Synthesis of Extreme Low-Light Video
CN116095471A (zh) 图像获取方法、装置及计算机介质
WO2022245344A1 (en) Mobile device support for capture and synthesis of extreme low-light video
CN116980767A (zh) 一种拍摄方法、装置及介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant