KR101573131B1 - 이미지 촬상 방법 및 장치 - Google Patents

이미지 촬상 방법 및 장치 Download PDF

Info

Publication number
KR101573131B1
KR101573131B1 KR1020137034943A KR20137034943A KR101573131B1 KR 101573131 B1 KR101573131 B1 KR 101573131B1 KR 1020137034943 A KR1020137034943 A KR 1020137034943A KR 20137034943 A KR20137034943 A KR 20137034943A KR 101573131 B1 KR101573131 B1 KR 101573131B1
Authority
KR
South Korea
Prior art keywords
image
camera
images
configuration
landscape
Prior art date
Application number
KR1020137034943A
Other languages
English (en)
Other versions
KR20140016401A (ko
Inventor
사미 니에미
데이비드 프레드
Original Assignee
모바일 이미징 인 스웨덴 아베
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모바일 이미징 인 스웨덴 아베 filed Critical 모바일 이미징 인 스웨덴 아베
Publication of KR20140016401A publication Critical patent/KR20140016401A/ko
Application granted granted Critical
Publication of KR101573131B1 publication Critical patent/KR101573131B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/023Multi-image cameras
    • G03B19/026Sequence cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

신규한 개념의 일 측면에 따라서, 카메라를 이용해서 이미지를 촬상하는 방법을 제공한다. 이 방법은, 디지털 카메라에 의해 묘사되는 경관(view)을 분석하는 단계와, 이 분석에 기초해서, 디지털 카메라의 구성의 서브세트를 결정하는 단계를 포함한다. 이 방법은, 카메라에서의 이미지 촬상 커맨드를 검출한 것에 응답해서, 구성의 서브세트 중 적어도 2개의 상이한 구성을 이용해서 적어도 2개의 이미지의 세트를 촬상하는 단계를 더 포함한다.

Description

이미지 촬상 방법 및 장치{METHOD AND APPARATUS FOR CAPTURING IMAGES}
본 발명의 개념은 카메라를 이용한 이미지 촬상 방법 및 이미지 촬상 장치에 관한 것이다.
최근, 가전 제품의 성장이 더욱 빨라지면서, 오늘날 디지털 카메라는 흔한 제품이 되었다. 따라서, 촬영 기회가 있을 때에는, 예컨대, 전용 스틸-이미지 카메라, 전용 비디오 카메라 혹은 휴대 전화, 스마트 폰 혹은 디지털 카메라를 포함하는 태블릿 컴퓨터의 형태로, 사실상 언제든지 카메라를 이용할 수 있다. 그러나, 때로는 촬영 기회가 순간적이여서, 사진가가 카메라를 셋업하고 촬영을 준비할 시간이 거의 없는 경우가 있다. 그 결과, 카메라를 갖고 있음에도 불구하고, 많은 소중한 촬영 기회를 놓치고 만다.
종래, 순간적인 촬영 기회를 포착할 수 있게 하려는 시도가 있었다. 지금까지 이러한 시도는 카메라 사용자가 행해야 하는 촬상전 선택 사항을 최소화하는 것에 이르렀다. 종종 완벽한 촬상 상태과는 무관하게, 단지 카메라 버튼을 한번 누르기만 하면 된다. 그러나, 때로는 카메라가 최상으로 설정되지 않게 되어서, 촬상된 이미지가 기술면에서 수용할 수 없는 퀄리티의 이미지가 되어 버린다. 더욱이, 많은 경우에, 이를 촬상한 후에 리뷰하고 나서야 알아차리게 된다.
때로는, 다양한 컴퓨터-이용 후보정을 이용해서 낮은 퀄리티의 촬상 이미지를 '저장'할 수 있다. 그러나, 이는 시간이 많이 걸리고 번거롭다. 나아가서, 후보정은 그 범위가 기술적인 에러를 보상하는 것으로만 한정될 수 있다. 그래서, 어떤 촬영 기회는 여전히 반복해서 놓치게 된다. 따라서, 촬영 기회를 놓치지 않을 수 있는 방법이 요구되고 있다.
본 신규한 개념의 목적은 종래의 기술에서의 목적을 만족시키는 것이다.
본 신규한 개념의 제 1 측면에 따라서, 카메라를 이용해서 이미지를 촬상하는 방법이 제공된다. 이 방법은 디지털 카메라에 의해 묘사되는 경관(view)을 분석하는 단계와, 이 분석에 기초해서, 디지털 카메라의 구성의 서브세트를 결정하는 단계를 포함한다. 이 방법은 카메라에서의 이미지 촬상 커맨드를 검출한 것에 응답해서, 구성의 서브세트 중 적어도 2개의 상이한 구성을 이용해서 적어도 2개의 이미지의 세트를 촬상하는 단계를 더 포함한다.
본 신규한 이미지 촬상 방법을 통해서, 이미지 촬상 커맨드에 응답해서, 상이한 구성을 이용해서, 적어도 2개의, 바람직하게는 복수의 이미지를 편리하게 자동으로 촬상할 수 있다. 상이한 구성을 이용해서 이미지를 촬상함으로써, 사용자는 다양한 카메라 구성으로 약간씩 다른 시점에 촬상된 이미지의 세트를 얻을 수 있다. 이로써, 사용자는, 촬영 기회가 지나가기 전에, 촬상 타이밍 혹은 이미지 촬상에 이용되는 카메라 구성을 변경할 수 있다. 예컨대, 사용자는, 촬영 기회의 며칠 혹은 몇 주 후에 리뷰하는 동안, 플래시를 켜는 것으로 하거나 노출 시간을 변경하는 것 등으로 결정할 수 있게 된다. 타이밍적인 측면과 기계적인 품질의 측면 모두에서, 종래의 기술에 비해서, 수용할 수 있는 품질의 이미지를 촬상할 수 있는 가능성을 높일 수 있다. 또한, 이를, 사용자의 촬상전 옵션을 최소화하면서 달성할 수 있다.
또한, 본 방법에서는, 적어도 2개의 이미지를 촬상함으로써, 적어도 2개의 이미지 중 하나 이상으로부터의 데이터를 결합해서 개선된 통합 이미지를 획득하는 것에 의해, 복잡한 후처리를 가능하게 할 수 있다. 이에 대해서는 상세하게 후술한다.
이미지 촬상 커맨드는 단일 사용자 입력 이미지 촬상 커맨드일 수 있다. 이 이미지 촬상 커맨드는 카메라의 이미지 촬상 액추에이터를 한번 가동하는 것이 될 수 있다. 이 이미지 촬상 커맨드는 카메라의 마이크를 통해서 입력되는 가청 이미지 촬상 커맨드일 수 있다. 사용자가 촬상 커맨드를 입력하는 것에 응답해서, 적어도 2개의 이미지가 촬상될 수 있다. 따라서 이 방법은 사용자의 최소 입력만을 요구한다. 나아가, 사용자가 어떤 추가 촬상 커맨드를 내릴 필요가 없으므로, 사용자로부터의 입력을 대기하지 않는, 고속의 연속 이미지 촬상이 가능하다. 이로써, 더 많은 촬영 기회의 촬상을 가능하게 할 수 있다. 따라서, 소망의 타이밍의 이미지를 얻을 가능성을 높일 수 있다.
일 실시예에 따라서, 카메라에서 이미지 촬상 커맨드를 검출하는 것은, 카메라가, 자신의 이동이 감소된 것을 검출하는 것을 포함한다. 카메라는 예컨대, 카메라의 이동 속도가 임계 레벨 이하로 떨어지는 것을 결정할 수 있다. 따라서 이미지 촬상 시퀀스가, 사용자가 카메라를 계속해서 유지하고 있는 것으로, 간단하고 편리하게 개시될 수 있다. 추가적인 이점은 움직임 흐림을 줄일 수 있다는 점이다.
일 실시예에 따라서, 이미지의 세트의 수는 상기 이미지 촬상 커맨드의 지속 기간에 비례한다. 이미지 촬상 커맨드가 카메라의 이미지 촬상 액추에이터를 한번 가동하는 것인 경우, 카메라는 이 액추에이터가 눌려져 있는 한 계속해서 이미지를 촬상할 수 있다. 따라서, 사용자는 촬상되는 이미지의 수를 제어할 수 있다.
일 실시예에 따라서, 구성의 서브세트를 결정하는 단계는, 경관의 분석에 기초해서, 카메라의 제 1 이미지 촬상 관련 파라미터를 결정하는 단계와, 제 1 이미지 촬상 관련 파라미터의 설정의 제 1 서브세트를 결정하는 단계와, 설정의 제 1 서브세트를 이용해서 상기 구성의 서브세트를 형성하는 단계를 포함하고, 여기서 구성의 서브세트의 각각의 구성은 설정의 제 1 서브세트의 설정을 포함한다. 설정의 제 1 서브세트는, 제 1 촬상 관련 파라미터의 적어도 2개의 상이한 설정을 포함할 수 있다. 따라서, 구성의 서브세트의 각각의 구성은 파라미터의 상이한 설정을 포함할 수 있다. 예컨대, 각각의 구성은 플래시 강도의 상이한 설정, 구경(aperture)의 상이한 설정 혹은 노출의 상이한 설정 등을 포함할 수 있다.
구성의 서브세트를 결정하는 단계는, 경관의 분석에 기초해서, 카메라의 제 2 이미지 촬상 관련 파라미터를 결정하는 단계와, 제 2 이미지 촬상 관련 파라미터의 제 2 서브세트를 결정하는 단계와, 설정의 제 1 서브세트 및 제 2 서브세트를 이용해서 구성의 서브세트를 형성하는 단계를 포함하고, 여기서 구성의 서브세트의 각각의 구성은 설정의 제 1 서브세트와 설정의 제 2 서브세트의 조합을 포함한다. 설정의 제 2 서브세트는 제 2 이미지 촬상 관련 파라미터의 적어도 2개의 상이한 설정을 포함할 수 있다. 따라서 이미지는 2개 이상의 파라미터의 설정을 변경하면서 촬상될 수 있다.
제 1 이미지 촬상 관련 파라미터는, 구경, 노출 시간, 노출값, ISO, 플래시 사용 여부, 플래시 강도, 플래시 동기화 속도, 색 설정, 화이트 밸런스 및 초점을 포함한 그룹으로부터 선택될 수 있다. 제 2 이미지 촬상 관련 파라미터도 동일한 그룹으로부터 선택될 수 있다.
일 실시예에 따라서, 경관을 분석하는 단계는, 경관의 적어도 하나의 특징을 식별하는 단계를 포함한다. 이 적어도 하나의 특징은, 경관 내의 광 상태, 경관의 순색량(color content), 혹은 인물, 단체 인물, 풍경, 도시 환경 혹은 이동 물체 등과 같은, 묘사되는 경관의 타입 중 적어도 하나를 포함할 수 있다. 야간 촬영시에 중요한 혹은 민감한 촬상 관련 파라미터는, 단체 인물 촬영시에 중요한 혹은 민감한 촬상 관련 파라미터와는 상이하다. 카메라의 구성의 서브세트가 실제 촬영 상태 및/또는 그 상황에 기초해서 결정될 수 있기 때문에, 이러한 것이 고려될 수 있다.
일 실시예에 따라서, 이 방법은 이미지 촬상 커맨드를 검출하기 전에 경관의 적어도 하나의 이미지를 촬상하는 단계를 더 포함한다. 이로써, 이미지 촬상 커맨드를 내릴 때 사용자가 '너무 지연'되는 경우에도, 소망의 순간을 촬상한 이미지를 얻을 수 있다. 이로써, 소망의 타이밍의 이미지를 얻을 수 있는 가능성을 높일 수 있다.
경관을 분석하는 단계는, 이미지 촬상 커맨드를 검출하기 이전에, 적어도 하나의 이미지를 분석하는 단계를 포함할 수 있다. 이로써, 이미지 촬상 커맨드가 검출될 때, 사용되는 구성의 서브세트가 이미지 결정되어 있을 수 있으며, 어떤 이미지 촬상 래그(lag)(예컨대, 셔터 래그)를 감소시킬 수 있다. 이미지 촬상 커맨드를 검출하기 전에 촬상된 적어도 하나의 이미지는 카메라의 뷰파인더에 제공될 수 있다. 따라서, 경관을 분석하는 단계는 경관을 나타내는 뷰파인더 이미지를 분석하는 단계를 포함할 수 있다.
일 실시예에 따라서, 이 방법은 이미지의 세트를 이미지 시퀀스를 나타내는 데이터 구조 내에 저장하는 단계를 더 포함한다. 이로써, 사용자 리뷰과 카메라의 메모리 저장 용량을 위해서, 혹은 이들 중 하나를 위해서 이미의 세트를 처리하는 것이 편리하게 된다. 이 데이터 구조는 예컨대, 비디오 파일, 슬라이드 쇼 등의 형태가 될 수 있다. 데이터 구조는 원형 버퍼가 될 수 있다. 원형 버퍼는 사전 결정된 수의 이미지를 저장하도록 배치될 수 있다. 버퍼가 가득차면, 이미지는, 버퍼에 저장된 것 중 가장 오래된 이미지부터 차례로 더 최근에 촬상된 이미지로 대체될 수 있다.
이미지 촬상 커맨드를 검출하기 전에 적어도 하나의 이미지가 촬상된 경우에, 이 방법은 이미지 촬상 커맨드를 검출하기 전에 촬상된 적어도 하나의 이미지와 이미지의 세트를 이미지 시퀀스를 나타내는 데이터 구조 내에 저장하는 단계를 포함할 수 있다.
일 실시예에 따라서, 이 방법은 이미지의 세트를 분석해서, 이미지의 세트 중 기준의 세트에 기초해서 이미지를 결정 혹은 선택하는 단계를 더 포함한다. 이하, 이 이미지를 '선택된 이미지'라고 한다. 따라서 '최상의' 이미지(하나 이상의 기준에 따라서)가 지목되어서 사용자에게 제공될 수 있다. 기준의 세트는 하나 이상의 이미지의 선예도, 콘트래스트, 동적 범위(dynamic range) 등을 포함할 수 있다.
일 실시예에 따라서, 이 방법은 이미지의 세트 중 선택된 이미지를 제외한 각 이미지를 삭제하는 단계를 더 포함한다. 이로써, 선택된 이미지만이 유지되기 때문에 저장 요구 조건이 감소될 수 있다.
일 실시예에 따라서, 이 방법은 이미지의 세트를 분석하는 단계와, 이미지의 세트 중, 추가 기준의 세트에 기초해서 추가 이미지를 결정 혹은 선택하는 단계를 더 포함한다. 이하, 이 이미지를 '선택된 추가 이미지'라고 한다. 이 방법은 또한 선택된 이미지와 선택된 추가 이미지를 이용해서 통합 이미지를 형성하는 단계를 더 포함한다. 이로써, 하나 이상의 이미지로부터의 이미지 데이터를 이용해서 더 양호한 품질의 이미지를 얻을 수 있다. 선택된 이미지 및 선택된 추가 이미지를 서로 추가 기준의 세트를 이용해서 선택될 수 있다. 이 기준의 세트를 통해서 예컨대, 소망의 결과를 얻기 위해서 조합하기에 적합한 2개의 이미지를 선택할 수 있게 된다.
일 실시예에 따라서, 선택된 이미지는 구성의 서브세트 중 낮은 노출값 설정을 포함하는 구성을 이용해서 촬상된 이미지에 대응하고, 선택된 추가 이미지는 구성의 서브세트 중 높은 노출값 설정을 포함하는 구성을 이용해서 촬상된 이미지에 대응하며, 여기서 통합 이미지는 증가된 동적 범위를 나타내도록 형성된다. 이로써, 이른바 HDR(High Dynamic Range) 이미지의 형성이 가능해 진다. 이 선택과 조합은 이미지 촬상이 종료된 것에 응답해서 자동으로 수행될 수 있다. 선택과 조합은 사용자로부터 입력 커맨드를 수신한 것에 응답해서 수행될 수도 있다. 예컨대, 사용자가 예컨대 촬영 기회 며칠 후 혹은 몇주 후에 리뷰하는 동안, HDR 이미지를 생성하도록 결정할 수 있다.
일 실시예에 따라서, 이 방법은 이미지의 세트로부터 소스 이미지 및 타겟 이미지를 결정하는 단계와, 소스 이미지 내에서, 좌표의 세트를 가진 소스 영역을 식별하는 단계와, 소스 영역을 식별한 것에 응답해서, 소스 영역에 대한 좌표의 세트를 이용해서 타겟 이미지 내에서 타겟 영역을 식별하는 단계와, 타겟 이미지의 이미지 데이터 정보에 기초해서 통합 이미지를 형성하는 단계를 더 포함하고, 여기서 타겟 영역의 이미지 데이터 정보는 소스 영역의 이미지 데이터 정보로 단절없이(seamlessly) 대체된다.
일 실시예에 따라서, 이 방법은 이미지의 세트로부터 소스 이미지 및 타겟 이미지를 결정하는 단계와, 소스 이미지 내에서, 좌표의 세트를 가진 소스 영역을 식별하는 단계와, 소스 영역을 식별한 것에 응답해서, 소스 영역에 대한 좌표의 세트를 이용해서 타겟 이미지 내에서 타겟 영역을 식별하는 단계와, 소스 이미지의 이미지 데이터 정보에 기초해서 통합 이미지를 형성하는 단계를 더 포함하고, 여기서 소스 영역의 이미지 데이터 정보는 타겟 영역의 이미지 데이터 정보로 단절없이 대체된다.
이들 2개의 마지막 실시예를 통해서, 타겟 이미지 중 하나의 이미지 데이터 정보에 기초해서 통합 이미지를 형성할 수 있고, 여기서 타겟 영역의 이미지 데이터 정보는 소스 영역 혹은 소스 이미지의 이미지 데이터 정보로 단절없이 대체되고, 소스 영역의 이미지 데이터 정보는 타겟 영역의 이미지 데이터 정보로 단절없이 대체된다.
따라서, 이들 방법을 통해서 이미지의 영역이 단절없이 대체될 수 있다. 이로써, 결함이 있는 영역을 다른 이미지로부터의 영역으로 단절없이 대체할 수 있다. 사용자가 이미지의 일부를 다른 이미지로부터의 동일 영역으로 대체할 수 있으므로, 예컨대, 눈을 감고 있는 사람을 묘사하는 이미지의 영역을 눈을 뜨고 있는 (동일한) 사람의 다른 (유사한) 이미지로부터의 대응 영역으로 대체할 수 있다. 소스 이미지는 상술한 선택된 이미지에 대응할 수 있고, 타겟 이미지는 상술한 선택된 추가 이미지에 대응할 수 있지만, 그 반대로 대응할 수도 있다.
일 실시예에 따라서, 이미지의 세트는, 구성의 서브세트의 각각의 구성에 대해서, 이미지의 세트가 구성을 이용해서 촬상된 이미지를 적어도 하나 포함하는 방식으로, 촬상된다.
본 신규한 개념의 제 2 측면에 따라서, 카메라를 이용해서 이미지를 촬상하는 방법이 제공된다. 이 방법은 카메라에 의해 묘사되는 경관을 분석하는 단계와, 경관의 분석에 기초해서, 카메라의 제 1 구성을 결정하는 단계와, 카메라에서의 이미지 촬상 커맨드를 검출한 것에 응답해서, 제 1 구성을 이용해서, 경관의 제 1 이미지를 촬상하는 단계를 포함한다. 이 방법은, 제 1 이미지를 분석하는 단계와, 제 1 이미지의 분석에 기초해서, 카메라의 제 2 구성을 결정하는 단계와, 제 2 구성을 이용해서 제 2 이미지를 촬상하는 단계를 더 포함한다.
제 1 측면과 관련해서 설명된 이점이, 마찬가지로 제 2 측면에도 적용되며, 상기 설명을 참조한다. 제 2 측면은, 구성이 이미지 촬상시에 점차적으로 결정될 수 있다는 추가적인 이점을 제공한다. 이로써, 이 방법은 이미지 촬상 사이에 발생하는 변화를 고려할 수 있다. 나아가, 제 1 이미지를 촬상하기 전에 하나의 구성만이 결정되면 되기 때문에 래그를 감소시킬 수 있다.
이 방법은 제 2 이미지를 분석하는 단계와, 제 2 이미지의 분석에 기초해서, 디지털 카메라의 제 3 구성을 결정하는 단계와, 제 3 구성을 이용해서 제 3 이미지를 촬상하는 단계를 더 포함한다. 이 처리를 반복해서 또 다른 이미지를 촬상할 수 있다. 제 1 이미지 및 제 2 이미지, 그리고 존재한다면 제 3 및 또 다른 이미지가 촬상된 이미지의 세트를 형성한다.
일 실시예에 따라서, 제 1 구성을 결정하는 단계는, 카메라에 의해 묘사되는 경관의 분석에 기초해서, 카메라의 제 1 이미지 촬상 관련 파라미터를 결정하는 단계와, 제 1 촬상 관련 파라미터의 제 1 설정을 결정하는 단계를 포함한다. 또한, 제 2 구성을 결정하는 단계는, 제 1 이미지의 분석에 기초해서, 디지털 카메라의 제 2 이미지 촬상 관련 파라미터를 결정하는 단계와, 제 2 촬상 관련 파라미터의 제 2 설정을 결정하는 단계를 포함한다. 따라서, 제 1 이미지는 제 1 촬상 관련 파라미터의 제 1 설정을 이용해서 촬상되고, 제 2 이미지는 제 2 촬상 관련 파라미터의 제 2 설정을 이용해서 촬상된다.
제 1 및 제 2 촬상 관련 파라미터는 동일한 파라미터가 될 수 있고, 여기서 제 1 및 제 2 촬상 관련 파라미터의 제 1 설정은, 동일한 결정된 촬상 관련 파라미터의 2개의 상이한 설정이다. 이와 달리, 제 1 및 제 2 촬상 관련 파라미터는 서로 다른 파라미터이다.
이미지 촬상 커맨드는 한번의 사용자 입력 이미지 촬상 커맨드가 될 수 있다. 이미지 촬상 커맨드는 카메라의 이미지 촬상 액추에이터를 한번 가동하는 것이 될 수 있다. 이와 달리, 이미지 촬상 커맨드는 카메라의 마이크를 통해서 입력되는 가청 이미지 촬상 커맨드일 수 있다. 따라서 사용자가 촬상 커맨드를 입력하는 것에 응답해서, 적어도 2개의 이미지가 촬상될 수 있다. 따라서 이 방법은 사용자의 최소 입력만을 요구한다. 나아가, 사용자가 어떤 추가 촬상 커맨드를 내릴 필요가 없으므로, 사용자로부터의 입력을 대기하지 않는, 고속의 연속 이미지 촬상이 가능하다. 이로써, 더 많은 촬영 기회의 촬상을 가능하게 할 수 있다. 따라서, 소망의 타이밍의 이미지를 얻을 가능성을 높일 수 있다.
일 실시예에 따라서, 카메라에서 이미지 촬상 커맨드를 검출하는 것은, 카메라가, 자신의 이동이 감소된 것을 검출하는 것을 포함한다. 카메라는 예컨대, 카메라의 이동 속도가 임계 레벨 이하로 떨어지는 것을 결정할 수 있다. 따라서 이미지 촬상 시퀀스가, 사용자가 카메라를 계속해서 유지하고 있는 것으로, 간단하고 편리하게 개시될 수 있다. 추가적인 이점은 움직임 흐림을 줄일 수 있다는 점이다.
일 실시예에 따라서, 이미지의 세트의 수는 상기 이미지 촬상 커맨드의 지속 기간에 비례한다. 이미지 촬상 커맨드가 카메라의 이미지 촬상 액추에이터를 한번가동하는 것인 경우, 카메라는 이 액추에이터가 눌려져 있는 한 계속해서 이미지를 촬상할 수 있다. 따라서, 사용자는 촬상되는 이미지의 수를 제어할 수 있다.
일 실시예에 따라서, 제 1 및 제 2 이미지 촬상 관련 파라미터는, 구경, 노출 시간, 노출 보상, ISO, 플래시 사용 여부, 플래시 강도, 플래시 동기화 속도, 색 설정, 화이트 밸런스 및 초점을 포함한 그룹으로부터 선택될 수 있다.
일 실시예에 따라서, 카메라에 의해 묘사되는 경관을 분석하는 단계는, 경관의 적어도 하나의 특징을 식별하는 단계를 포함하고, 제 1 이미지를 분석하는 단계는, 제 1 이미지의 적어도 하나의 특징을 식별하는 단계를 포함한다. 이 식별된 특징은, 경관 내의 광 상태, 경관의 순색량, 혹은 인물, 단체 인물, 풍경, 도시 환경 혹은 이동 물체 등과 같은, 묘사되는 경관의 타입 중 적어도 하나를 포함할 수 있다. 야간 촬영시에 중요한 혹은 민감한 촬상 관련 파라미터는, 단체 인물 촬영시에 중요한 혹은 민감한 촬상 관련 파라미터와는 상이하다. 본 실시예는 카메라의 구성이 실제 촬영 상태 및/또는 그 상황에 기초해서 결정될 수 있다는 점을 고려한다.
일 실시예에 따라서, 이 방법은 이미지 촬상 커맨드를 검출하기 전에 경관의 적어도 하나의 이미지를 촬상하는 단계를 더 포함한다. 이로써, 이미지 촬상 커맨드를 내릴 때 사용자가 '너무 지연'되는 경우에도, 소망의 순간을 촬상한 이미지를 얻을 수 있다. 이로써, 소망의 타이밍의 이미지를 얻을 수 있는 가능성을 높일 수 있다.
경관을 분석하는 단계는, 이미지 촬상 커맨드를 검출하기 이전에, 적어도 하나의 이미지를 분석하는 단계를 포함할 수 있다. 이로써, 이미지 촬상 커맨드가 검출될 때, 사용되는 구성의 서브세트가 이미지 결정되어 있을 수 있으며, 어떤 이미지 촬상 래그(예컨대, 셔터 래그)를 감소시킬 수 있다. 이미지 촬상 커맨드를 검출하기 전에 촬상된 적어도 하나의 이미지는 카메라의 뷰파인더에 제공될 수 있다. 따라서, 경관을 분석하는 단계는 경관을 나타내는 뷰파인더 이미지를 분석하는 단계를 포함할 수 있다.
일 실시예에 따라서, 이 방법은 이미지의 세트를 이미지 시퀀스를 나타내는 데이터 구조로 저장하는 단계를 더 포함한다. 이로써, 사용자 리뷰과 카메라의 메모리 저장 용량을 위해서, 혹은 이들 중 하나를 위해서 이미의 세트를 처리하는 것이 편리하게 된다. 이 데이터 구조는 예컨대, 비디오 파일, 슬라이드 쇼 등의 형태가 될 수 있다.
이미지 촬상 커맨드를 검출하기 전에 적어도 하나의 이미지가 촬상된 경우에, 이 방법은 이미지 촬상 커맨드를 검출하기 전에 촬상된 적어도 하나의 이미지와 이미지의 세트를 모두, 이미지 시퀀스를 나타내는 데이터 구조 내에 저장하는 단계를 포함할 수 있다.
일 실시예에 따라서, 이 방법은 이미지의 세트를 분석해서, 이미지의 세트 중 기준의 세트에 기초해서 이미지를 결정 혹은 선택하는 단계를 더 포함한다. 이하, 이 이미지를 '선택된 이미지'라고 한다. 따라서 '최상의' 이미지(하나 이상의 기준에 따라서)가 지목되어서 사용자에게 제공될 수 있다. 기준의 세트는 하나 이상의 이미지의 선예도, 콘트래스트, 동적 범위 등을 포함할 수 있다.
일 실시예에 따라서, 이 방법은 이미지의 세트 중 선택된 이미지를 제외한 각 이미지를 삭제하는 단계를 더 포함한다. 이로써, 선택된 이미지만이 유지되기 때문에 저장 요구 조건이 감소될 수 있다.
일 실시예에 따라서, 이 방법은 이미지의 세트를 분석하는 단계와, 이미지의 세트 중, 추가 기준의 세트에 기초해서 추가 이미지를 결정 혹은 선택하는 단계를 더 포함한다. 이하, 이 이미지를 '선택된 추가 이미지'라고 한다. 이 방법은 또한 선택된 이미지와 선택된 추가 이미지를 이용해서 통합 이미지를 형성하는 단계를 더 포함한다. 이로써, 하나 이상의 이미지로부터의 이미지 데이터를 이용해서 더 양호한 품질의 이미지를 얻을 수 있다. 선택된 이미지 및 선택된 추가 이미지를 서로 추가 기준의 세트를 이용해서 선택될 수 있다. 이 기준의 세트를 통해서 예컨대, 소망의 결과를 얻기 위해서 조합하기에 적합한 2개의 이미지를 선택할 수 있게 된다.
일 실시예에 따라서, 선택된 이미지는 구성의 서브세트 중 낮은 노출값 설정을 포함하는 구성을 이용해서 촬상된 이미지에 대응하고, 선택된 추가 이미지는 구성의 서브세트 중 높은 노출값 설정을 포함하는 구성을 이용해서 촬상된 이미지에 대응하며, 여기서 통합 이미지는 증가된 동적 범위를 나타내도록 형성된다. 이로써, 이른바 HDR 이미지의 형성이 가능해 진다. 이 선택과 조합은 이미지 촬상이 종료된 것에 응답해서 자동으로 수행될 수 있다. 선택과 조합은 사용자로부터 입력 커맨드를 수신한 것에 응답해서 수행될 수도 있다. 예컨대, 사용자가 예컨대 촬영 기회 며칠 후 혹은 몇주 후에 리뷰하는 동안, HDR 이미지를 생성하도록 결정할 수 있다.
일 실시예에 따라서, 이 방법은 이미지의 세트로부터 소스 이미지 및 타겟 이미지를 결정하는 단계와, 소스 이미지 내에서, 좌표의 세트를 가진 소스 영역을 식별하는 단계와, 소스 영역을 식별한 것에 응답해서, 소스 영역에 대한 좌표의 세트를 이용해서 타겟 이미지 내에서 타겟 영역을 식별하는 단계와, 타겟 이미지의 이미지 데이터 정보에 기초해서 통합 이미지를 형성하는 단계를 더 포함하고, 여기서 타겟 영역의 이미지 데이터 정보는 소스 영역의 이미지 데이터 정보로 단절없이 대체된다.
일 실시예에 따라서, 이 방법은 이미지의 세트로부터 소스 이미지 및 타겟 이미지를 결정하는 단계와, 소스 이미지 내에서, 좌표의 세트를 가진 소스 영역을 식별하는 단계와, 소스 영역을 식별한 것에 응답해서, 소스 영역에 대한 좌표의 세트를 이용해서 타겟 이미지 내에서 타겟 영역을 식별하는 단계와, 소스 이미지의 이미지 데이터 정보에 기초해서 통합 이미지를 형성하는 단계를 더 포함하고, 여기서 소스 영역의 이미지 데이터 정보는 타겟 영역의 이미지 데이터 정보로 단절없이 대체된다.
이들 2개의 마지막 실시예를 통해서, 타겟 이미지 중 하나의 이미지 데이터 정보에 기초해서 통합 이미지를 형성할 수 있고, 여기서 타겟 영역의 이미지 데이터 정보는 소스 영역 혹은 소스 이미지의 이미지 데이터 정보로 단절없이 대체되고, 소스 영역의 이미지 데이터 정보는 타겟 영역의 이미지 데이터 정보로 단절없이 대체된다.
따라서, 이들 방법을 통해서 이미지의 영역이 단절없이 대체될 수 있다. 이로써, 결함이 있는 영역을 다른 이미지로부터의 영역으로 단절없이 대체할 수 있다. 사용자가 이미지의 일부를 다른 이미지로부터의 동일 영역으로 대체할 수 있으므로, 예컨대, 눈을 감고 있는 사람을 묘사하는 이미지의 영역을 눈을 뜨고 있는 (동일한) 사람의 다른 (유사한) 이미지로부터의 대응 영역으로 대체할 수 있다. 소스 이미지는 상술한 선택된 이미지에 대응할 수 있고, 타겟 이미지는 상술한 선택된 추가 이미지에 대응할 수 있지만, 그 반대로 대응할 수도 있다.
본 신규한 개념의 제 3 실시예에 따라서, 제 1 및/또는 제 2 개념의 방법을 수행하도록 구성된 카메라가 제공된다. 이 카메라는 제 1 및 제 2 측면의 상술한 특정 실시예 중 어느 하나를 수행하도록 구성될 수 있다. 카메라는 이미지를 촬상하는 이미지 촬상 수단을 포함할 수 있다. 이 이미지 촬상 수단은 이미지를 촬상하도록 구성된 이미지 촬상 장치가 될 수 있다. 카메라는 경관 및/또는 촬상된 이미지를 분석하는 처리 수단을 포함할 수 있다. 카메라는 카메라의 구성(의 서브세트)를 결정하는 처리 수단을 포함할 수 있다. 이 처리 수단은 경관 및/또는 촬상된 이미지를 분석하고, 카메라의 구성(의 서브세트)를 결정하도록 구성된 프로세서가 될 수 있다. 이 카메라는 이미지 촬상 커맨드를 수신하는 수단을 포함할 수 있다. 이 수단은 사용자 입력 이미지 촬상 커맨드를 수신하도록 구성된 입력 장치가 될 수 있다. 이 카메라는 촬상된 이미지를 저장하는 저장 수단을 포함할 수 있다. 이 저장 수단은 촬상된 이미지를 저장하도록 구성된 메모리일 수 있다.
본 신규한 개념의 제 4 실시예에 따라서, 카메라에 다운로드되었을 때, 제 1 및/또는 제 2 측면의 방법을 수행하도록 구성된 소프트웨어 인스트럭션을 포함하는 컴퓨터 프로그램 제품이 제공된다. 컴퓨터 프로그램 제품은 카메라에 다운로드되었을 때, 제 1 및 제 2 측면의 상술한 특정 실시예를 수행하도록 구성된 소프트웨어 인스트럭션을 더 포함할 수 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독 가능 매체로 제공될 수 있다.
제 3 및 제 4 측면은 전반적으로, 제 1 및 제 2 측면과 동일한 혹은 대응하는 이점을 제공할 수 있다.
본 신규한 개념의 제 5 측면에 따라서, 이미지 촬상 장치가 제공되며, 이 장치는, 날짜, 장치의 지리학적 위치, 장치의 방향, 소리 상태, 이동 상태, 입력되는 이미지 촬상 커맨드의 타입, 경관의 특징과 같은, 촬상 상태를 분석하는 수단과, 분석에 기초해서, 디지털 카메라의 구성의 서브세트를 결정하는 수단과, 카메라에서 이미지 촬상 커맨드를 검출한 것에 응답해서, 구성의 서브세트 중 상이한 구성을 적어도 2개 이용해서 적어도 2개의 이미지의 세트를 촬상하는 수단을 포함한다.
제 5 측면은 전반적으로 상술한 측면과 동일한 혹은 대응하는 이점을 제공할 수 있다.
상술한 본 발명의 신규한 개념의 목적, 특징 및 이점, 그리고 추가적인 목적, 특징 및 이점은, 본 발명의 신규한 개념의 바람직한 실시예에 대한 비한정의 예시적인 상세한 설명을, 첨부된 도면을 참조하면서 읽음으로써 더욱 이해할 수 있을 것이며, 여기서 동일한 구성 요소에 대해서는 동일한 참조 번호를 사용했다.
도 1은 일 실시예에 따른 카메라의 개략도이다.
도 2는 본 발명의 신규한 개념의 제 1 측면에 따른 방법의 실시예의 흐름도이다.
도 3는 본 발명의 신규한 개념의 제 2 측면에 따른 방법의 실시예의 흐름도이다.
도 4는 실시예에 따른 컷 동작을 개략적으로 나타내고 있다.
이하, 본 발명의 신규한 개념의 여러 측면의 구체적인 실시예를 도면을 참조로 설명한다.
도 1은 일 실시예에 따른 카메라(100)의 개략도이다. 카메라(100)는 전용 스틸-이미지 카메라나 전용 비디오 카메라와 같은 디지털 카메라가 될 수 있다. 카메라(100)는 카메라 기능을 갖고 있는, PDA(personal digital assistant)나, 휴대전화나, 스마트폰 혹은 태블릿 컴퓨터가 될 수도 있다. 실제로, 카메라(100)는 이미지 촬상이 가능한 임의의 종류의 장치가 될 수 있다.
카메라(100)는 이미지 촬상 수단을 포함한다. 도 1에서, 이미지 촬상 수단은 이미지 촬상 장치(102)에 의해 구현된다. 이미지 촬상 장치(102)는 이미지 센서나 렌즈를 포함할 수 있다. 이미지 센서는 예컨대, CCD(Charge-Coupled Device)나 CMOS 칩이 될 수 있다. 렌즈는 초점 길이가 고정 혹은 가변인 렌즈가 될 수 있다. 이미지 촬상 장치(102)는 이미지 센서에 의해 수집된 이미지 데이터를 저장하는 저장 버퍼를 더 포함할 수 있다.
카메라(100)는 처리 수단을 포함한다. 도 1에서, 처리 수단은 프로세서(104)에 의해 구현된다. 프로세서(104)는, 이하에 상세하게 설명할 본 발명의 신규한 개념에 따른 방법을 구현하도록 구성된다.
프로세서(104)는 FPGA(field programmable gate arrays), ASIC(applications specified integrated circuits), 등 중 하나 이상으로 구현될 수 있고, 여기서 본 발명의 신규한 개념은 HDL(hardware description language)을 이용해서 구현될 수 있다. 프로세서(104)는, 본 발명의 신규한 개념에 따른 방법을 구현하도록 구성된, 카메라(100)의 CPU(central processing unit), 카메라(100)의 GPU(graphics processing unit), 혹은 카메라(100)의 전용 이미지 처리 유닛으로서 구현될 수도 있고, 여기서 본 발명의 신규한 개념은, 처리 유닛에 의해 실행되는, 카메라(100)에 저장된 저레벨 혹은 고레벨 소프트웨어를 이용해서 구현될 수 있다. 바람직하게, 이미지 센서는 비교적 높은 프레임 레이트의 고해상 이미지를 촬상할 수 있고, 프로세서(104)는 이를 처리할 수 있다. 비한정의 예로서, 이미지 센서는 Aptima Imaging Corporation에서 제조한 MT9E013D00STC가 될 수 있고, 이미지 프로세서는 Aptima Imaging Corporation에서 제조한 CCS8140가 될 수 있다. 이들 구성 요소는 8Mp 해상도에, 15 fps의 프레임 레이트로 동작할 수 있다.
카메라(100)는 저장 수단을 포함한다. 도 1에서 저장 수단은 메모리(106)에 의해 구현되어 있다. 이 메모리는 이미지 촬상 장치(102)에 의해 생성된 이미지 데이터를 저장하기 위한 데이터 섹션을 포함할 수 있다. 이 데이터 메모리는 예컨대, 카메라(100)에 통합된 RAM(random access memory) 혹은 장치(100)에 착탈가능하게 삽입된 메모리 카드에 마련된 플래시 메모리가 될 수 있다. 메모리(106)는 프로세서(104)의 소프트웨어 인스트럭션을 저장하기 위한 프로그램 섹션을 더 포함할 수 있다. 이 프로그램 섹션은 예컨대, 카메라(100)에 통합된 RAM 혹은 ROM이 될 수 있다.
카메라(100) 및 그 구성 요소는 운영 체제(108)의 감시하에 동작한다. 운영 체제(108)는 메모리(106)나 혹은 다른 전용 메모리에 저장될 수 있다.
카메라(100)는 입력 수단을 포함한다. 도 1에서, 입력 수단은 인간-기계 인터페이스(110)에 의해 구현된다. 인간-기계 인터페이스(110)는 이미지 촬상 액추에이터(112)와 같은 액추에이터를 하나 이상 포함할 수 있다. 액추에이터는 물리적인 버튼의 형태나 혹은 장치(100)의 접촉 감지식 디스플레이에 표시된 가상 버튼으로서 제공될 수 있다. 인터페이스(110)는 사용자의 가청 커맨드를 받도록 마이크(114)를 포함할 수도 있다.
본 발명의 신규한 개념의 방법은 하나 이상의 소프트웨어 구성 요소를 포함한 컴퓨터 프로그램 제품(116)으로서 구현될 수도 있다. 이 소프트웨어 구성 요소는, 카메라에 다운로드되었을 때, 본 방법에 대응하는 인스트럭션을 수행하도록 구성된 소프트웨어 인스트럭션을 포함할 수 있다.
이하, 도 1 및 도 2를 참조로 제 1 측면에 따른 방법(200)의 실시예를 설명한다. 카메라의 사용자는 카메라(100)를 원하는 경관(view)을 향해둔다. 이미지 촬상 장치(102)는, 이미지 센서로 입사하는 광을 기록해서 이미지 데이터를 생성함으로써, 이 경관을 묘사한다. 이미지 데이터는 이미지 촬상 장치(102)의 저장 버퍼에 저장될 수 있다. 이미지 촬상 장치(102)는 입사광을 연속해서 기록할 수 있으며, 이 때 이미지 시퀀스를 나타내는 이미지 데이터의 스트림이 생성되어서 저장 버퍼에 저장될 수 있다. 이미지 시퀀스는 FIFO 데이터 구조에 혹은 순환 버퍼에 저장될 수 있고, 여기서 데이터 구조가 가득차면, 이미지는 가장 먼저 기록된 이미지부터 차례로 덮어쓰기된다.
이미지 전체 혹은 그 일부는 선택적으로 카메라(100)의 뷰파인더(예컨대, 디스플레이, EVF(electronic viewfinder) 등)에 제공될 수 있으며, 이로써 사용자는 경관의 미리보기 및 구성을 행할 수 있다. 이 단계에서의 처리 요구 조건을 줄이기 위해서, 이미지 시퀀스는 이미지 촬상 장치(102)가 지원하는 최대 퀄리티 및/또는 해상도 이하의 이미지 시퀀스가 될 수 있다. 이로써 뷰파인더 업데이트시의 래그(lag)도 줄일 수 있다.
프로세서(104)는 묘사되는 경관을 분석한다(박스 206). 운영 체제(108)는 이미지 촬상 장치(102)의 저장 버퍼에 저장된 이미지에 대한 액세스를 프로세서(104)에 제공할 수 있으며, 여기서 프로세서(104)는 그 중 하나 이상의 이미지를 처리할 수 있다. 프로세서(104)는 그 경관의 적어도 하나의 특징을 식별하도록 구성될 수 있다. 이 적어도 하나의 특징은, 경관의 광 상태이나, 경관의 순색량이나, 광 상태에 관련될 수도 있고, 혹은 인물, 단체 인물, 풍경, 도시 환경 혹은 이동 물체 등과 같이, 묘사되는 경관의 타입에 관련된 것일 수 있으며, 이에 대해서는 이하 상세하게 설명한다.
경관을 다른 방식으로 분석할 수도 있다. 예컨대, 보조 광 센서를 이용해서 경관을 분석할 수도 있다. 이 광 센서는 경관의 광 상태에 대한 측정 결과를 프로세서(104)에 제공할 수 있다. 프로세서(104)는 이 측정 결과를, 이하에 설명하는 후처리에 이용할 수 있다.
프로세서(104)는 이 분석에 기초해서, 카메라(100)에 적합한 기본 구성을 결정할 수 있다. 카메라(100)의 구성은, 카메라(100)의 촬상-관련 파라미터의 특정한 설정의 조합을 포함할 수 있다. 예컨대, 프로세서(104)는 이미지 촬상 장치(102)의 저장 버퍼에 기록되어 있는 이미지를 반복해서 분석함으로써, 카메라(100)의 구경 설정과 노출 시간의 적절한 조합을 결정할 수 있다. 이는, 공지된 임의의 자동 노출 방법을 이용해서 수행될 수 있다. 프로세서(104)는, 이미지 촬상 장치(102)가 입사광을 기록할 때 이 결정된 기본 구성을 이용하도록 제어할 수 있다. 프로세서(104)는 이 기본 구성을 반복해서 재평가함으로써, 이미지 촬상 장치(102)에 의해 생성되는 이미지 시퀀스가 정확하게 노출되도록 할 수 있다. 기본 구성은 초점, 화이트 밸런스 등과 같은 다른 파라미터의 설정을 포함할 수 있다.
이 분석에 기초해서, 프로세서(104)는 카메라(100)의 구성의 서브세트도 결정할 수 있다. 이 구성의 서브세트는 각각이 카메라(100)의 촬상-관련 파라미터의 특징 세트의 조합을 포함하고 있는 구성을 2개 이상 포함할 수 있다.
이용할 수 있는 특정 촬상-관련 파라미터는 카메라마다 다를 수 있다. 예컨대, 카메라(100)의 촬상-관련 파라미터로는, 구경, 노출 시간, 노출값, 플래시 사용 여부, 플래시 강도, 플래시 동기화 속도, 색 설정, 화이트 밸런스, 초점 및 노출 지수율(EI 혹은 ISO)를 들 수 있다. 예컨대, 카메라(100)가 ISO, 구경(A), 노출 시간(S), 플래시(F) 및 플래시 강도(FV)의 5개의 촬상-관련 파라미터를 갖고 있다고 하면, 카메라(100)의 구성은 {ISOi1, Ai2, Si3, Fi4, FVi5}로 표기될 수 있으며, 여기서 ISOi1 은 특정 ISO 설정을 나타내고, Ai2는 특정 구경 설정을 나타내며, Si3는 특정 노출 시간 설정을 나타내고, Fi4는 플래시 설정(예컨대, 커짐 혹은 꺼짐)을 나타내며, FVi5는 플래시 강도 설정을 나타낸다.
분석에 기초해서 결정된 구성의 서브세트는, 하나 이상의 파라미터에 대한 다양한 설정을 포함할 수 있다. 비교적 기초적인 예로서, 식별된 특징이 경관의 광 상태에 관한 것이고, 프로세서(104)가 백라이트가 강하다고 결정한 경우에는, 이러한 상태에서 기술적인 면에서 수용할 수 있는 샷을 얻기 위한 임계 파라미터는 플래시 강도가 될 수 있기 때문에, 프로세서(104)는 단 하나의 파라미터의 설정, 플래시 강도만이 변경되는 것으로 구성의 서브세트를 결정할 수 있다. 구성의 결정된 서브세트는 다음 구성을 포함할 수 있다.
{ISO=400, A=3.2, S=1/1000, F=켜짐, FV=표준}
{ISO=400, A=3.2, S=1/1000, F=켜짐, FV=높음}, 및
{ISO=400, A=3.2, S=1/1000, F=켜짐, FV=낮음}.
더 구체적인 예에 따라서, 프로세서(104)는 2개의 파라미터의 설정이 변경되는 것으로 구성의 서브세트를 결정할 수 있다. 식별된 특징이 이동 물체인 경우에는, 2개의 파라미터는 ISO 및 노출 시간이 될 수 있으며, 이는, 이들이 이러한 이동 물체의 선명한 이미지를 얻기 위한 임계 파라미터가 될 수 있기 때문이다. 구성의 결정된 서브세트는 다음 구성을 포함할 수 있다.
{ISO=400, A=2.8, S=1/200, F=꺼짐, FV=N/A}
{ISO=800, A=2.8, S=1/400, F=꺼짐, FV=N/A}
{ISO=1600, A=2.8, S=1/800, F=꺼짐, FV=N/A}, 및
{ISO=3200, A=2.8, S=1/1600, F=꺼짐, FV=N/A}.
더욱 구체적인 예에 따라서, 프로세서(104)는 4개의 파라미터의 설정이 변경되도록 구성의 서브세트를 결정할 수 있다.
{ISO=400, A=2.8, S=1/200, F=켜짐, FV=높음},
{ISO=800, A=2.8, S=1/400, F=켜짐, FV=표준}
{ISO=1600, A=2.8, S=1/800, F=켜짐, FV=낮음}, 및
{ISO=3200, A=2.8, S=1/1600, F=꺼짐, FV=N/A}.
프로세서(104)는 각각의 파라미터에 대한 설정을 개별적으로 선택하고나서, 하나의 파라미터의 결정된 설정을 제 2 파라미터의 결정된 설정 중 하나 이상과 결합함으로써, 구성을 형성할 수 있다. 상기 주어진 예에서, 프로세서(104)는 먼저 적용 가능한 파라미터 ISO의 설정은 400, 800, 1600 및 3200이라고 결정할 수 있다. 이후에, 프로세서(104)는 적용 가능한 파라미터 S의 설정은 1/200, 1/400, 1/800 및 1/1600이라고 결정할 수 있다. 마지막으로, 프로세서(104)는 ISO=400와 S=1/200의 조합, S=1/400와 ISO=800의 조합 등으로 구성의 서브세트를 결정할 수 있다.
다른 방안으로, 프로세서(104)는 어떤 파라미터를 다른 파라미터의 설정과 조합해서 선택할 수도 있다. 상기 주어진 예에서, 프로세서(104)는, 먼저 적용 가능한 구성이 파라미터 ISO가 400인 설정과 파라미터 S가 1/200인 설정을 포함하는 것으로 결정할 수 있다. 프로세서(104)는 두번째 적용 가능한 구성이 파라미터 ISO가 800인 설정과 파라미터 S가 1/400인 설정을 포함하는 것으로 결정할 수 있다. 유사하게 프로세서(104)는 다른 구성을 계속해서 결정해서 구성의 서브세트를 결정할 수 있다.
본 발명의 신규한 개념은, 1개, 2개, 혹은 4개 파라미터의 서로 다른 설정을 포함하는 구성의 서브세트로 한정되는 것이 아니며, 임의의 수의 파라미터의 서로 다른 설정을 포함하는 구성의 서브세트에 동일하게 적용된다.
사용자가 카메라와 경관의 방향을 조절해서 경관의 특징이 변화되어 감에 따라서, 프로세서(104)는 상기에 따라서 구성의 서브세트를 반복해서 결정할 수 있다. 따라서, 프로세서(104)는 10초마다, 0.5초마다, 그 외의 초마다 등에, 이미지 촬상 장치(102)가 기록하는 마지막 이미지 중 하나 이상을 분석하도록 구성될 수 있다.
사용자가 일단 카메라(100)의 방향을 소망의 경관으로 맞추면, 사용자는 이미지 촬상 커맨드를 내릴 수 있다. 이 이미지 촬상 커맨드는 카메라(100)에 의해 검출된다(박스 210). 사용자는 예컨대, 카메라(100)의 액추에이터(112)를 한번 누를 수 있다. 카메라(100)가 마이크(114)를 포함하고 있는 경우에는, 사용자는 이 마이크에 가청의 촬상 커맨드를 말하고, 이 커맨드는 프로세서(104)에 의해 해석되어서 이미지 촬상 커맨드로서 인식될 수 있다. 다른 방안으로서, 이미지 촬상 커맨드는 실질적으로 고정된 카메라(100)를 보유하는 사용자에 의해 간단히 발행될 수 있으며, 여기서 카메라는, 카메라의 이동 양이 사전 결정된 임계 레벨 아래로 떨어진다는 것을 검출할 수 있다. 이와 같은 검출은, 프로세서(104)가 이미지 촬상 장치(102)의 저장 버퍼에 마지막으로 기록된 적어도 2장의 이미지를 반복해서 비교함으로써 수행될 수 있다. 이와 달리, 혹은 이에 더해서, 카메라(100)는 가속도계, 자이로스코프, 나침반 등과 같은 센서를 포함하고, 이 센서의 출력을 이용해서 카메라의 이동을 검출할 수 있다.
프로세서(104)는 이미지 촬상 커맨드를 검출한 것에 응답해서, 카메라(100)의 이미지 촬상 장치(102)를 제어해서, 프로세서(104)에 의해 결정되는 구성의 서브세트 중 적어도 2개의 서로 다른 구성을 이용해서 적어도 2개의 이미지를 촬상한다(박스 212).
상기 주어진 구성의 기본 예로서, 카메라(100)는, 구성 {ISO=400, A=3.2, S=1/1000, F=켜짐, FV=표준}을 이용하는 하나의 이미지, 구성 {ISO=400, A=3.2, S=1/1000, F=켜짐, FV=높음}을 이용하는 하나의 이미지, 구성 {ISO=400, A=3.2, S=1/1000, F=켜짐, FV=낮음}을 이용하는 하나의 이미지와 같이, 3개의 이미지를 촬상할 수 있다.
상기 주어진 예의 구성의 더 구체적인 예로서, 카메라(100)는, 구성 {ISO=400, A=2.8, S=1/200, F=꺼짐, FV=N/A}를 이용하는 하나의 이미지, 구성 {ISO=800, A=2.8, S=1/400, F=꺼짐, FV=N/A}를 이용하는 하나의 이미지, 구성 {ISO=1600, A=2.8, S=1/800, F=꺼짐, FV=N/A}를 이용하는 하나의 이미지, 구성 {ISO=3200, A=2.8, S=1/1600, F=꺼짐, FV=N/A}를 이용하는 하나의 이미지와 같이, 3개의 이미지를 촬상할 수 있다.
상술한 바와 같이, 프로세서(104)는 구성의 서브세트를 반복해서 결정할 수 있다. 따라서 이미지 촬상 커맨드에 응답해서 촬상되는 이미지는 가장 최근의 구성의 서브세트를 이용해서 촬상될 수 있다. 프로세서(104)는 또한 이미지 촬상 커맨드를 검출한 것에 응답해서 구성의 서브세트를 결정하도록 구성될 수 있으며, 여기서 이미지는 구성의 서브세트를 이용해서 촬상될 수 있다.
이미지 촬상 커맨드에 응답해서 촬상되는 이미지의 수가 서브세트의 구성의 수와 동일할 필요는 없으며, 구성의 수보다 많을 수도 있고 구성의 수보다 적을 수도 있다.
일 실시예에 따라서, 카메라(100)는 결정된 구성의 서브세트의 구성을 이용해서 하나 이상의 이미지를 촬상할 수 있다. 카메라(100)는 복수의 구성 C1,…, CN,(N>2)을 결정할 수 있다. 카메라(100)는, 이미지 촬상 커맨드를 수신한 것에 응답해서, 구성 C1을 이용해서 제 1 이미지 I1를 촬상하고, 구성 C2를 이용해서 제 2 이미지 I2를 촬상하며, 계속해서 구성 CN을 이용해서 제 N 이미지 IN까지를 촬상할 수 있다. 이어서, 카메라(100)는 구성을 재사용할 수 있으며, 즉 구성 C1을 이용해서 이미지 IN + 1를 촬상하고, 구성 C2를 이용해서 이미지 IN +2를 촬상하며, 계속해서 구성 CN을 이용해서 이미지 I2N까지를 촬상할 수 있다. 이와 같은 재사용은 복수회 반복될 수 있다. 예컨대, C1은 제 1 노출값 설정을 포함할 수 있고, C2는 제 1 노출값보다 낮은 제 2 노출값 설정과 플래시 꺼짐을 포함할 수 있으며, N번째 노출값 설정을 포함할 수 있는 CN이 구성의 서브세트의 가장 노출값 설정이 될 때까지 계속된다. 구성 Ci, …, CN(2≤i≤N) 중 하나 이상이 플래시의 사용을 포함할 수 있다. 구성을 재사용함으로써, 타이밍 및 설정 모두와 관련해서 기술적인 면에서 수용할 수 있는 이미지를 획득할 가능성은 높아질 수 있다.
사전 결정된 수의 이미지가 촬상된 이후 또는, 카메라가 경관에서 변경을 검출한 것에 응답해서, 이미지 촬상이 중단될 수 있다. 이 변경은, 사용자가 이미지 촬상 사이에 방향을 변경한 결과일 수 있다. 또는 경관 내의 대상체가 위치를 변경한 것이 될 수도 있다. 이러한 변경은 이전에 촬상한 이미지(예컨대, 처음 촬상한 이미지)를 최근에 촬상한 이미지와 비교함으로써 결정될 수 있다. 이러한 비교는, 픽셀 대 픽셀, 혹은 서브 블록 대 서브 블록에 기초해서 행해질 수 있다. 이 비교는 이전에 촬상한 이미지와 최근에 촬상한 이미지를 상관시키는 방식으로 수행될 수 있다. 변경이 임계값을 초과하면, 더 이상 이미지는 촬상되지 않는 것으로 결정될 수 있다.
일 실시예에 따라서, 카메라(100)는 이미지 촬상 커맨드의 유지 기간에 비례하는 수의 이미지를 촬상하도록 구성된다. 사용자가 액추에이터(112)를 누르고 있는 동안에는, 프로세서(104)는 이미지 촬상 장치(102)가 이미지를 촬상하도록 제어한다. 서브세트의 모든 구성이 사용되기 전에 액추에이터(112)가 해제된 경우에는, 촬상한 이미지의 수는 서브세트의 구성의 수보다 적을 수 있다. 촬상한 이미지의 수가 서브세트의 구성의 수를 초과하면, 프로세서(104)는 구성을 재사용할 수 있다. 예컨대, 상술한 기본 예의 경우에, 일단 3개의 구성 각각을 이용해서 어떤 이미지가 촬상되면, 구성 {ISO=400, A=3.2, S=1/1000, F=켜짐, FV=표준}을 이용해서 다른 이미지가 촬상될 수 있고, 구성 {ISO=400, A=3.2, S=1/1000, F=켜짐, FV=높음}을 이용해서 다른 이미지가 촬상될 수 있으며, 구성 {ISO=400, A=3.2, S=1/1000, F=켜짐, FV=낮음}을 이용해서 또 다른 이미지가 촬상되는 등이 행해질 수 있다.
결정되는 이미지의 수 및 구성의 수는 식별되는 특징에 기초할 수도 있다. 예컨대, 경관이 단체 인물이라고 판정된 경우에는, 모든 얼굴이 양호하게 촬상될 가능성을 높이도록 많은 수의 구성 및 이미지가 촬상될 수 있다.
어떤 경우든, 이미지 시퀀스 촬상이 완료된 이후에는, 구성의 서브세트 중 서로 다른 적어도 2개의 구성에 따라 구성된 카메라로 적어도 2개의 이미지가 카메라로 촬상되게 된다.
촬상된 이미지는 디지털 이미지 파일로 메모리(206)에 저장될 수 있다. 디지털 이미지 파일은 JPEG, TIFF, RAW 등과 같은 임의의 손실 혹은 무손실 이미지 파일 포맷으로 저장될 수 있다. 사용자는 카메라(100)의 디스플레이를 이용해서 촬상된 이미지를 검토할 수도 있고, 촬상된 이미지를 컴퓨터에 다운로드하고 나서, 자신에게 맞는 샷을 선택하고 나머지는 삭제할 수도 있고, 때로는 모든 샷을 유지할 수도 있다.
옵션으로서, 카메라(100)는, 이미지 촬상 커맨드를 검출하기 전에도, 이미지 촬상 장치(102)가 기록한 하나 이상의 이미지를 저장할 수도 있다(박스 202). 이는, 이미지 촬상 커맨드를 검출한 것에 응답해서, 이미지 촬상 장치(102)의 저장 버퍼 내의 가장 최근 이미지 중 하나 이상을 메모리(106)에 제공하는 방식으로 수행될 수 있다. 이들 이미지는 카메라(100)의 뷰파인더에 제공될 수도 있다(박스 204). 이 옵션에 따라, 카메라(100)는 이미지 촬상 커맨드 검출 이전에 촬상된 이미지 및 이미지 촬상 커맨드 검출 이후에 촬상된 이미지를 모두 메모리(106)에 저장할 것이다.
상술한 바와 같이 프로세서(104)는 경관의 하나 이상의 특징을 식별해서 경광을 분석할 수 있다. 상세하게, 프로세서(104)는 이미지 촬상 장치(102)에 의해 기록된 하나 이상의 이미지의 하나 이상의 특징을 식별함으로써 경관을 분석할 수 있다. 경관의 하나 이상의 특징은 경관 내의 물체 혹은 구성 요소를 포함할 수 있다. 프로세서(104)는 하나 이상의 특징에 기초해서, 예컨대, 물체 혹은 구성 요소의 타입에 기초해서, 이미지를 촬상하는 동안 사용될 카메라(100)에 대한 구성의 서브세트를 결정할 수 있다. 상세하게, 프로세서(104)는 변화되는 적어도 하나의 파라미터를 결정할 수 있다. 바람직하게는, 프로세서(104)는 식별된 특징을 포함하는 이미지를 촬상하는데 중요한 설정을 갖고 있는 적어도 하나의 파라미터를 결정한다. 파라미터는 예컨대, 룩업 테이블을 이용해서 결정될 수 있는데, 이 테이블의 열(또는 행)은 프로세서(104)가 식별할 수 있는 임의의 특징에 대응할 수 있고, 그 열(혹은 행)의 행(또는 열)은 식별된 특징을 포함하는 이미지를 촬상하는데 중요한 파라미터를 나타낸다. 프로세서(104)는 또한 적어도 하나의 파라미터에 대한 적어도 2개의 설정을 결정할 수 있다. 바람직하게는, 적어도 2개의 설정을 결정하는 것은 식별된 특징에 기초해서 행해진다. 이 구성의 서브세트는 적어도 2개의 구성을 포함할 수 있는데, 각각의 구성은 카메라(100)의 촬상 관련 파라미터의 특정한 설정의 조합을 포함하고 있다.
경관에서 식별된 하나 이상의 특징은 경관의 광 상태를 포함할 수 있다. 프로세서(104)는, 이미지 촬상 장치(102)에 의해 기록된 하나 이상의 이미지의 명도 레벨을 결정할 수 있다. 경관에 강한 광이 존재한다면, 프로세서(104)는 비교적 큰 구경 설정을 포함한 구성의 서브세트를 결정할 수 있다. 경관에 강한 광이 있다면, 적은 구경으로도, 즉 큰 스톱 넘버로도 광은 충분할 수 있다. 따라서 사용자는 많은 다양한 피사계 심도를 나타내는 이미지를 획득할 수 있다. 경관에 비교적 낮은 광이 존재한다면(예컨대, 어두운 실내나 밤 상태), 프로세서(104)는 하나 이상의 작은 구경 설정, 큰 수치의 노출 시간 및 큰 수치의 ISO 설정만을 포함하는 구성의 서브세트를 결정할 수 있다. 옵션으로, 구성의 서브세트는 또한 다양한 강도의 플래시를 사용하는 혹은 플래시를 사용하지 않는 구성을 포함할 수 있다. 따라서 사용자는 많은 노출 시간, 플래시 상태 및 다양한 노이즈량(즉, 다양한 ISO 설정)을 보이는 이미지를 얻을 수 있다. 따라서, 사용자는 촬상된 이미지를 검토해서 수용할 수 있는 레벨의 선예도 및 이미지 노이즈를 나타내는 이미지 혹은 복수의 이미지를 선택할 수 있다.
옵션으로, 카메라(100)는 LED 광 형태의 플래시를 포함할 수 있다. LED 광은 충전이 필요없다. 따라서, 매우 효율적이고 간단하게 이미지를 다양한 플래시 강도로 촬상할 수 있다. 상세하게, 다양한 플래시 강도 설정을 포함하는 구성이 결정될 수 있다. 이 구성을 이용해서, 이미지 촬상 커맨드에 응답해서, 이미지가 촬상된다. 이미지를 촬상하는 동안에, 플래시의 강도는 플래시 강도 설정에 따라 변경된다. 촬상과 촬상 사이에 플래시 광은 발광되어 있을 수 있으며, 즉 꺼지지 않고 있을 수 있다. 플래시 광 강도의 변경은 점진적으로 증가 혹은 감소될 수 있다. 이 변경은 점진적인 것일 수도 있고, 연속적인 것일 수도 있다. 이미지는 동일한 노출 시간 및 ISO 설정으로 촬상될 수도 있다. 따라서, 다양한 플래시 강도로 비교적 많은 수의 이미지가 신속하게 촬상될 수 있다.
경관에서 식별된 하나 이상의 특징은, 경관 내의 순색량을 포함할 수 있다. 프로세서(104)는 이미지 촬상 장치(102)에 의해 기록된 하나 이상의 이미지에서 순색량을 결정할 수 있다. 이 순색량은 예컨대, 이미지 내의 어떤 색의 백분율이 될 수도 있고, 혹은 이미지 내에서 가장 흔한 즉 눈에 띄는 색의 백분율이 될 수도 있다. 그 경관 내에서 어떤 색이 현재 흔하고 즉 눈에 띈다면, 프로세서(104)는 비교적 많은 수의 화이트 밸런스 및/또는 색 설정을 포함하는 구성의 서브세트를 결정할 수 있다. 예컨대, 녹색을 주요 성분으로 포함하는 이미지에서는, 녹색의 정확한 뉘앙스를 얻는 것이 중요 혹은 바람직할 것이다. 다양한 화이트 밸런스 및 색 설정을 이용해서 복수의 이미지를 촬상함으로써, 녹색의 정확한 해석(rendition)을 포함하는 이미지를 얻을 가능성을 높일 수 있다.
경관에서 식별된 하나 이상의 특징이, 경관 내의 콘트래스트를 포함할 수 있다. 프로세서(104)는 이미지 촬상 장치(102)에 의해 기록된 하나 이상의 이미지에서의 콘트래스트 레벨을 포함할 수 있다. 이 콘트래스트 레벨은 이미지의 로컬 콘트래스트가 될 수도 있고 글로벌 콘트래스트가 될 수도 있다. 이 콘트래스트는 베버(Weber) 콘트래스트 정의, 마이켈슨(Michelson) 콘트래스트 정의 혹은 RMS(Root Mean Square) 콘트래스트 정의를 이용해서 결정될 수 있다. 결정된 콘트래스트는 휘도 콘트래스트, 명도 콘트래스트 및/또는 색상 콘트래스트를 포함할 수 있다.
경관 내에 높은 콘트래스트가 존재하는 경우에는, 프로세서(104)는 비교적 많은 수의 다양한 노출값을 포함하는 구성의 서브세트를 포함할 수 있다. 예컨대, 경관이 고휘도의 영역과 저휘도의 영역을 모두 포함하고 있다면, 주어진 노출에 대해서, 고휘도 영역이 과도 노출이 될 염려 혹은 저휘도 영역이 노출 부족이 될 염려가 있다. 다양한 노출값을 이용해서 복수의 이미지를 촬상함으로써, 고휘도 영역과 저휘도 영역 모두에 대한, 수용할 수 있는 노출을 제공하는 노출 레벨을 가진 이미지를 얻을 가능성을 높일 수 있다.
경관에서 식별된 하나 이상의 특징은, 카메라(100)에 의해 묘사되는 경관의 타입을 포함할 수 있다. 이러한 경관은 인물을 들 수 있다. 인물은 단체 인물이 될 수도 있다. 프로세서(104)는 이미지 촬상 장치(102)에 의해 기록된 하나 이상의 이미지 내에서 얼굴의 존재를 식별할 수 있다. 경관이 하나 이상의 얼굴을 포함하고 있다면, 프로세서(104)는 플래시를 이용하는 구성과 플래시를 이용하지 않는 구성 모두를, 그리고 다양한 플래시 강도를 포함한 구성을 포함하는 구성의 서브세트를 결정할 수 있다. 이에 더해서 혹은 이와 달리, 얼굴과 배경이 모두 샤프한 이미지와 얼굴은 샤프하지 않지만 배경은 샤프한 이미지를 촬상할 수 있도록, 이 구성의 서브세트는 비교적 많은 수의 다양한 구경 설정의 포함할 수 있다. 이에 더해서 혹은 이와 달리, 이 구성의 서브세트는 비교적 많은 수의 다양한 화이트 밸런스 및/또는 색상 설정을 포함할 수 있다. 이로써, 피부톤의 정확한 해석을 포함한 이미지를 획득할 가능성을 높일 수 있다. 이에 더해서 혹은 이와 달리, 구성의 서브세트는 다양한 초점 설정을 포함할 수 있다. 이로써, 이미지의 소망의 부분에서 최대 선예도를 보이는 이미지를 획득할 가능성을 높일 수 있다.
카메라(100)에 의해 묘사되는 경관은 풍경 혹은 도시 환경을 포함할 수 있다. 프로세서는 이미지 촬상 장치(102)에 의해 기록된 하나 이상의 이미지 내에서 풍경 혹은 도시 환경의 존재를 식별할 수 있다. 경관이 풍경을 포함하고 있다면, 프로세서(104)는 전경과 배경이 모두 샤프한 이미지 및 전경은 샤프하지 않지만 배경은 샤프한 이미지를 촬상할 수 있도록, 비교적 많은 수의 다양한 구경 설정을 포함하는 구성의 서브세트를 결정할 수 있다. 이에 더해서 혹은 이와 달리, 구성의 서브세트는, 플래시를 이용하는 구성과 플래시를 이용하지 않는 구성 모두를, 그리고 다양한 플래시 강도를 포함한 구성을 포함하는 구성의 서브세트를 포함할 수 있다. 이로써, 소망의 필 플래시(fill flash) 양을 가진 이미지를 획득할 가능성을 높일 수 있다. 이에 더해서 혹은 이와 달리 구성의 서브세트는 비교적 많은 수의 다양한 설정의 화이트 밸런스 및/또는 색상 설정을 포함할 수 있다. 풍경의 경우에는, 구성은 녹색 및 청색 레벨을 강조할 수 있다. 도시 환경의 경우에는, 구성은 뉴트럴 컬러 설정을 강조할 수 있다.
카메라(100)에 의해 묘사되는 경관은 이동 물체를 포함할 수 있다. 프로세서(104)는 이미지 촬상 장치(102)에 의해 기록된 이미지 중 연속하는 이미지를 비교해서, 경관에 이동 물체가 있는지 식별할 수 있다. 경관이 이동 물체를 포함하고 있다면, 프로세서(104)는 비교적 많은 수의 서로 다른 노출 시간을 포함하는 구성의 서브세트를 포함할 수 있다. 이로써, 서로 다른 이미지 효과를 얻을 수 있다. 예컨대, 이동 물체의 움직임이 고정되는 있는 이미지와, 이동 물체의 움직임이 흐릿한 이미지를 모두 얻을 수 있다.
이상 신규한 개념을 이해할 수 있도록 구성의 특징 및 서브세트의 몇가지 예를 설명했다. 그러나, 다른 특징, 구성 및 이들의 조합이, 청구항에 개시된 본 발명의 신규한 개념의 범주 내에서 가능하다는 것을 이해할 것이다.
프로세서(104)는 다양한 이미지 분석 기법을 이용해서 경관의 하나 이상의 특징을 식별할 수 있다. 예컨대, 프로세서(104)는 이미지를 분석해서, 이미지의 색 특징, 강도 특징, 구조 특징(예컨대, 이미지 내의 인물, 얼굴, 인공적인 물체 혹은 자연적인 물체)를 식별할 수 있다. 이 이미지는, RGB-공간, YUV-공간, the HSV-공간 등과 같이, 공지된 임의의 색 공간을 이용해서 코딩된 색 정보를 포함할 수 있다. 이미지 특징은 식별되고, 그 결과는 특징 벡터로 기록될 수 있다. 이미지의 하나 이상의 특징을 분석할 수 있다. 각각의 타입의 특징에 대한 결과는 개개의 특징 벡터에 기록될 수 있다. 메모리를 줄이고, 이 방법의 처리 요구 조건을 감소시키기 위해서, 분석된 이미지에 대한 축소판이 생성될 수 있으며, 특징은 축소된 이미지에서 식별될 수 있다.
특징 벡터의 예로는, 이미지 내의 픽셀 강도의 히스토그램을 들 수 있다. 이 히스토그램은 복수의 빈(bin)을 포함할 수 있으며, 각각의 빈은 임의의 강도값을 가진 이미지의 픽셀수를 포함하고 있다. 색 특징을 추출해서 색 히스토그램에 표현할 수도 있다. 개개의 색 히스토그램은 이미지의 각각의 색 채널에 대해서 형성될 수 있다. 채널에 대한 색 히스토그램을 연결해서 색 특징 벡터를 형성할 수 있다. 양자화 양(즉, 빈의 수)는 특정한 사양, 그리고 이용할 수 있는 처리 및 메모리 요구 조건에 따라서 달라질 수 있다. 색 특징은 이미지 내의 색의 공간 배열을 고려해서 색 일관성(color coherence) 벡터를 형성함으로써 분석될 수 있다.
다양한 구조 특징 추출 방법이 있다. 구조 특징 추출 이전에, 옵션으로서 이미지의 그레이스케일 표현을 형성하는 색저하(decolorization) 단계가 있을 수 있다. 이를 통해서 추출을 간략화할 수 있다. 색저하는 예컨대, 색조 및 포화색 정보를 제거하고, 휘도 정보만을 유지하는 것으로 수행될 수 있다.
구조 특징은 다음과 같이 추출될 수 있다. 다양한 배향 및 스케일을 가진 Gabor 필터의 세트로 이미지를 필터링한다. 필터의 배향이 다양하기 때문에, 유사한 배향을 가진 이미지의 구조적인 특징과 연관된 필터 응답을 얻을 수 있다. 예컨대, 세로 진동수 필터(vertical frequency filter)는 도시 환경에 있는 고층 빌딩의 세로 에지에 대한 강한 응답을 제공할 수 있는 반면, 가로 진동수 필터는 풍경 이미지에 있는 가로 라인에 대한 강한 응답을 제공할 수 있다. 각각의 필터의 응답은 4×4 블록으로 분할될 수 있다. 각각의 블록에서, 응답은 특징 벡터로 저장된다. 각각의 블록에 대한 특징 벡터를 필터와 연계시켜서 길이 4*4*{필터의 수}인 통합 구조 특징 벡터가 형성될 수 있다. 이 방법은, Aude Oliva와 and Antonio Torralba의 'A holistic representation of the spatial envelope', International Journal of Computer Vision 42(3), 145-175에서, 'the shape of the scene'에 기술된 GIST-방법에 기초하고 있다.
구조 특징 추출 방법의 다른 예는 국지적 2진 패턴법(Local binary pattern method)이다. 이 방법의 세부 사항은 2002년 7월에 패턴 분석 및 기계 지능에 대한 IEEE 트랜잭션에서, Timo Ojala, Matti Pietikainen 및 Topi Maaenpaa에 의해 공개된 vol. 24, no. 7 'Multiresolution grayscale and rotation invariant texture classification with local binary patterns'에 개시되어 있다.
픽셀의 강도값(0-255)은 이 픽셀의 8개의 이웃하는 픽셀의 강도값과 비교될 수 있다. 이웃하는 픽셀의 강도값이 선택된 픽셀의 강도값보다 크다면, '1'이 기록된다. 반대로 이웃하는 픽셀의 강도값이 더 작다면, '0'이 기록된다. 선택된 픽셀의 2진 패턴은, 이웃하는 픽셀 중 하나를 8비트의 최상위 비트로서 선택하고, 이웃하는 픽셀을 시계 방향으로 가면서 다른 비트를 설정하는 방식으로 작성될 수 있다. 가능한 최대 8비트 수가 선택? 픽셀의 2진 패턴으로서 선택될 수 있다. 8비트 수는 256 빈의 히스토그램에 기록될 수 있다. 예컨대, "11111111"-빈(즉, "256" 빈)이 최대 크기를 갖고 있는 경우에는, 이 이미지의 균일 영역이 크다고 인식할 수 있고, 매끄러운 이미지라고 생각될 수 있다. "256" 빈은 픽셀의 강도 이상의 강도값을 가진 이웃하는 픽셀만을 갖고 있는 픽셀을 기록하고 있다. 이는 이미지의 모든 픽셀 혹은 그 서브세트에 대해서 반복될 수 있다.
특징 식별을 위한 메모리 및 처리 요구 조건을 줄이기 위해서, 한번 특징 벡터가 형성되면, 특징 벡터의 길이는 감소될 수 있다. 이는, PCA(Principal Component Analysis) 혹은 이산 카루넨 루베 변환(discrete Karhunen-Loeve transform)을 통해서 수행될 수 있다. PCA를 통해서 직교 고유 벡터의 세트를 얻는다. 고유값이 더 작은 고유 벡터는 제거될 수 있고, 원래의 특징 벡터가 더 큰 나머지 고유 벡터에 투영되며, 여기서 작은 치수의 특징 벡터를 얻을 수 있다.
결정된 이미지의 특징 벡터를 분류기에 입력해서 분류함으로써, 이미지에 묘사되는 경관의 타입을 결정 혹은 예측할 수 있다. 이러한 분류는, 분류될 이미지를, 복수의 기준 이미지로부터 결정된 기준 이미지의 세트 혹은 평균 특징 벡터와 비교하는 것을 포함할 수 있다. 기준 이미지의 세트는, 분류된, 서로 다른 타입의 복수의 이미지(예컨대, 인물, 단체 인물, 풍경, 도시 환경 등)를 포함할 수 있다. 분류될 이미지(이하 '테스트 이미지'라 함)의 특징 벡터와 기준 이미지의 세트의 이미지 중 적어도 일부에 대해서 결정된 대응 특징 벡터 사이의 거리를 계산할 수 있다. 예컨대, 2-norm을 이용해서, 즉 유클리드 거리로 테스트 이미지에 '가장 가까운' 기준 이미지의 분류를 테스트 이미지의 분류로 결정할 수 있다. 다른 방안으로, 확산 거리를 계산해서 히스토그램 특징 벡터를 비교할 수 있다. 이 확산 거리 개념은 컴퓨터 비전 및 패턴 인식에 관한 IEEE Computer Society Conference에서, Kazunori Okada와 Haibin Ling에 의해 공개된 'Diffusion distance for histogram comparison'(발행일 2006년 6월 17일~22일)에 상세하게 개시되어 있다.
특징, 특히 사람 혹은 인물 특징을 식별하는 이용될 수 있는 다른 방법은 US 2009-190803 A에 개시되어 있다. US 2009-190803 A에 따르면, 디지털 이미지 분석을 통해서, 사람 얼굴에 미소 및/또는 눈깜박거림이 있는지 결정할 수 있다. 이로써, 특징 인식은 인물 인식과 연관되어 있고, 옵션으로는 인물 인식 및, 입, 눈 및/또는 표정과 같은 특징의 인식과도 연관되어 있다.
한 세트의 이미지가 촬상되면, 이는 다양한 방식으로 이용될 수 있다. 일 실시예에 따라서, 박스 212에서 촬상된 이미지는 이미지 시퀀스를 나타내는 데이터 구조로 저장될 수 있다(박스 214). 이미지 촬상 커맨드의 검출 이전에 촬상된 이미지도 저장되어야 하는 경우에는, 이들도 이미지 시퀀스에 포함될 수 있다. 일례로, 데이터 구조는 촬상된 이미지의 (가능하다면) 크기 조정된 버전이 행 및 열로 배열된 통합 이미지가 될 수 있다. 따라서, 이 통합 이미지는 밀착 인화지와 유사할 수 있다. 다른 예로서, 데이터 구조는 비디오 파일이 될 수 있으며, 촬상된 이미지를 이용해서 비디오 스트림을 형성한다. 예컨대, 비디오 파일은 촬상된 이미지를 포함하는 슬라이드 쇼가 될 수 있다.
일 실시예에 따라서, 프로세서(104)는 촬상된 이미지를 기준의 세트를 사용해서 분석해서, 박스 212에서 촬상된 이미지 중 하나 이상을 자동으로 결정하거나 지목할 수 있다(박스 216). 기준의 세트는, 공지된 적절한 이미지 분석 기법을 이용한, 이미지 선예도, 이미지 콘트래스트, 동적 범위 및 노이즈 레벨 등과 같은 이미지 품질과 관련된 기준을 하나 이상 포함할 수 있다. 이와 달리, 혹은 이에 더해서, 기준의 세트는, 눈은 감지 않았는지, 미소짓고 있는지, 얼굴을 포함하고 있는 영역의 이미지 선예도와 같은, 얼굴의 품질을 포함할 수 있다. 이러한 기준은 이하에 설명하는 기법을 이용해서 평가될 수 있다. 카메라(100)는 선택된 이미지 혹은 이미지들을 카메라(100)의 디스플레이에 표시함으로써 사용자에게 통지할 수 있다. 프로세서(104)는 선택된 이미지를 제외한 모든 촬상된 이미지를 삭제하도록 구성될 수도 있다(박스 218).
일 실시예에 따라서, 프로세서(104)는 기준의 세트를 이용해서 촬상된 이미지를 분석해서 박스 212에서 촬상된 이미지 중 2개 이상을 자동으로 결정 혹은 지목할 수 있다(박스 220). 선택된 이미지를 이용해서 통합 이미지를 형성할 수 있다(박스 222).
이미지는 선택되고 통합되어서, 높은 동적 범위의 통합 이미지, 즉 HDR 이미지를 형성할 수 있다. 기준의 세트는 제 1 이미지가 낮은 노출 값 설정을 이용해서 촬상되는 것인 하나의 기준과 제 2 이미지가 높은 노출 값 설정을 이용해서 촬상되는 것인 하나의 기준을 포함할 수 있다. 다른 예로서, 제 1 이미지는 제 2 이미지를 촬상할 때 사용하는 플래시 레벨보다 높은 플래시 레벨을 이용해서 촬상될 수 있다. 이로써, 통합 이미지는 증가된 동점 범위를 나타내는 통합 이미지가 형성될 수 있다. 프로세서(104)는 이러한 동작을 이미지가 촬상된 이후에 자동으로 수행하도록 구성될 수 있다. 다른 방안으로, 이러한 기능을, 카메라(100)의 메뉴 옵션을 통해서 이용할 수도 있으며, 사용자는 HDR 이미지 작성을 요구할 수 있다.
이 이미지는 또한 선택되어서, 그 선택된 이미지의 일부를 포함하는 통합 이미지가 형성될 수도 있다. 더 상세하게는, 촬상된 이미지로부터 소스 이미지 및 타겟 이미지가 결정 혹은 선택될 수도 있다. 소스 이미지에서 좌표의 세트를 가진 소스 영역이 식별될 수 있다. 이어서, 타겟 이미지 내의 타겟 영역은 소스 영역에 대한 좌표 세트를 이용하여 식별될 수 있다. 제 1 이미지의 이미지 데이터 정보를 포함하는 통합 이미지가 형성될 수 있으며, 타게 이미지의 타겟 영역의 이미지 데이터 정보는, 소스 영역의 이미지 데이터 정보로, 단절없이(seamlessly) 대체될 수 있다. 다른 방안으로, 소스 이미지의 소스 영역의 이미지 데이터 정보는 타겟 영역의 이미지 데이터 정보로 단절없이 대체될 수 있다. 상술한 동작 및 하기의 동작은 프로세서에 의해서 구현, 즉 수행될 수 있다.
소스 이미지와 타겟 이미지의 다양한 조합이 선택될 수 있다. 또한, 소스 영역과 타겟 영역은 서로 다른 다양한 컨텐츠를 포함할 수 있다. 일례로, 소스 이미지의 영역은 '초점이 맞음' 될 수 있고, 타겟 이미지의 대응 영역은 '초점이 벗어남'이 될 수 있으며, 그 반대가 될 수도 있다. 이로써, '초점이 벗어남' 영역은 '초점이 맞음' 영역으로 단절없이 대체될 수 있다. 다른 예로서, 소스 이미지의 영역의 흐림(blur) 레벨이 타겟 이미지의 대응 영역의 흐림 레벨보다 낮을 수도 있고, 그 반대가 될 수도 있다. 이로써 흐린 영역이 덜 흐린 영역으로 단절없이 대체될 수 있다. 또 다른 예로서, 소스 이미지는, 타겟 이미지를 촬상할 때 사용한 플래시 레벨보다 높은 플래시 레벨을 이용해서 촬상될 수도 있고, 그 반대가 될 수도 있다. 높은 플래시 레벨은 촬상되는 장면 내의 일부 영역에 대해서는 바람직할 수도 있지만, 동시에 이 이미지의 다른 영역이 과도 노출될 수도 있다. 따라서, 과도 노출 영역은, 낮은 플래시 레벨을 사용해서 혹은 플래시를 사용하지 않고 촬상된 다른 이미지의 대응 영역으로 단절없이 대체질 수도 있다. 다른 예로서, 눈을 감은 사람을 묘사하고 있는 이미지의 영역은 눈을 뜨고 있는 (같은) 사람의 다른(유사한) 이미지의 대응 영역으로 대체될 수 있으며, 특히 사용자는 이미지의 일부를 다른 이미지의 동일 영역으로 대체할 수 있게 된다.
사용자는 MMI(110)를 통해서 소스 이미지를 수동으로 선택할 수도 있다. 다른 방안으로, 프로세서(104)가 기준의 세트를 이용해서 촬상된 이미지로부터 소스 이미지를 선택할 수 있다. 기준의 세트는, 흐림이 가장 낮고, 동적 범위는 가장 높으며 및/또는 콘트래스트는 가장 큰 이미지와 같은, 이미지 내에 임의의 특징(예컨대, 물체 혹은 구성 요소)이 존재하는지와 관련될 수 있다.
소스 영역은 좌표의 세트를 가질 수 있다. 좌표의 세트는 소스 이미지 내의 소스 영역의 위치를 정의할 수 있다. 예컨대, 좌표의 세트가 소스 이미지의 사각형의 모서리 및/또는 변의 위치를 정의하는 좌표를 포함할 수도 있고, 좌표의 세트가 소스 이미지 내의 원의 면적 및 위치를 정의하는 좌표를 포함하는 등 할 수 있다.
소스 영역은, 소스 영역을 나타내는 신호를 수신한 것에 기초해서 식별될 수 있다. 수신되는 신호는, 카메라(100)의 MMI(110)를 통해서 수신한 사용자 입력으로부터 생성될 수 있다. 이로써, 사용자는 MMI(110)를 통해서, 소스 이미지 내에서 영역 혹은 물체를 수동으로 식별 및 선택할 수 있게 된다(이하 참조). 소스 이미지는 MMI(110)의 디스플레이에 표시될 수 있다. MMI(110)가 터치 감응형 디스플레이를 포함하는 경우, 사용자는 소스 영역을 둘러싸는 선을 표시함으로써 혹은 그 좌표를 마킹함으로써 소스 영역을 식별할 수 있다. MMI(110)는 소스 영역의 식별을 돕는 툴을 제공할 수도 있다. 이 툴은 사전 결정된 기하학적 객체(사각형, 정사각형, 원, 타원과 같은)를 포함할 수 있고, 이는 사용자 입력을 통해서 소스 영역을 식별하는데 이용될 수 있다.
소스 영역은 특징 인식을 이용해서 식별될 수도 있다. 소스 이미지 중 상술한 특징(예컨대, 물체 혹은 구성 요소)를 포함하고 있는 영역을 소스 영역으로서 식별할 수도 있다. 이러한 특징 인식을 이용하면, 소스 영역을 식별하기 위해서 사용자의 입력을 수신할 필요가 없거나 혹은 적어도 감소시킬 수 있다. 따라서, 본 방법은, 소스 이미지 및 타겟 이미지 중 적어도 하나의 특징과 관련된 특징 정보를 수신하는 단계와, 이 특징에 기초해서 소스 영역을 식별하는 단계를 포함할 수 있으며, 여기서 소스 영역과 타겟 영역 중 적어도 하나는 이러한 특징을 포함하고 있다. 예컨대, 상술한 바와 같이 특징 인식은 인물 인식과 관련될 수 있다. 특징 인식은 얼굴 인식과 관련될 수도 있다. 특징 인식은 사람의 입의 인식과 관련될 수도 있다. 특징 인식은 사람의 눈의 인식과 관련될 수도 있다. 특징 인식은 얼굴 표정 인식과 관련될 수도 있다. 소스 이미지나 타겟 이미지, 혹은 이들 모두가 특징을 포함할 수 있다. 소스 영역은 특징을 이용해서 식별될 수 있다.
사용자가 예컨대, MMI(110)를 통해서 타겟 이미지를 수동으로 선택할 수 있다. 다른 방안으로, 프로세서(104)가 기준의 세트를 이용해서 촬상된 이미지로부터 타겟 이미지를 선택할 수 있다. 기준의 세트는, 흐림이 가장 낮고, 동적 범위는 가장 높으며 및/또는 콘트래스트는 가장 큰 이미지와 같은 이미지 내에 임의의 특징(예컨대, 물체 혹은 구성 요소)이 존재하는지와 관련될 수 있다. 특히, 이 특징은 소스 이미지(의 소스 영역)에 존재하는 특징이 될 수 있다.
소스 영역을 식별한 것에 응답해서, 타겟 이미지 내의 타겟 영역이 식별될 수 있다. 타겟 영역의 형상은 소스 영역의 형상에 기초할 수 있다. 특히, 타겟 영역에 대한 좌표의 세트가 소스 영역에 대한 좌표의 세트에 대응하도록, 소스 영역에 대한 좌표의 세트를 이용할 수 있다. 타겟 영역에 대한 좌표의 세트는 타겟 이미지 내의 타겟 영역의 위치를 정의하고 있다. 타겟 영역에 대한 좌표의 세트는 또한 타겟 이미지 내의 타겟 영역의 영역(공간적인 면에서)을 정의할 수 있다.
타겟 이미지 내의 타겟 영역은, 소스 영역과 타겟 영역 사이의 에러 함수를 결정함으로써 식별될 수 있다. 에러 함수는, 제로 변환(zero translation)을 위해서 소스 영역과 타겟 영역 사이에서의 예비 커트 dΩ에 따른 영역 S의 샘플 포인트의 세트 상에서 결정될 수 있다. 예비 커트는 제로 변환으로부터 바깥쪽으로 변환될 수 있다. 따라서 에러 함수는 타겟 이미지 내에서 타겟 영역을 결정하는데 이용될 수 있다. 바깥쪽으로 변환되는 것은 나선형 궤적을 따라서 수행될 수 있다.
적절한 커트를 발견할 수 있도록(하기 참조), 소스 이미지와 타겟 이미지를 예비 커트 경계에 정렬시키는 것이 바람직하다. 이는 에러 함수를 최소화함으로써, 예컨대, 적절한 크기의 섹션 S 상의 예비 커트 dΩ에 따라
Figure 112013120404739-pct00001
를 최소화함으로써 수행될 수 있다. Isi 및 Iti는 각각 소스 이미지 및 타겟 이미지 강도를 나타낸다. 컬러 이미지에서, 이 강도는 I=(R+G+B)/3로서 계산될 수 있으며, 여기서 R, G 및 B는 각각 적색, 녹색 및 청색 채널이며, 이와 달리 각각이 YUV 이미지의 휘도 채널을 이용할 수도 있다. 영역 S의 크기는 소스 이미지와 타겟 이미지 사이의 이동량에 따라 달라질 수 있다. 이는 또한 소스 이미지와 타겟 이미지의 촬상 사이에 이동하는 시간에 따라서도 달라질 수 있다.
에러 함수를 최소화하는 방식은 예컨대, 컨볼루션 및 고속 퓨리에 변환을 이용하는 것과 같이, 여러가지가 있을 수 있다. 컨볼루션 기반 방법은 전체 에러 함수를 계산할 때 빠르다. 에러 함수에서의 합계의 각각의 항이 양(positive)이기 때문에, 전체 최소값을 탐색하면서 현재 최소값의 부분합을 초과하는 부분합을 가진 포인트는 전체 최소값이 될 수 없다는 결과가 나온다는 점을 발견했다. 또한, 이미 전체 최소값이 되었다면, 더 많은 합이 조기에 종료될 수 있으므로 계산을 절감할 수 있게 된다. 따라서, 제로 변환 주위의 작은 영역 내의 몇 개의 포인트에 대한 에러 함수를 계산하고, 탐색 영역을 바깥으로 연장시키는 것이 바람직할 것이다. 이는 소스 이미지와 타겟 이미지의 촬상 사이에 발생하는 변환 이동을 일반적으로, 통상적으로 분포되는 것으로 생각할 수 있다는 가정이, 그 이유가 된다.
그 내부에 소스 이미지가 삽입될 적절한 경계가 결정될 수 있다. 결정된 경계는 커트를 나타낸다. 따라서, 이 커트는 타겟 이미지와 소스 이미지 사이의 교차부를 정의할 수 있다. 예시로서, 소스 이미지는 타겟 이미지의 위에 배치되는 것으로 간주될 수 있으며, 여기서 소스 이미지(혹은 타겟 이미지)는 상기 설명한 바와 같이 변환된다. (소망의) 경계를 그 내부로 한정하는 섹션(상기 설명한 영역 S에 대응)을 정의하고 있는 내부 경계 및 외부 경계가 명시될 수 있다. 도 4a는 내부 경계(402), 외부 경계(404) 및 소망의 경계(406)를 가진 경계 영역(400)을 나타내고 있다. 섹션 내의 픽셀에서의 소스 이미지와 타겟 이미지 사이의 정사각형 픽셀 단위의 차분을 고려한 에러 함수가 정의된다. 도 4b는 도 4a의 경계 영역(400)의 코리도 그래프 표현(400')으로, 여기서 경계 영역(400)은 단선 A-A'~B-B'를 따라서 개방되어 있다. 커트는 영역 S 내에 각각의 픽셀을 수고를 들여서 할당함으로써 발견할 수 있는 것으로, 따라서 영역 내의 폐 경로를 발견하면 이러한 수고를 줄일 수 있다. 최적의 솔루션은, 2006년 6월에 네델란드 누르크비트에서 개최된, 베네룩스의 정보 이론 관련 27번째 심포지움에서의, Farin 등의 "Shortest circular paths on planar graphs"에서 제공되고 있다. 코리도 그래프(400')와 같은 그래프로 픽셀을 표현하면, 이 그래프는 트렐리스 구조를 갖는다. 영역 S와 관련된 그래프는 트렐리스로 표현될 수 있으며, 따라서 Dijkstra 알고리즘 대신 다이나믹 프로그래밍이 사용될 수 있다. 따라서, 모든 경로가 최소 에러인 꼬리물기(tail-biting) 경로(즉, 코리도 그래프(400')에서, 대응하는 경계 영역(400) 내의 폐 경계(406)가 나오는 픽셀의 시작과 끝을 연결하는 경로) 혹은 사전 결정된 임계값 이하의 에러를 가진 경로를 섹션 S 내에서 발견할 수 있다. 따라서, 발견한 커트는 소스 이미지와 타겟 이미지의 크롭(cropping)을 정의한다.
타겟 이미지의 이미지 데이터 정보에 기초해서 통합 이미지가 형성될 수 있으며(박스 222), 여기서 타겟 영역의 이미지 데이터 정보는 소스 영역의 이미지 데이터 정보로 단절없이 대체된다. 이에 대응해서, 디지털 이미지는 소스 이미지에 기초할 수 있으며, 여기서 소스 영역의 이미지 데이터 정보는 타겟 영역의 이미지 데이터 정보와 단절없이 대체된다.
특징 인식을 이용해서 소스 영역과 타겟 영역 중 하나가 특징 정보와 관련된 조건을 만족하는지 여부를 결정할 수 있다. 이 결정에 기초해서 디지털 이미지가 형성될 수 있다. 예컨대, 소스 영역이 이 조건을 만족하는 경우에는, 타겟 영역의 이미지 데이터 정보가 소스 영역의 이미지 데이터 정보로 단절없이 대체될 수 있다. 예컨대, 타겟 영역이 이 조건을 만족하는 경우에는, 소스 영역의 이미지 데이터 정보가 타겟 영역의 이미지 데이터 정보로 단절없이 대체될 수 있다.
구체적으로, 특징 정보가 얼굴 표정과 관련된 것이고, 소스 이미지와 타겟 이미지 중 하나가 웃는 얼굴을 포함하고 있는 것으로 분류된다면, 이 이미지는 웃는 얼굴을 포함하는 것으로 형성된다. 이를 수행하기 위해서, 얼굴 검출이 사용될 수 있다. 얼굴이 검출되면, 이렇게 인식된 얼굴의 입술을 검출하고, 검출된 입술을 특히 그 곡선에 따라서, 웃는 입술 혹은 웃지 않는 입술과 같은 적어도 2개의 카테고리로 분류하는 웃음 검출이 사용될 수 있다. 이와 유사한 분류법을 수행함으로써 깜박거리는 눈이나 적목 현상(특히 이미지 촬상시에 플래시 효과에 의해서 적목이 포함됨)을 검출할 수도 있다. 따라서, 이 방법은 디지털 이미지를 형성할 때 사용될 얼굴 표정을 식별하는 단계를 더 포함할 수 있다. 이로써, '슬픈' 얼굴이 '행복한' 얼굴로 대체될 수 있으며, '슬픈' 얼굴이 웃지 않는 입술과 연관된 것이고, '행복한' 얼굴은 웃는 입술과 연관된 것이다.
소스 이미지와 타겟 이미지를 혼합해서 통합 이미지를 형성할 수 있다. 그레티언트-영역(gradient-domain)형의 혼합을 적용함으로써, 소스 영역을 타겟 영역에(혹은 그 반대로) 단절없이 삽입할 수 있다. 상세하게, 소스 이미지(로부터의 영역)이 타겟 이미지로 혼합될 때(혹은 그 반대로), 소스 이미지의 경계는 타겟 이미지의 경계와 적어도 개략적으로 동일해야 한다. 이를 위해서는 몇 가지 방식으로 소스 이미지 및/또는 타겟 이미지를 조작해야 한다. 바람직하게는 소스 이미지의 내부를, 가능한 한 시각적으로 눈에 띄지 않을 정도로, 점차적으로 변화시켜야만 한다. 소망의 효과를 수행하는 한 가지 예가 포아송 블렌딩이다. 상세하게, 소스 이미지의 그레디언트 필드는, 타겟 이미지와 가장 가까운(L2-norm의 관점에서) 그레디언트 필드를 가진 소스 이미지를 발견해 내는 방식으로, 수정될 수 있다.
이하, 제 2 측면에 따른 방법(300)의 실시예를 도 1 및 3을 참조로 설명한다. 방법(200)에 따라서, 이미지 촬상 커맨드를 검출하기 이전에 혹은 이에 응답해서 구성의 세트가 결정된다. 이 방법(300)은, 이미지를 촬상하는 동안, 즉 이미지 촬상 동작시에 카메라(100)의 구성이 연속해서 결정된다는 점을 제외하면, 방법(200)과 유사하다.
상세하게, 방법(300)은 카메라(100)에 의해 묘사되는 경관을 분석하는 단계(박스 306)를 포함한다. 이 분석 단계는 경관의 적어도 하나의 특징을 식별하는 단계를 포함한다. 이는 방법(200)의 박스(206)에 대응하므로, 상기 설명을 참조한다. 이 분석에 기초해서, 프로세서(104)는 카메라(100)의 제 1 구성을 결정한다(박스 308). 제 1 구성은, 제 1 이미지를 촬상하기에 적합한 카메라(100)의 구성이 될 수 있다. 제 1 구성은 방법(200)과 관련해서 설명된 기본 구성에 대응한다.
사용자가 카메라를 소망의 경관을 향하게 하면, 사용자는 이미지 촬상 커맨드를 내린다. 이미지 촬상 커맨드는 카메라(100)에 의해 검출된다(박스 310). 상술한 바와 같이, 사용자는 예컨대, 카메라(100)의 액추에이터(112)를 한번 누르고 카메라(100)의 이동을 줄일 수도 있고, 혹은 사용자가 가청의 촬상 커맨드를 마이크에 말하고, 이 커맨드를 프로세서가 해석해서 이미지 촬상 커맨드로 인식할 수도 있다.
이미지 촬상 커맨드를 검출한 것에 응답해서, 프로세서(104)는 카메라(100)의 이미지 촬상 장치(102)를 제어해서, 프로세서(104)가 결정한 제 1 구성을 이용해서 이미지를 촬상하게 한다(박스 312). 제 1 이미지는 촬상된 직후에 메모리(106)로 전송될 수 있다. 다른 방안으로, 제 1 이미지는 이미지 촬상 장치(102)의 저장 버퍼에 유지되고, 모든 이미지가 촬상된 후, 즉 방법(300)이 종료되면 메모리(106)에 전송될 수도 있다.
제 1 이미지를 촬상한 것에 응답해서, 프로세서(104)는 제 1 이미지를 분석할 수 있다(박스 314). 이 분석은 제 1 이미지의 적어도 하나의 특징을 식별하는 단계를 포함할 수 있다. 이 분석은 상기 설명과 유사하게 수행될 수 있다. 이에 대응해서, 적어도 하나의 식별된 특징은 상기 설명한 어느 특징이 될 수 있다. 제 1 이미지는 이미지 촬상 장치의 저장 버퍼로부터 프로세서(104)로 제공될 수도 있고, 만일 제 1 이미지가 이미 전송되었다면 메모리(106)로부터 제공될 수도 있다.
제 1 이미지에 대한 분석에 기초해서, 프로세서는 카메라(100)의 제 2 구성을 결정할 수 있다(박스 316). 제 2 구성은, 제 1 구성의 파라미터의 설정과는 다른 파라미터의 설정을 포함할 수 있다. 제 2 구성은 제 1 구성의 파라미터의 설정과는 다른 또 다른 파라미터의 설정을 더 포함할 수 있다. 설정이 변경될 파라미터는, 경관을 분석할 때 결정될 수 있다(박스 306). 따라서 프로세서(104)는 경관을 분석한 것에 기초해서 제 1 구성 및 설정이 변경될 하나 이상의 파라미터를 결정한다. 예컨대, 식별된 특징이 인물을 포함하는 것이라면, 프로세서(104)는 제 1 구성을 결정하고, 플래시, 플래시 강도, 화이트 밸런스 및/또는 색상 렌더링과 같은 파라미터의 설정이 변경될 것이라고 더 결정할 수 있다. 따라서, 프로세서(104)는 제 1 이미지를 분석해서 이들 파라미터의 실제 설정을 결정해서, 제 2 구성을 결정할 수 있다. 다른 방안으로, 설정이 변경될 파라미터 및 실제 파라미터는 경관을 분석하는 동안 결정될 수 있다.
방법(300)은 박스 318로 넘어가고, 여기서 프로세서(104)는 카메라(100)의 이미지 촬상 장치(102)를 제어해서, 프로세서(104)가 결정한 제 2 구성을 이용해서 제 2 이미지를 촬상하게 한다. 프로세서(104)가 제 2 구성을 결정한 것에 응답해서 제 2 이미지가 촬상될 수 있다. 이 제 2 이미지는 촬상된 직후에 메모리(106)에 전송될 수 있다. 다른 방안으로, 제 2 이미지는 이미지 촬상 장치(102)의 저장 버퍼에 유지되고, 모든 이미지가 촬상된 후에, 즉 방법(300)의 종료되면 메모리(106)로 전송될 수 있다.
옵션으로, 박스 316에서 하나 이상의 구성이 결정될 수도 있다. 예컨대, 프로세서(104)는 박스 316에서 적어도 2개의 구성을 결정할 수 있고, 여기서 카메라(100)는 박스 316에서 결정된 적어도 2개의 구성 중 적어도 2개의 상이한 구성을 이용해서 적어도 2개의 이미지를 촬상하고, 이후 실시예 1의 방법(200)에 따라서 처리될 수 있다.
도 3을 참조하면, 박스 320에서, 이미지가 더 촬상되어야 하는지 결정한다. 이는 소망하는 수의 이미지가 촬상되었는지 여부에 따라서 결정된다. 프로세서(104)는 예컨대, 촬상된 이미지의 수를 계산해서 임계 수와 비교할 수 있다. 촬상된 이미지의 수가 임계 수 미만이라면, 이미지가 더 촬상되는 것으로 결정하고, 방법(300)은 박스 322로 넘어갈 수 있다. 촬상된 이미지의 수가 임계 수 이상이라면, 더 이상 촬상될 이미지가 없다고 결정할 수 있다.
다른 방안으로, 이는, 제 1 이미지 혹은 제 2 이미지를 촬상한 이후에 경관에 변화가 있는지 여부에 따라서 결정될 수 있다. 이러한 변화는 제 1 이미지(혹은 제 2 이미지)를 촬상한 이후에 사용자가 방향을 바꿈으로써 발생한 것이다. 또는 경관 내의 물체가 위치를 변경해서 발생된 것일 수도 있다. 이 변화는 제 1 이미지(혹은 제 2 이미지)를 더 최근에 촬상한 이미지와 비교함으로써 결정될 수 있다. 이 비교는, 픽셀 대 픽셀에 기초해서, 혹은 서브블록 대 서브블록 기반으로 행해질 수 있다. 이 비교는 촬상된 제 1 이미지(혹은 제 2 이미지)를 더 최근에 촬상한 이미지와 연관시킴으로써 수행될 수 있다. 변화가 임계값을 초과하면, 더 이상 이미지가 촬상되지 않는 것으로 결정할 수 있다. 초과하지 않았다면, 이미지가 더 촬상되는 것으로 결정할 수 있고, 방법은 박스 322로 넘어간다.
촬상된 이미지는 원형 버퍼에 저장될 수 있다. 원형 버퍼는 사전 결정된 크기를 가질 수 있다. 일례로, 원형 버퍼는 10개 이미지, 20개 이미지, 30개 이미지, 혹은 그 이상의 저장 용량을 가질 수 있다. 버퍼가 가득차면, 이미지는, 버퍼에 저장된 것 중 가장 오래된 이미지부터 차례로 더 최근에 촬상된 이미지로 대체될 수 있다.
더 많은 이미지가 촬상되는 것으로 결정한 것에 응답해서, 프로세서(104)는 촬상된 제 2 이미지를 분석할 수 있다(박스 322). 이 분석에 기초해서 프로세서(104)는 카메라(100)의 제 3 구성을 결정할 수 있다(박스 324). 제 3 구성은 제 1 구성 및 제 2 구성의 파라미터의 설정과는 다른 파라미터의 설정을 포함할 수 있다.
방법(300)은 박스 326로 넘어가고, 여기서 프로세서(104)는 카메라(100)의 이미지 촬상 장치(102)를 제어해서, 프로세서(104)가 결정한 제 3 구성을 이용해서 제 3 이미지를 촬상하게 할 수 있다. 프로세서(104)가 제 3 구성을 결정한 것에 응답해서 제 3 이미지가 촬상될 수 있다.
방법(300)은 박스 328로 넘어가고, 여기서 이미지가 더 촬상되어야 하는지 결정한다. 이미지가 더 촬상되어야 한다고 결정되면, 방법(300)은 박스 322로 돌아가고, 여기서 촬상된 제 3 이미지를 분석할 수 있다. 상술한 바와 같이 제 4 구성이 결정될 수 있으며, 여기서 제 4 이미지는 제 4 구성을 이용해서 촬상될 수 있다. 이 처리는 더 이상 촬상될 이미지가 없다고 결정될 때까지 반복될 수 있다. 박스 314~320과 관련된 세부 사항 및 옵션은 박스 322~328와 유사하게 적용된다.
더 이상 촬상될 이미지가 없다면, 방법(300)은 박스 330~338에 따라서 수행되고, 이는 방법(200)의 박스 214~222에 대응하므로 상기 설명을 참조한다.
옵션으로, 방법(300)은, 이미지 촬상 커맨드를 검출하기 전에 이미지 촬상 장치(102)에 의해 기록된 이미지 중 하나 이상을 저장하는 단계(박스 302)를 더 포함할 수 있다. 이들 이미지는 카메라(100)의 뷰파인더에도 제공될 수 있다(박스 304). 박스 202~204와 관련된 상기 설명이 박스 302~304에도 유사하게 적용되며, 상기 설명을 참조한다.
이상, 이미지 촬상 방법에서 설명했으며, 여기서는 카메라가 묘사하는 경관을 분석한 것에 기초해서 구성의 서브세트가 결정된다. 그러나, 이러한 결정은 묘사된 결정에 대한 분석으로 한정되는 것이 아니라, 더 일반적으로는 촬상 상태의 분석에 기초할 수 있다. 더 일반적인 방식에 따라서, 카메라를 이용해서 이미지를 촬상하는 방법이 제공되며, 이 방법은 촬상 상태를 분석하는 단계, 이 분석에 기초해서, 디지털 카메라의 구성의 서브세트를 결정하는 단계, 카메라의 이미지 촬상 커맨드를 검출한 것에 응답해서, 구성의 서브세트 중 적어도 2개의 상이한 구성을 이용해서 적어도 2개의 이미지의 세트를 촬상하는 단계를 포함한다.
촬상 상태는 날짜를 포함할 수 있다. 카메라(100)는 시계를 포함할 수 있다. 시계는 프로세서(104)에 접속될 수 있다. 프로세서(104)는 날짜를 판정할 수 있다. 프로세서(104)는 이 날짜에 기초해서 구성의 서브세트를 결정할 수 있다.
촬상 상태는 카메라(100)의 지리적인 위치를 포함할 수 있다. 카메라(100)는 GPS와 같은 위치 결정 유닛을 포함할 수 있다. 이 위치 결정 유닛은 프로세서(104)에 접속될 수 있다. 프로세서(104)는 위치 결정 유닛으로부터 카메라(100)의 지리적인 위치를 수신할 수 있다. 프로세서(104)는 이 위치에 기초해서 구성의 서브세트를 결정할 수 있다.
촬상 상태는 카메라(100)의 방향을 포함할 수 있다. 카메라(100)는 인물을 향할 수도 있고 풍경을 향할 수도 있다. 카메라(100)는 자이로스코프와 같은 방향 결정 유닛을 포함할 수 있다. 방향 결정 유닛은 프로세서(104)에 접속될 수 있다. 프로세서(104)는 방향 결정 유닛으로부터 방향 데이터를 수신할 수 있다. 프로세서(104)는 이 방향에 기초해서 구성의 서브세트를 결정할 수 있다.
촬상 상태는 제 2 상태를 포함할 수 있다. 카메라(100)는 MIC(114)를 포함할 수 있다. 프로세서(104)는 MIC(114)에 의해 기록된 소리를 분석해서 제 2 상태를 결정할 수 있다. 제 2 상태는 웃음 소리, 흐르는 물 소리, 파도 소리, 엔진 소리, 바람 소리 등과 같은 특정 소리의 존재를 포함할 수 있다. 제 2 상태에 기초해서, 구성의 서브세트가 결정될 수 있다. 프로세서(104)는 이 소리의 스펙트럼을 결정해서 소리를 분석할 수 있다(예컨대, DCT나 FFT를 이용해서). 프로세서(104)는 결정된 스펙트럼을, 특정한 소리 상태와 연관되어 있는 하나 이상의 기준 스펙트럼과 비교할 수 있다. 결정된 스펙트럼이 기준 스펙트럼에 대응 혹은 일치한다고 결정되면, 소리 상태가 결정될 수 있다. 프로세서(104)는 소리 상태에 기초해서 구성의 서브세트를 결정할 수 있다.
촬상 상태는 카메라(100)의 이동 상태를 포함할 수 있다. 카메라(100)는 가속도계와 같은 움직임 센서를 포함할 수 있다. 움직임 센서는 프로세서(104)에 접속될 수 있다. 프로세서(104)는 이 움직임 센서로부터 움직임 데이터를 수신할 수 있다. 다른 방안으로, 프로세서(104)는, 이미지 촬상 장치(102)의 저장 버퍼에 기록된 적어도 2개의 가장 최근 이미지를 반복해서 비교함으로써 움직임 상태를 결정할 수도 있다. 움직임 상태는 카메라(100)가 이동하지 않음, 카메라(100)가 움직이기 시작함, 카메라(100)의 움직임이 저하되거나 멈춤, 카메라(100)가 특정 방향으로 이동함, 이동 속도가 임계값 이하로 낮아지거나 임계값을 초과함 등을 포함할 수 있다. 프로세서(104)는 움직임 상태에 기초해서 구성의 서브세트를 결정할 수 있다.
촬상 상태는 입력되는 이미지 촬상 커맨드의 타입을 포함할 수 있다. 예컨대, 구성의 서브세트는, 이미지 촬상 커맨드가 카메라(100)의 액추에이터(112)를 통해서 수신되었는지, 카메라(100)의 감소된 움직임을 통해서 수신되었는지, 혹은 카메라(100)의 MIC(114)를 통해서 수신되었는지에 기초해서 결정될 수 있다. 카메라(100)는 추가 액추에이터(112)를 포함할 수 있고, 여기서 구성의 서브세트는 어느 액추에이터(112)가 사용되는지에 기초해서 결정될 수 있다. 촬상 상태를 분석하는 것은, 카메라(100)가 묘사하는 경관을 분석하는 단계를 포함할 수 있다. 상술한 바와 같이, 경관을 분석하는 것은, 경관의 특징을 식별하고 식별한 특징에 기초해서 구성의 서브세트를 결정하는 단계를 포함할 수 있다.
결론적으로, 상이한 촬상 상태에 대해 상이한 구성의 서브세트가 결정될 수 있다. 이는, 카메라(100)의 다양한 파라미터의 전혀 상이한 설정으로부터 상이한 촬상 상태를 얻을 수 있다는 점에서 바람직하다.
이상, 제한된 수의 예를 참조하면서 본 발명을 설명했다. 그러나, 당업자라면, 첨부된 청구항에 의해 정의되는 본 발명의 범주 내에서, 상기 설명한 것 이외의 다른 예가 있을 수 있다는 것을 이해할 것이다.

Claims (26)

  1. 카메라를 이용해서 이미지를 촬상하는 방법에 있어서,
    상기 카메라에 의해 묘사되는 경관(view)을 분석하는 단계와,
    상기 분석에 기초해서, 상기 카메라의 제 1 구성을 결정하는 단계와,
    상기 카메라에서의 이미지 촬상 커맨드를 검출한 것에 응답해서, 상기 카메라의 적어도 2개의 상이한 구성을 이용해서 적어도 2개의 이미지의 세트를 촬상하는 단계 -제 1 이미지는 상기 카메라의 제 1 구성을 이용하여 촬상되며, 제 2 이미지는 상기 카메라에 의하여 촬상된 제 1 이미지의 분석에 기초하여 결정된 제 2 구성을 이용하여 촬상됨- 와,
    상기 적어도 2개의 이미지의 세트로부터 소스 이미지를 선택하는 단계와,
    상기 소스 이미지 내에서 소스 영역을 식별하는 단계와,
    상기 적어도 2개의 이미지의 세트로부터 선택된 타겟 이미지로부터 타겟 영역을 식별하는 단계와,
    상기 소스 영역을 상기 타겟 이미지로부터의 타겟 영역으로 대체해서 통합 이미지를 형성하는 단계를 포함하는
    카메라를 이용한 이미지 촬상 방법.
  2. 제 1 항에 있어서,
    상기 경관을 분석하는 단계는 상기 경관의 적어도 하나의 특징을 식별하는 단계를 포함하는
    카메라를 이용한 이미지 촬상 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 이미지 촬상 커맨드를 검출하기 이전에, 상기 경관의 적어도 하나의 이미지를 촬상하는 단계를 더 포함하는
    카메라를 이용한 이미지 촬상 방법.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 타겟 이미지는 복수의 이미지로부터 기준의 세트에 기초해서 식별되고, 상기 타겟 영역은 상기 소스 영역의 위치에 기초해서 선택되는
    카메라를 이용한 이미지 촬상 방법.
  5. 제 4 항에 있어서,
    상기 소스 영역을 식별하는 단계는 사용자 인터페이스를 이용해서 수행되고, 상기 타겟 이미지는 프로세서를 이용해서 식별되는
    카메라를 이용한 이미지 촬상 방법.
  6. 제 1 항 또는 제 2 항에 있어서,
    구성은 카메라 관련 파라미터를 포함하고, 상기 카메라 관련 파라미터는 구경(aperture), 노출 시간, 노출값, ISO, 플래시 사용 여부, 플래시 강도, 플래시 동기화 속도, 색 설정, 화이트 밸런스 및 초점 중 적어도 하나를 포함하는
    카메라를 이용한 이미지 촬상 방법.
  7. 카메라에 의해 묘사되는 경관을 분석하고, 상기 분석에 기초해서 상기 카메라의 제 1 구성을 결정하는 처리 수단과,
    이미지 촬상 커맨드에 응답해서, 복수의 이미지를 촬상하되, 상기 카메라의 적어도 2개의 상이한 구성을 이용해서 적어도 2개의 이미지를 촬상하는 이미지 촬상 수단 -제 1 이미지는 상기 카메라의 제 1 구성을 이용하여 촬상되며, 제 2 이미지는 상기 카메라에 의하여 촬상된 제 1 이미지의 분석에 기초하여 결정된 제 2 구성을 이용하여 촬상됨- 과,
    상기 복수의 이미지를 저장하는 저장 수단과,
    상기 복수의 이미지 중 소스 이미지를 나타내는 디스플레이와,
    상기 소스 이미지 내의 소스 영역을 선택하기 위한 처리 수단과,
    상기 복수의 이미지 중 타겟 이미지를 선택하고, 상기 소스 영역을 상기 타겟 이미지로부터의 대응하는 타겟 영역으로 대체해서 통합 이미지를 형성하는 처리 수단을 포함하는
    카메라.
  8. 제 7 항에 있어서,
    상기 이미지 촬상 커맨드를 검출하기 이전에, 상기 경관의 적어도 하나의 이미지를 촬상하는
    카메라.
  9. 제 7 항 또는 제 8 항에 있어서,
    상기 타겟 이미지는 복수의 이미지로부터 기준의 세트에 기초해서 식별되고, 상기 타겟 영역은 상기 소스 영역의 좌표 위치 혹은 상기 소스 이미지와 상기 타겟 이미지의 공통 특징에 기초해서 선택되는
    카메라.
  10. 제 7 항 또는 제 8 항에 있어서,
    상기 제 1 구성은 복수의 이미지를 촬상하기 이전에 결정되는
    카메라.
  11. 제 7 항 또는 제 8 항에 있어서,
    구성은 카메라 관련 파라미터를 포함하고, 상기 카메라 관련 파라미터는 구경, 노출 시간, 노출값, ISO, 플래시 사용 여부, 플래시 강도, 플래시 동기화 속도, 색 설정, 화이트 밸런스 및 초점 중 적어도 하나를 포함하는
    카메라.
  12. 제 7 항 또는 제 8 항에 있어서,
    상기 경관을 분석하는 것은 상기 경관의 적어도 하나의 특징을 식별하는 것을 포함하고,
    상기 적어도 하나의 특징은, 상기 경관 내의 광 상태, 상기 경관의 순색량(color content), 혹은 인물, 단체 인물, 풍경, 도시 환경 혹은 이동 물체 등과 같은, 묘사되는 경관의 타입 중 적어도 하나를 포함하는
    카메라.
  13. 제 7 항 또는 제 8 항에 있어서,
    상기 경관을 분석하는 것은, 상기 경관의 뷰파인더 이미지를 분석하는 것을 포함하고,
    상기 뷰파인더 이미지는 이미지 촬상 장치가 지원하는 최대 품질 및/또는 해상도보다 낮은
    카메라.
  14. 제 7 항 또는 제 8 항에 있어서,
    상기 경관을 분석하는 것은 원형 버퍼에 저장된 이미지 혹은 데이터 구조의 일부인 이미지를 분석하는 것을 포함하는
    카메라.
  15. 제 7 항 또는 제 8 항에 있어서,
    상기 처리 수단은 상기 카메라의 추가 구성을 결정하고,
    상기 추가 구성은 제 2 카메라 관련 파라미터를 포함하며,
    상기 제 2 카메라 관련 파라미터는 구경, 노출 시간, 노출값, ISO, 플래시 사용 여부, 플래시 강도, 플래시 동기화 속도, 색 설정, 화이트 밸런스 및 초점 중 적어도 하나를 포함하는
    카메라.
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 카메라에 의해 묘사되는 경관을 분석하고, 상기 분석에 기초해서 상기 카메라의 제 1 구성을 결정하도록 구성된 프로세서와,
    이미지 촬상 커맨드에 응답해서, 복수의 이미지를 촬상하되, 상기 카메라의 적어도 2개의 상이한 구성을 이용해서 적어도 2개의 이미지를 촬상하도록 구성된 이미지 센서 -제 1 이미지는 상기 카메라의 제 1 구성을 이용하여 촬상되며, 제 2 이미지는 상기 카메라에 의하여 촬상된 제 1 이미지의 분석에 기초하여 결정된 제 2 구성을 이용하여 촬상됨- 와,
    상기 복수의 이미지를 저장하도록 구성된 메모리와,
    상기 복수의 이미지 중 소스 이미지를 나타내도록 구성된 디스플레이를 포함하며,
    상기 프로세서는 상기 소스 이미지 내의 소스 영역을 선택하도록 구성되며,
    상기 프로세서는 상기 복수의 이미지 중 타겟 이미지를 선택하고, 상기 소스 영역을 상기 타겟 이미지로부터의 대응하는 타겟 영역으로 대체해서 통합 이미지를 형성하도록 구성되는
    카메라.
KR1020137034943A 2011-05-31 2012-05-31 이미지 촬상 방법 및 장치 KR101573131B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SE1150505-4 2011-05-31
SE1150505A SE1150505A1 (sv) 2011-05-31 2011-05-31 Metod och anordning för tagning av bilder
PCT/SE2012/050584 WO2012166044A1 (en) 2011-05-31 2012-05-31 Method and apparatus for capturing images

Publications (2)

Publication Number Publication Date
KR20140016401A KR20140016401A (ko) 2014-02-07
KR101573131B1 true KR101573131B1 (ko) 2015-11-30

Family

ID=47259620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137034943A KR101573131B1 (ko) 2011-05-31 2012-05-31 이미지 촬상 방법 및 장치

Country Status (5)

Country Link
US (1) US9344642B2 (ko)
EP (2) EP3565237A3 (ko)
KR (1) KR101573131B1 (ko)
SE (1) SE1150505A1 (ko)
WO (1) WO2012166044A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017096128A1 (en) * 2015-12-03 2017-06-08 Nec Corporation Of America Capturing images used in facial recognition through effective use of exposure management
WO2018117681A1 (ko) * 2016-12-23 2018-06-28 삼성전자 주식회사 이미지 처리 방법 및 이를 지원하는 전자 장치
WO2018182282A1 (ko) * 2017-03-27 2018-10-04 삼성전자 주식회사 전자 장치 및 그의 이미지 처리 방법

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9936143B2 (en) 2007-10-31 2018-04-03 Google Technology Holdings LLC Imager module with electronic shutter
WO2011040864A1 (en) 2009-10-01 2011-04-07 Scalado Ab Method relating to digital images
SE534551C2 (sv) 2010-02-15 2011-10-04 Scalado Ab Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild
CA2841910A1 (en) 2011-07-15 2013-01-24 Mobile Imaging In Sweden Ab Method of providing an adjusted digital image representation of a view, and an apparatus
US9392322B2 (en) 2012-05-10 2016-07-12 Google Technology Holdings LLC Method of visually synchronizing differing camera feeds with common subject
WO2014167170A1 (en) * 2013-04-11 2014-10-16 Nokia Corporation Method and technical equipment for imaging
JP6102648B2 (ja) * 2013-09-13 2017-03-29 ソニー株式会社 情報処理装置及び情報処理方法
NL2011771C2 (en) 2013-11-08 2015-05-11 Incatec B V Method and apparatus for acquiring images.
EP2873314B1 (en) * 2013-11-19 2017-05-24 Honda Research Institute Europe GmbH Control system for an autonomous garden tool, method and apparatus
JP2015104078A (ja) * 2013-11-27 2015-06-04 オリンパス株式会社 撮像装置、撮像システム、サーバ、撮像方法、及び撮像プログラム
EP3089102B1 (en) 2013-12-03 2019-02-20 ML Netherlands C.V. User feedback for real-time checking and improving quality of scanned image
US10708491B2 (en) * 2014-01-07 2020-07-07 Ml Netherlands C.V. Adaptive camera control for reducing motion blur during real-time image capture
US9871959B1 (en) * 2014-01-11 2018-01-16 Joseph F Hlatky Adaptive trail cameras
US9357127B2 (en) 2014-03-18 2016-05-31 Google Technology Holdings LLC System for auto-HDR capture decision making
WO2015141487A1 (ja) 2014-03-18 2015-09-24 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US9239957B2 (en) * 2014-04-04 2016-01-19 Fotonation Limited Image processing method and apparatus
US10115114B2 (en) * 2014-04-30 2018-10-30 The Meyers Printing Companies, Inc. Systems and methods for secure distribution of coupons
US9729784B2 (en) 2014-05-21 2017-08-08 Google Technology Holdings LLC Enhanced image capture
US9774779B2 (en) 2014-05-21 2017-09-26 Google Technology Holdings LLC Enhanced image capture
US9813611B2 (en) 2014-05-21 2017-11-07 Google Technology Holdings LLC Enhanced image capture
US10250799B2 (en) 2014-05-21 2019-04-02 Google Technology Holdings LLC Enhanced image capture
EP2975576A1 (en) * 2014-07-15 2016-01-20 Thomson Licensing Method of determination of stable zones within an image stream, and portable device for implementing the method
US9413947B2 (en) 2014-07-31 2016-08-09 Google Technology Holdings LLC Capturing images of active subjects according to activity profiles
US9654700B2 (en) 2014-09-16 2017-05-16 Google Technology Holdings LLC Computational camera using fusion of image sensors
GB2531758A (en) * 2014-10-29 2016-05-04 Nokia Technologies Oy Method and apparatus for determining the capture mode following capture of the content
US10122914B2 (en) 2015-04-17 2018-11-06 mPerpetuo, Inc. Method of controlling a camera using a touch slider
US10170157B2 (en) 2015-06-07 2019-01-01 Apple Inc. Method and apparatus for finding and using video portions that are relevant to adjacent still images
US10370118B1 (en) 2015-10-31 2019-08-06 Simon Saito Nielsen Lighting apparatus for remote controlled device
US9848235B1 (en) 2016-02-22 2017-12-19 Sorenson Media, Inc Video fingerprinting based on fourier transform of histogram
US11404056B1 (en) 2016-06-30 2022-08-02 Snap Inc. Remoteless control of drone behavior
US10375317B2 (en) 2016-07-07 2019-08-06 Qualcomm Incorporated Low complexity auto-exposure control for computer vision and imaging systems
US10861138B2 (en) * 2016-07-13 2020-12-08 Rakuten, Inc. Image processing device, image processing method, and program
WO2018017625A1 (en) * 2016-07-18 2018-01-25 mPerpetuo, Inc. User interface for smart digital camera
DE102017207069A1 (de) * 2017-04-27 2018-10-31 Robert Bosch Gmbh Prüfvorrichtung zur optischen Prüfung eines Objektes, Produktionsanlage mit der Prüfvorrichtung und Verfahren zur optischen Prüfung des Objektes mit der Prüfvorrichtung
WO2019007919A1 (en) * 2017-07-03 2019-01-10 Canon Kabushiki Kaisha METHOD AND SYSTEM FOR SELF-REGULATING PHOTOGRAPHIC DEVICES
GB2587769B (en) * 2018-01-23 2022-02-02 Canon Kk Method and system for updating auto-setting of cameras
GB2597873B (en) * 2017-07-03 2022-07-20 Canon Kk Method and system for auto-setting of cameras
EP3668077B1 (en) * 2017-08-09 2023-08-02 FUJIFILM Corporation Image processing system, server device, image processing method, and image processing program
US11348265B1 (en) 2017-09-15 2022-05-31 Snap Inc. Computing a point cloud from stitched images
US11753142B1 (en) 2017-09-29 2023-09-12 Snap Inc. Noise modulation for unmanned aerial vehicles
US11531357B1 (en) 2017-10-05 2022-12-20 Snap Inc. Spatial vector-based drone control
US11822346B1 (en) 2018-03-06 2023-11-21 Snap Inc. Systems and methods for estimating user intent to launch autonomous aerial vehicle
CN110557573A (zh) * 2018-06-01 2019-12-10 苹果公司 用于成像的统一包围曝光方法
CN110740252A (zh) 2018-07-20 2020-01-31 华为技术有限公司 一种图像获取的方法、装置及终端
IL268612A (en) * 2019-08-08 2021-03-01 HYATT Yonatan Using an HDR image in a visual inspection process
US11315274B2 (en) 2019-09-20 2022-04-26 Google Llc Depth determination for images captured with a moving camera and representing moving features
US11800036B2 (en) 2020-01-23 2023-10-24 Hewlett, Packard Development Company, L.P. Determining minimum scanning resolution
US11972521B2 (en) 2022-08-31 2024-04-30 Snap Inc. Multisensorial presentation of volumetric content
CN115297269B (zh) * 2022-09-27 2023-04-07 荣耀终端有限公司 曝光参数的确定方法及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004357071A (ja) 2003-05-29 2004-12-16 Canon Inc 照明撮像装置
JP2007243775A (ja) 2006-03-10 2007-09-20 Olympus Imaging Corp 電子的ぶれ補正装置
JP2008519505A (ja) 2004-11-05 2008-06-05 ケリー,ダグラス,ジェイ. デジタル画像合成システムを具えるデジタルカメラおよび関連する方法
JP2011517207A (ja) 2008-04-01 2011-05-26 イーストマン コダック カンパニー 複数の画像の捕捉の制御

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3036439B2 (ja) 1995-10-18 2000-04-24 富士ゼロックス株式会社 画像処理装置および画像属性調整方法
US6985172B1 (en) 1995-12-01 2006-01-10 Southwest Research Institute Model-based incident detection system with motion classification
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6621524B1 (en) * 1997-01-10 2003-09-16 Casio Computer Co., Ltd. Image pickup apparatus and method for processing images obtained by means of same
US6542645B1 (en) 1997-07-15 2003-04-01 Silverbrook Research Pty Ltd Adaptive tracking of dots in optical storage system using ink dots
EP1058924B1 (en) 1998-01-26 2012-06-13 Apple Inc. Method and apparatus for integrating manual input
JP3695119B2 (ja) 1998-03-05 2005-09-14 株式会社日立製作所 画像合成装置、及び画像合成方法を実現するプログラムを記録した記録媒体
WO1999067949A1 (fr) 1998-06-22 1999-12-29 Fuji Photo Film Co., Ltd. Imageur et procede
US6317141B1 (en) 1998-12-31 2001-11-13 Flashpoint Technology, Inc. Method and apparatus for editing heterogeneous media objects in a digital imaging device
US6927874B1 (en) 1999-04-02 2005-08-09 Canon Kabushiki Kaisha Image processing method, apparatus and storage medium therefor
US6778211B1 (en) 1999-04-08 2004-08-17 Ipix Corp. Method and apparatus for providing virtual processing effects for wide-angle video images
US6415051B1 (en) 1999-06-24 2002-07-02 Geometrix, Inc. Generating 3-D models using a manually operated structured light source
AU2001272064A1 (en) 2000-02-11 2001-08-20 Make May Toon, Corp. Internet-based method and apparatus for generating caricatures
JP4126640B2 (ja) 2000-03-08 2008-07-30 富士フイルム株式会社 電子カメラ
US6959120B1 (en) 2000-10-27 2005-10-25 Microsoft Corporation Rebinning methods and arrangements for use in compressing image-based rendering (IBR) data
US7099510B2 (en) 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US6975352B2 (en) 2000-12-18 2005-12-13 Xerox Corporation Apparatus and method for capturing a composite digital image with regions of varied focus and magnification
SE518050C2 (sv) 2000-12-22 2002-08-20 Afsenius Sven Aake Kamera som kombinerar skarpt fokuserade delar från olika exponeringar till en slutbild
US7162080B2 (en) 2001-02-23 2007-01-09 Zoran Corporation Graphic image re-encoding and distribution system and method
JP4398153B2 (ja) 2001-03-16 2010-01-13 ヴィジョン・ロボティクス・コーポレーション 画像センサの有効ダイナミックレンジを増加させる装置及び方法
US6930718B2 (en) * 2001-07-17 2005-08-16 Eastman Kodak Company Revised recapture camera and method
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US6724386B2 (en) 2001-10-23 2004-04-20 Sony Corporation System and process for geometry replacement
US7573509B2 (en) * 2002-01-30 2009-08-11 Ricoh Company, Ltd. Digital still camera, reproduction device, and image processor
US20030189647A1 (en) 2002-04-05 2003-10-09 Kang Beng Hong Alex Method of taking pictures
US20030190090A1 (en) 2002-04-09 2003-10-09 Beeman Edward S. System and method for digital-image enhancement
CN1312908C (zh) * 2002-04-17 2007-04-25 精工爱普生株式会社 数码相机
JP2006515128A (ja) 2003-01-24 2006-05-18 マイコイ・コーポレーション 立体パノラマ画像取り込み装置
US6856705B2 (en) 2003-02-25 2005-02-15 Microsoft Corporation Image blending by guided interpolation
EP1538562A4 (en) 2003-04-17 2005-08-10 Seiko Epson Corp GENERATING A STILL IMAGE FROM MULTIPLE INDIVIDUAL IMAGES
US20040223649A1 (en) 2003-05-07 2004-11-11 Eastman Kodak Company Composite imaging method and system
US7317479B2 (en) 2003-11-08 2008-01-08 Hewlett-Packard Development Company, L.P. Automated zoom control
EP1685537B1 (en) 2003-11-18 2015-04-01 Mobile Imaging in Sweden AB Method for processing a digital image and image representation format
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
EP1613060A1 (en) 2004-07-02 2006-01-04 Sony Ericsson Mobile Communications AB Capturing a sequence of images
JP2006040050A (ja) 2004-07-28 2006-02-09 Olympus Corp 再生装置、カメラおよび再生装置の表示切換方法
JP4293089B2 (ja) 2004-08-05 2009-07-08 ソニー株式会社 撮像装置、撮像制御方法およびプログラム
JP4455219B2 (ja) 2004-08-18 2010-04-21 キヤノン株式会社 画像処理装置、画像表示方法、プログラム、及び記憶媒体
JP4477968B2 (ja) 2004-08-30 2010-06-09 Hoya株式会社 デジタルカメラ
TWI246031B (en) 2004-09-17 2005-12-21 Ulead Systems Inc System and method for synthesizing multi-exposed image
US7595823B2 (en) * 2005-02-17 2009-09-29 Hewlett-Packard Development Company, L.P. Providing optimized digital images
US9621749B2 (en) 2005-06-02 2017-04-11 Invention Science Fund I, Llc Capturing selected image objects
US7659923B1 (en) 2005-06-24 2010-02-09 David Alan Johnson Elimination of blink-related closed eyes in portrait photography
AU2005203074A1 (en) 2005-07-14 2007-02-01 Canon Information Systems Research Australia Pty Ltd Image browser
US7403707B2 (en) * 2005-07-28 2008-07-22 Mitsubishi Electric Research Laboratories, Inc. Method for estimating camera settings adaptively
US20070024721A1 (en) 2005-07-29 2007-02-01 Rogers Sean S Compensating for improperly exposed areas in digital images
JP4288612B2 (ja) * 2005-09-14 2009-07-01 ソニー株式会社 画像処理装置および方法、並びにプログラム
US7483061B2 (en) 2005-09-26 2009-01-27 Eastman Kodak Company Image and audio capture with mode selection
US9270976B2 (en) 2005-11-02 2016-02-23 Exelis Inc. Multi-user stereoscopic 3-D panoramic vision system and method
US20090295830A1 (en) 2005-12-07 2009-12-03 3Dlabs Inc., Ltd. User interface for inspection of photographs
JP4790446B2 (ja) 2006-03-01 2011-10-12 三菱電機株式会社 動画像復号装置及び動画像符号化装置
US7787664B2 (en) 2006-03-29 2010-08-31 Eastman Kodak Company Recomposing photographs from multiple frames
JP5163489B2 (ja) 2006-03-31 2013-03-13 株式会社ニコン 画像処理方法、画像処理プログラム、および画像処理装置
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
KR101259105B1 (ko) 2006-09-29 2013-04-26 엘지전자 주식회사 콘트롤러 및 콘트롤러에서 키이 코드를 발생하는 방법
US8111941B2 (en) 2006-11-22 2012-02-07 Nik Software, Inc. Method for dynamic range editing
US7839422B2 (en) 2006-12-13 2010-11-23 Adobe Systems Incorporated Gradient-domain compositing
US7809212B2 (en) 2006-12-20 2010-10-05 Hantro Products Oy Digital mosaic image construction
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
JP4853320B2 (ja) 2007-02-15 2012-01-11 ソニー株式会社 画像処理装置、画像処理方法
US7859588B2 (en) 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
US7729602B2 (en) 2007-03-09 2010-06-01 Eastman Kodak Company Camera using multiple lenses and image sensors operable in a default imaging mode
US7859573B2 (en) * 2007-05-31 2010-12-28 Aptina Imaging Corporation Methods and apparatuses for image exposure correction
JP2009020144A (ja) 2007-07-10 2009-01-29 Brother Ind Ltd 画像表示装置及び画像表示プログラム
JP4930302B2 (ja) * 2007-09-14 2012-05-16 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP2009124206A (ja) * 2007-11-12 2009-06-04 Mega Chips Corp マルチメディア合成データ生成装置
US8416198B2 (en) 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
US8494306B2 (en) 2007-12-13 2013-07-23 Samsung Electronics Co., Ltd. Method and an apparatus for creating a combined image
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
JP4492724B2 (ja) 2008-03-25 2010-06-30 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US8891955B2 (en) * 2008-04-04 2014-11-18 Whitham Holdings, Llc Digital camera with high dynamic range mode of operation
US20090303338A1 (en) 2008-06-06 2009-12-10 Texas Instruments Incorporated Detailed display of portion of interest of areas represented by image frames of a video signal
US8497920B2 (en) 2008-06-11 2013-07-30 Nokia Corporation Method, apparatus, and computer program product for presenting burst images
JP4513903B2 (ja) 2008-06-25 2010-07-28 ソニー株式会社 画像処理装置、及び画像処理方法
US8768070B2 (en) 2008-06-27 2014-07-01 Nokia Corporation Method, apparatus and computer program product for providing image modification
US8463020B1 (en) 2008-07-08 2013-06-11 Imove, Inc. Centralized immersive image rendering for thin client
JP2010020581A (ja) 2008-07-11 2010-01-28 Shibaura Institute Of Technology 不要物を除去した画像合成システム
US8654085B2 (en) 2008-08-20 2014-02-18 Sony Corporation Multidimensional navigation for touch sensitive display
US8176438B2 (en) 2008-09-26 2012-05-08 Microsoft Corporation Multi-modal interaction for a screen magnifier
US20100091119A1 (en) * 2008-10-10 2010-04-15 Lee Kang-Eui Method and apparatus for creating high dynamic range image
KR20100070043A (ko) * 2008-12-17 2010-06-25 삼성전자주식회사 디지털 영상 신호 처리 장치의 장면 인식 표시 방법, 이를 기록한 기록 매체, 상기 표시 방법을 적용한 디지털 영상 신호 처리 장치
TWI401522B (zh) * 2008-12-31 2013-07-11 Altek Corp Flash intensity adjustment method
WO2011040864A1 (en) 2009-10-01 2011-04-07 Scalado Ab Method relating to digital images
EP2323102A1 (en) 2009-10-23 2011-05-18 ST-Ericsson (France) SAS Image capturing aid
SE534551C2 (sv) 2010-02-15 2011-10-04 Scalado Ab Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004357071A (ja) 2003-05-29 2004-12-16 Canon Inc 照明撮像装置
JP2008519505A (ja) 2004-11-05 2008-06-05 ケリー,ダグラス,ジェイ. デジタル画像合成システムを具えるデジタルカメラおよび関連する方法
JP2007243775A (ja) 2006-03-10 2007-09-20 Olympus Imaging Corp 電子的ぶれ補正装置
JP2011517207A (ja) 2008-04-01 2011-05-26 イーストマン コダック カンパニー 複数の画像の捕捉の制御

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017096128A1 (en) * 2015-12-03 2017-06-08 Nec Corporation Of America Capturing images used in facial recognition through effective use of exposure management
US10467457B2 (en) 2015-12-03 2019-11-05 Nec Corporation Of America System and method for capturing images used in facial recognition through effective use of exposure management
AU2016362408B2 (en) * 2015-12-03 2020-01-23 Nec Corporation Of America Capturing images used in facial recognition through effective use of exposure management
WO2018117681A1 (ko) * 2016-12-23 2018-06-28 삼성전자 주식회사 이미지 처리 방법 및 이를 지원하는 전자 장치
US11153498B2 (en) 2016-12-23 2021-10-19 Samsung Electronics Co., Ltd Image processing method and electronic device supporting same
WO2018182282A1 (ko) * 2017-03-27 2018-10-04 삼성전자 주식회사 전자 장치 및 그의 이미지 처리 방법
KR20180109204A (ko) * 2017-03-27 2018-10-08 삼성전자주식회사 전자 장치 및 그의 이미지 처리 방법
US11070736B2 (en) 2017-03-27 2021-07-20 Samsung Electronics Co., Ltd Electronic device and image processing method thereof
KR102317624B1 (ko) * 2017-03-27 2021-10-26 삼성전자 주식회사 전자 장치 및 그의 이미지 처리 방법

Also Published As

Publication number Publication date
EP2716031A1 (en) 2014-04-09
EP3565237A3 (en) 2020-01-08
SE1150505A1 (sv) 2012-12-01
EP3565237A2 (en) 2019-11-06
US20140184852A1 (en) 2014-07-03
KR20140016401A (ko) 2014-02-07
US9344642B2 (en) 2016-05-17
WO2012166044A1 (en) 2012-12-06
EP2716031A4 (en) 2015-03-04

Similar Documents

Publication Publication Date Title
KR101573131B1 (ko) 이미지 촬상 방법 및 장치
US8928772B2 (en) Controlling the sharpness of a digital image
CN108810413B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP4472781B2 (ja) デジタル画像取得装置におけるリアルタイムの顔探知
JP2011010275A (ja) 画像再生装置及び撮像装置
IES20080161A2 (en) Face detection in mid-shot digital images
JP2014516222A (ja) 興味の特徴を含むビデオサマリー
US9055212B2 (en) Imaging system, image processing method, and image processing program recording medium using framing information to capture image actually intended by user
JP2005303991A (ja) 撮像装置、撮像方法、及び撮像プログラム
JP2013005091A (ja) 撮像装置および距離情報取得方法
US8355056B2 (en) Image processing device, imaging device, and image processing program
KR20120086088A (ko) 이미지 처리 방법 및 장치
JP2003156680A (ja) 被写体抽出装置及び撮影装置
JP2007088814A (ja) 撮像装置、画像記録装置および撮像制御プログラム
CN104243804B (zh) 摄像设备、图像处理设备及其控制方法
JP2003163827A (ja) 被写体抽出装置及び撮影装置
JP2004192129A (ja) 顔領域抽出方法及び装置
JP5655668B2 (ja) 撮像装置、画像処理方法及びプログラム
JP5266701B2 (ja) 撮像装置、被写体分離方法、およびプログラム
KR101110725B1 (ko) 썸네일 이미지를 이용한 후보 이미지 제시 방법 및 이를 수행하는 이미지 신호 처리 장치와 촬상 장치
JP4534750B2 (ja) 画像処理装置および画像処理プログラム
JP2004023656A (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2010200270A (ja) 画像処理装置、カメラおよびプログラム
JP2013081136A (ja) 画像処理装置および制御プログラム
JP6590681B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191029

Year of fee payment: 5