KR20130113495A - 촬상 장치 및 촬상 방법 - Google Patents

촬상 장치 및 촬상 방법 Download PDF

Info

Publication number
KR20130113495A
KR20130113495A KR1020137018048A KR20137018048A KR20130113495A KR 20130113495 A KR20130113495 A KR 20130113495A KR 1020137018048 A KR1020137018048 A KR 1020137018048A KR 20137018048 A KR20137018048 A KR 20137018048A KR 20130113495 A KR20130113495 A KR 20130113495A
Authority
KR
South Korea
Prior art keywords
unit
area
distance
distance measuring
image
Prior art date
Application number
KR1020137018048A
Other languages
English (en)
Other versions
KR101501395B1 (ko
Inventor
게이 이토
요이치 이토
Original Assignee
가부시키가이샤 리코
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 리코 filed Critical 가부시키가이샤 리코
Publication of KR20130113495A publication Critical patent/KR20130113495A/ko
Application granted granted Critical
Publication of KR101501395B1 publication Critical patent/KR101501395B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

촬상 장치는, 렌즈를 통해 피사체 화상을 촬상하여, 피사체 화상을 전기 신호로 변환하는 촬상 유닛; 화상을 표시하는 화상 표시 유닛; 상기 화상 표시 유닛의 표시면에 제공되고, 상기 화상 표시 유닛에 표시된 화상 상의 복수의 위치의 지정을 접수하는 지정 접수 유닛; 복수의 2차원 촬상 센서를 이용하여 피사체까지의 거리를 거리 측정하는 거리 측정 유닛; 상기 지정 접수 유닛을 통해 지정된 복수의 위치를 포함하는 영역에 관해서, 거리 측정 결과로부터 획득된 거리 측정 영역을 설정하는 영역 설정 유닛; 상기 거리 측정 영역의 거리에 기초하여 인 포커스 위치를 결정하는 위치 결정 유닛; 및 상기 인 포커스 위치에서 촬영을 행하는 연속 촬영 유닛을 포함한다.

Description

촬상 장치 및 촬상 방법{IMAGE CAPTURING DEVICE AND IMAGE CAPTURING METHOD}
본 발명은, 촬상 장치 및 촬상 방법에 관한 것이다.
디지털 스틸 카메라 등의 전자 촬상 장치는, 피사체에 자동으로 초점을 맞추는 오토포커스(AF) 유닛을 포함하고 있는 것이 일반적이다. AF 유닛에 있어서의 AF 제어 방법으로서, 힐 클라이밍(hill-climbing) AF 제어가 널리 이용되고 있다 (예컨대, 일본 특허 공고 제S39-5265호 공보 참조). 힐 클라이밍 AF 제어는, 촬상 센서로부터 출력된 영상 신호에 기초하여 근접 화소의 휘도차의 적분치를 계산하고, 이 휘도차의 적분치를, 포커싱 정도를 평가하는 AF 평가치로 사용함으로써 수행된다. 인 포커스(in-focus) 상태에서, 피사체의 윤곽 부분이 크게 대조되어 있어, 근접 화소의 휘도차가 크고, 따라서 AF 평가치가 크다. 대조적으로, 아웃 오브 포커스(out-of-focus) 상태에서, 피사체의 윤곽 부분은 흐릿하고, 따라서 이웃 화소의 휘도차가 작고, 따라서 AF 평가치가 작다. AF 동작 동안, AF 유닛은, AF 평가치의 시퀀스를 순차 취득하면서 렌즈를 이동시키고, AF 평가치가 최대인 인 포커스 위치로서의 위치에, 다시 말하면 피크 위치에 렌즈를 정지시킨다.
최근, 꽃의 접사의 경우에서와 같이, 초점 거리를 화면 내에 다수 포함하는 장면에 유효한 기능을 실행하는 기술이 제공되어 있다. 이 기술에 의하여, 피사체 정보에 기초하여 카메라가 자동으로 카메라로부터의 초점 거리를 복수점으로 결정하고, 각각의 거리로 포커싱이 이동되면서 고속 연속 촬영을 행하고, 결과적인 촬영 화상을 멀티 픽쳐 포맷(Multi-Picture Format)의 전자 파일로서 기억하게 함으로써, 사용자가 촬영 후에 원하는 영역에 포커싱된 화상을 선택하는 것을 가능하게 한다.
일본 특허 공개 제H04-158322호 공보에는, 포커스 영역 내의 휘도의 분포의 평균치(무게 중심)을 구하고, 상이한 프레임 간의 평균치를 비교하여 피사체의 이동을 검출하고, 이 이동을 추적함으로써 포커스 영역을 새로운 포커스 영역으로 이동시켜, 새로운 포커스 영역 내에서 인 포커스 위치를 검출하는 기술(자동 추적 기능)이 개시되어 있다.
일본 특허 공개 제2010-128395호 공보에는, 사용자가 화면상에서 지정한 선에 기초하여 오토포커스 영역을 결정하여, 포커싱 타겟 피사체를 정확하게 지정할 수 있는 촬상 장치가 제안되어 있다.
그러나, 일본 특허 공고 제S39-5265호 공보 등에 개시된 종래의 AF 기술에 따르면, 고속 연속 촬영에 앞서, AF 거리 측정(range-finding) 스캐닝을 한다. 이 AF 거리 측정 스캐닝은, 포커스 렌즈가 이동할 수 있는 영역 전체에 포커싱 렌즈를 이동하면서 AF 평가치를 취득하여, 피크 위치를 순차 선택함으로써 수행되기 때문에, 시간이 소모된다는 문제가 이미 알려져 있다.
초점이 맞춰지는 피사체를 특정할 수 있는 일본 특허 공개 제H04-158322호 공보 또는 제2010-128395호 공보에 개시된 기술은 또한, 오토포커스시에 수반되는 처리 시간에서 시간을 소모하여, 좋은 촬영 기회를 상실하게 될 수 있다.
본 발명은, 상기 환경을 감안하여 이루어졌고, 빠른 거리 측정 처리와 함께 사용자가 사용자가 촬영하고 싶은 순간에 연속적으로 원하는 화상을 촬영할 수 있는 촬상 장치 및 촬상 방법을 제공한다.
본 발명의 목적은, 종래 기술의 문제점을 적어도 부분적으로 해결하는 것이다.
촬상 장치는, 렌즈를 통해 피사체 화상을 촬상하여, 피사체 화상을 전기 신호로 변환하는 촬상 유닛; 촬상 유닛으로부터의 전기 신호에 기초하여 화상을 표시하는 화상 표시 유닛; 화상 표시 유닛의 표시면에 제공되고, 상기 화상 표시 유닛에 표시된 화상 상의 복수의 위치 지정을 접수하는 지정 접수 유닛; 복수의 2차원 촬상 센서를 이용하여 피사체까지의 거리를 거리 측정하는 거리 측정 유닛; 지정 접수 유닛을 통해 지정된 복수의 위치를 포함하는 영역에 관해서, 거리 측정 유닛으로부터 출력된 거리 측정 결과로부터 획득된 거리 측정 영역을 설정하는 영역 설정 유닛; 영역 설정 유닛으로 설정된 거리 측정 영역의 거리에 기초하여 복수의 인 포커스 위치를 결정하는 위치 결정 유닛; 및 위치 결정 유닛에 의하여 결정된 복수의 인 포커스 위치에서 촬영을 행하는 연속 촬영 유닛을 포함한다.
촬상을 위한 촬상 방법은, 렌즈를 통해 피사체 화상을 촬상하여, 피사체 화상을 전기 신호로 변환하는 촬상 유닛; 촬상 유닛으로부터의 전기 신호에 기초하여 화상을 표시하는 화상 표시 유닛; 화상 표시 유닛의 표시면에 제공되고, 화상 표시 유닛에 표시된 화상 상의 복수의 위치 지정을 접수하는 지정 접수 유닛; 및 복수의 2차원 촬상 센서를 이용하여 피사체까지의 거리를 거리 측정하는 거리 측정 유닛을 포함하는 촬상 장치에서 수행된다. 촬상 방법은, 촬상 장치를 제어하는 제어 유닛이, 영역 설정 유닛으로서, 지정 접수 유닛을 통해 지정된 복수의 위치를 포함하는 영역에 관해서, 거리 측정 유닛으로부터 출력된 거리 측정 결과로부터 획득된 거리 측정 영역을 설정하고; 위치 결정 유닛으로서, 영역 설정 유닛으로 설정된 거리 측정 영역의 거리에 기초하여 복수의 인 포커스 위치를 결정하고; 연속 촬영 유닛으로서, 위치 결정 유닛에 의해 결정된 복수의 인 포커스 위치에서 촬영을 행하게 하는 단계를 포함한다.
본 발명의 상기 및 다른 목적, 특징, 이점 및 기술적 및 산업상 중요성은, 첨부된 도면과 함께 고려하여, 본 발명의 바람직한 실시예의 다음의 상세한 설명에 의하여 보다 잘 이해될 것이다.
도 1은 실시예에 따른 디지털 스틸 카메라의 외관의 예를 도시하는 평면도이다.
도 2는 디지털 스틸 카메라의 외관의 예를 도시하는 정면도이다.
도 3은 디지털 스틸 카메라의 외관의 예를 도시하는 배면도이다.
도 4는 디지털 스틸 카메라의 내부 시스템의 예시적인 구성을 도시하는 블록도이다.
도 5는 디지털 스틸 카메라에 포함된 거리 측정 유닛의 내부 구성을 도시하는 도면이다.
도 6은 촬상 센서의 기판의 내부 블록도이다.
도 7은 촬상 센서의 화상 신호 취득 타이밍을 도시하는 타이밍 차트이다.
도 8a는 거리 측정 및 측광(測光)의 기본 원리(라인 센서로의 거리 측정 방법)을 설명하기 위한 도면이다.
도 8b는 거리 측정 및 측광의 기본 원리(라인 센서로의 거리 측정 방법)을 설명하기 위한 도면이다.
도 9는 촬상 센서 상에 배치된 2차원 영역의 예를 설명하는 구성도이다.
도 10은 디지털 스틸 카메라의 거리 측정 유닛에 의한 거리 측정 처리를 설명하는 도면이다.
도 11은 거리 측정 유닛의 촬상 센서 중 하나인 CCD(charge coupled device) 내의 분할된 영역의 예를 도시하는 도면이다.
도 12는 뷰파인더(viewfinder) 모드로부터 고속 연속 촬영까지의 처리 플로우를 도시하는 플로우 차트이다.
도 13은 제1 실시예에 따른 영역 선택 처리를 설명하기 위한 플로우 차트이다.
도 14는 제2 실시예에 따른 영역 선택 처리를 설명하기 위한 플로우 차트이다.
도 15는 측광 및 거리 측정 처리를 설명하기 위한 플로우 차트이다.
도 16은 도 15에 도시된 측광 및 거리 측정 처리에서의 측광을 설명하기 위한 플로우 차트이다.
도 17은 도 15에 도시된 측광 및 거리 측정 처리에서의 거리 측정 처리를 설명하기 위한 플로우 차트이다.
도 18a는 제1 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 18b는 제1 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 18c는 제1 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 18d는 제1 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 18e는 제1 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 18f는 제1 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 18g는 제1 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 18h는 제1 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 19a는 제2 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 19b는 제2 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 19c는 제2 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 19d는 제2 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 19e는 제2 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 19f는 제2 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 19g는 제2 실시예에 따른 거리 측정 처리로부터 영역 설정 처리까지를 설명하기 위한 도면이다.
도 20a는 터치 패널에 수행될 수 있는 "탭(tab)" 조작을 도시하는 도면이다.
도 20b는 터치 패널에 수행될 수 있는 "프레스 앤드 홀드(press-and-hold)" 조작을 도시하는 도면이다.
도 20c는 터치 패널에 수행될 수 있는 "드래그(drag)" 조작을 도시하는 도면이다.
첨부 도면을 참조하여, 본 발명의 예시적인 실시예에 따른 촬상 장치 및 촬상 방법을 이하에 상세히 설명한다.
[실시예의 개요]
예시적인 실시예의 태양에 따르면, 촬상 장치 및 촬상 방법은, 화상 모니터 스크린 상에 터치 패널을 포함하는 촬상 장치가, 거리 측정 유닛으로서 2차원 촬상 센서를 이용하고, 최초의 터치 조작으로 제1 포커스 타겟 피사체를 결정하고, 계속하여 드래그 조작에 의해 다른 포커스 타켓 피사체(들)을 포함하는 궤적을 그림으로써 제1 포커스 타켓 피사체 이외의 다른 포커스 타켓 피사체(들)을 결정하고, 마지막으로 디태치(detach) 조작에 의해 최후의 포커스 타켓 피사체를 결정함으로써, 멀티 타겟 오토 포커스(이하, 오토 포커스를 "AF"로 칭함)를 수행하여, 복수점의 피사체의 위치 선택을 한번의 제스쳐 조작으로 할 수 있다는 점을 특징으로 한다.
[디지털 스틸 카메라의 구성]
우선 실시예에 따른 디지털 스틸 카메라의 구성을 도 1 내지 도 5를 참조하여 이하에 설명한다.
(디지털 스틸 카메라의 외관)
도 1 내지 도 3은, 제1 실시예에 따른 디지털 스틸 카메라의 외관의 예의 평면도, 정면도 및 배면도를 각각 도시하는 도면이다. 도 1에 도시한 바와 같이, 디지털 스틸 카메라의 상면에는, 릴리스 스위치(SW1), 모드 다이얼(SW2), 터치 패널 서브 액정 디스플레이(LCD)(1)이 제공되어 있다. 도 2에 도시한 바와 같이, 디지털 스틸 카메라의 정면에는, 촬영 렌즈를 포함하는 렌즈 배럴 유닛(7), 광학 뷰파인더(4), 스트로브 발광 유닛(3), 거리 측정 유닛(5), 원격 제어용으로 사용된 수광 유닛(6), 메모리 카드 슬롯 및 전지 슬롯의 덮개(2)를 포함한다. 디지털 스틸 카메라의 배면에는, 도 3에 도시한 바와 같이, 전원 스위치(13), 터치 패널을 포함하는 LCD 모니터(10), AF의 신호로서의 AF 발광 다이오드(LED)(8), 스트로브 LED(9), 광학 뷰파인더(4), 광각 줌 스위치(SW3), 망원 줌 스위치(SW4), 셀프 타이머 설정/해제 스위치(SW5), 메뉴 스위치(SW6), 상측 이동/스트로브 광 스위치(SW7), 우측 이동 스위치(SW8), 디스플레이 스위치(SW9), 하측 이동/마크로 스위치(SW10), 좌측 이동/화상 확인 스위치(SW11), OK 스위치(SW12), 및 촬영 설정으로의 퀵 액세스를 가능하게 하는 퀵 액세스 스위치(SW13)를 포함한다. 또한, 상술된 각부의 기능은 공지의 디지털 스틸 카메라의 것과 유사하다.
(디지털 스틸 카메라의 예시적인 시스템 구성)
도 4는, 디지털 스틸 카메라 내의 예시적인 시스템 구성을 도시하는 블록도이다. 도 4에 도시한 바와 같이, 디지털 스틸 카메라는, 각부가 디지털 스틸 카메라 프로세서(104)(이하, "프로세서"(104)"라고 칭함)에 의해서 제어되도록 구성된다. 프로세서(104)는, 제1 CCD(CCD1) 신호 처리 블록(104-1), 제2 CCD(CCD2) 신호 처리 블록(104-2), CPU(central processing unit) 블록(104-3), 로컬 SRAM(local static random access memory)(SRAM)(104-4), USB(Universal Serial Bus) 블록(104-5), 시리얼 블록(104-6), JPEG 코덱 블록(104-7), RESIZE 블록(104-8), TV 신호 표시 블록(104-9), 및 메모리 카드 컨트롤러 블록(104-10)을 포함하고, 이들은 서로 버스 라인으로 접속되어 있다.
CCD1 신호 처리 블록(104-1)은, TG(timing generator)(102-4)에, 수직 동기 신호(VD)와 수평 동기 신호(HD)를 공급한다. CCD2 신호 처리 블록(104-2)은, 필터링 처리에 의해 입력 신호를 휘도 데이터와 색차 데이터로의 변환을 한다.
프로세서(104)의 CPU 블록(104-3)은, 음성 기록 회로(115-1)에 의한 음성 기록 동작을 제어하도록 구성되어 있다. 음성은 마이크로폰(115-3)에 의하여 음성 신호로 변환되고, 증폭 신호를 출력하는 마이크로폰 증폭기(115-2)에 입력된다. 음성 기록 회로(115-1)는 CPU 블록(104-3)으로부터 입력된 지령에 따라서 증폭 신호를 기록한다.
또한, CPU 블록(104-3)은, 음성 재생 회로(116-1)의 동작도 제어한다. 음성재생 회로(116-1)는, CPU 블록(104-3)으로부터 입력된 지령에 따라, 적절한 메모리에 기록된 음성 신호를 재생하여, 이 음성 신호를 오디오 증폭기(116-2)에 입력하고, 스피커(116-3)가 음성을 출력하게 하도록 구성된다.
CPU 블록(104-3)은 또한, 스트로브 광 회로(114)의 동작을 제어함으로써 스트로브 발광 유닛(3)이 조명광을 발광하게 하도록 구성된다. CPU 블록(104-3)은 또한 거리 측정 유닛(5)의 동작도 제어한다.
CPU 블록(104-3)은, 프로세서(104)의 외부에 제공된 서브 CPU(109)와 접속되어 있다. 이 서브 CPU(109)는, LCD 드라이버(111)를 통해 서브 LCD(1)에 의한 표시를 제어한다. 서브 CPU(109)는 또한, AF LED(8), 스트로브 LED(9), 수광 유닛(6), 스위치(SW1 내지 SW13)로 형성된 조작키 유닛, 및 버저(113)와 더 접속되어, 이들을 제어한다.
로컬 SRAM(104-4)은, 제어 동작에 수반되는 데이터 등을 일시적으로 기억한다. USB 블록(104-5)은, USB 커넥터(122)에 접속되어 있어, USB 블록(104-5)이 퍼스널 컴퓨터(PC) 등의 외부 기기와 USB 통신을 한다. 시리얼 블록(104-6)은, 시리얼 드라이버 회로(123-1)를 통해 RS-232C 커넥터(123-2)에 접속되어, PC 등의 외부 기기와 시리얼 통신을 행한다. JPEG 코덱 블록(104-7)은, JPEG 압축 및 압축 해제를 한다. RESIZE 블록(104-8)은, 화상 데이터 사이즈를 보간에 의해 확대/축소한다. TV 신호 표시 블록(104-9)은, LCD 드라이버(117)를 통해 LCD 모니터(10)에 접속되고, 또한 비디오 증폭기(118)를 통해 비디오 잭(119)에도 접속된다. TV 신호 표시 블록(104-9)은 화상 데이터를 LCD 모니터나 TV 등의 외부 표시 기기에 표시될 비디오 신호로 변환시킨다. 메모리 카드 컨트롤러 블록(104-10)은, 메모리 카드 슬롯(121)의, 메모리 카드와의 접점에 접속되어 있고, 촬영된 화상 데이터를 기억하는 메모리 카드를 제어한다.
프로세서(104)의 외부에는, 각종 처리가 실시되는 화상 데이터를 일시적으로 기억하는 SDRAM(synchronous dynamic RAM)(103)이 제공되고, 프로세서(104)에 버스 라인에 의하여 접속되어 있다. SDRAM(103)에 기억되는 화상 데이터의 예는, CCD(101)로부터 프론트-엔드 집적 회로(F/E-IC)(102)를 통하여 입력되고, CCD1 신호 처리 블록(104-1)에 의하여 화이트 밸런스 보정 및 감마 보정이 행해진 "RAW-RGB 화상 데이터", CCD2 신호 처리 블록(104-2)에 의하여 휘도 데이터 변환/색차 데이터 변환이 행해진 "YUV 화상 데이터", 및 JPEG 코덱 블록(104-7)에 의하여 JPEG 압축된 "JPEG 화상 데이터"를 포함한다.
프로세서(104)의 외부에는 또한, RAM(107), 내장 메모리(120), 및 ROM(read only memory)(108)이 제공되고, 프로세서(104)에 버스 라인에 의하여 접속되어 있다. ROM(108)은, CPU 블록(104-3)에 의하여 판독될 수 있는 프로그램 코드로 기술된 제어 프로그램, 그 제어 동작을 위한 파라미터 등을 기억한다. 전원 스위치(13)의 조작에 의해서, 이 디지털 스틸 카메라의 전원이 온되면, 제어 프로그램이 ROM(108)으로부터, 메인 메모리로서도 이용되는 로컬 SRAM(104-4) 또는 RAM(107)에 로드된다. CPU 블록(104-3)은, 제어 프로그램에 따라서 장치 각부의 동작을 제어한다. 내장 메모리(120)는, 촬영한 화상 데이터를 기억하는 메모리로서 사용되는 메모리이다. 내장 메모리(120)는, 메모리 카드 슬롯(121)에 메모리 카드가 삽입되지 않아도, 촬영한 화상 데이터를 기억할 수 있도록 제공되어 있다.
제어 프로그램은, 거리 측정 유닛(5)으로부터의 출력(거리 측정의 결과)을 처리하여, 거리 측정 영역을 설정하는 거리 측정 영역 설정 기능을 갖는 "거리 측정 처리 유닛"; 터치 패널을 통한 입력 정보에 기초하여 사용자가 터치한 터치 패널 상의 위치를 결정하여 입력 정보를 접수하는 "지정 접수 유닛"; SDRAM(103)에 기억된 화상 데이터에서의 피사체의 얼굴 영역(얼굴 영역은 피사체의 얼굴의 윤곽을 포함하는 영역이다)을 검출하는 "얼굴 영역 검출 유닛"; LCD에 터치 패널 상에 지정된 영역(들)이나 화상 데이터를 표시하는 "화상 표시 처리 유닛"; 정지 화상 촬영을 고속으로 연속하여 행하는, 소위 고속 연속 촬영의 기능을 갖는 "연속 촬영 처리 유닛"; 및 후술하는 거리 리스트의 거리 데이터를, 각 포커스 렌즈(7-2a)의 인 포커스 위치로 변환시키는 인 포커스 위치 결정 기능을 갖는 "렌즈 위치 결정 유닛"과 같은 각종 처리 프로그램을 포함한다.
렌즈 배럴 유닛(7)은, 줌 렌즈(7-1a)를 포함하는 줌 광학계(7-1), 포커스 렌즈(7-2a)를 포함하는 포커스 광학계(7-2), 다이어프램(7-3a)을 포함하는 다이어프램 유닛(7-3), 및 메카니컬 셔터(7-4a)를 포함하는 메카니컬 셔터 유닛(7-4)을 포함한다. 줌 광학계(7-1), 포커스 광학계(7-2), 다이어프램 유닛(7-3), 및 메카니컬 셔터 유닛(7-4)은, 각각 줌 모터(7-1b), 포커스 모터(7-2b), 다이어프램 모터(7-3b), 및 메카니컬 셔터 모터(7-4b)에 의해서 구동되도록 구성된다. 모터는, 프로세서(104)의 CPU 블록(104-3)에 의해서 제어되는 모터 드라이버(7-5)에 의해서 각 모터의 동작이 제어되도록 구성되어 있다.
렌즈 배럴 유닛(7)은, 촬상 센서로서의 CCD(101)에 피사체 화상이 형성되는 촬영 렌즈를 포함한다. CCD(101)는 상기 피사체 화상을 화상 신호로 변환시키고, 화상 신호를 F/E-IC(102)에 입력한다. F/E-IC(102)는, 주지대로, 화상 노이즈 제거용 상관 이중 샘플링을 하는 상관 이중 샘플링(CDS)(102-1), 이득 조정을 하는 자동 이득 제어기(automatic gain controller, AGC)(102-2), 및 A/D 변환을 하는 아날로그-디지털(A/D) 변환기(102-3)를 포함하고, 각각은 상기 화상 신호에 미리 결정된 처리를 실시하여, 화상 신호를 디지털 신호로 변환시키고, 디지털 신호를 프로세서(104)의 CCD1 신호 처리 블록(104-1)에 입력한다. 이들 신호 처리 동작은, 프로세서(104)의 CCD1 신호 처리 블록(104-1)으로부터 출력되는 VD/HD 신호에 의해, TG(102-4)를 통해 제어된다.
거리 측정 유닛(5)은 단독으로 CPU를 갖는다. 따라서, 거리 측정 유닛(5)은, 디지털 스틸 카메라 내에서의 다른 처리와 비동기적으로 동작될 수 있다. 도 5는 거리 측정 유닛(5)의 내부 구성도이다.
(거리 측정 유닛의 구성)
도 5에 도시한 바와 같이, 렌즈 어레이(11)는 서로 일체화되어 형성된 렌즈(12a, 12b)를 포함한다. 렌즈(12a, 12b)는 거리 측정 렌즈이며, 동일한 형상으로 초점 거리는 같다. 렌즈(12a)의 광축(14a)과 렌즈(12b)의 광축(14b)은 서로 평행하다. 광축(14a)와 광축(14b) 간의 거리는 기선 길이(D)을 구성한다.
여기서, 도 5에 도시된 바와 같이, 광축(14a, 14b)을 따른 방향을 Z축으로 하고, Z축에 수직이며, 또한 광축(14a)에서 광축(14b)으로 향하는 방향을 Y축으로 하고, Z축과 Y축의 양쪽에 직교하는 방향을 X축으로 한다. 렌즈(12a, 12b)는 XY 평면상에 배열되어, Y축 상에 렌즈(12a, 12b)의 중심이 배치된다. 이 배치에서, 시차(Δ)가 형성되는 방향은 Y축이 된다.
촬상 센서(15)는, 화상을 촬영하는 센서이며, CMOS(complementary metal oxide semiconductor) 또는 CCD에 의하여 구현되고, 웨이퍼 상에 반도체 프로세스에 의해 다수의 수광 소자(화소)를 형성함으로써 제조된다. 본 실시예는 CCD를 이용하여 설명한다. 촬상 센서(15) 상에는, 촬상 영역(16a)과 촬상 영역(16b)은 서로 이격되도록 제공된다. 피사체 화상은 각각 거리 측정 렌즈(12a, 12b)를 통하여 촬상 영역(16a, 16b) 상에 형성된다.
촬상 영역(16a)과 촬상 영역(16b)은 크기와 직사각 영역의 형상이 동일하고, 촬상 영역(16a, 16b)은, 직사각 영역의 중심 대각선이 각 렌즈(12a, 12b)의 광축(14a, 14b)과 거의 일치하도록 배치되어 있다. 본 실시예의 거리 측정 유닛(5)에서, 촬상 영역(16a)과 촬상 영역(16b)은 서로 이격되어 제공되어 있다. 촬상 영역이 서로 이격되어 있지 않은 경우는, 촬상 영역(16a, 16b) 중 하나에 입사하도록 되는 광 빔이 다른 촬상 영역에 입사하는 것을 피하기 위해서, 촬상 영역(16a, 16b)을 서로 구획짓는 벽 등을 제공할 필요가 있다. 그러나, 본 실시예에 따른 거리 측정 유닛(5)은 그러한 구조를 요하지 않는다.
촬상 센서(15) 하부에는 디지털 신호 프로세서(DSP)(미도시)를 포함하는 기판(18)이 배치되어 있다. 기판(18)의 내부 블록도는 도 6과 같다. 도 6에 도시하는 구성에 있어서 촬상 센서(15)는 프로세서(204)에 의해서 제어되도록 구성되어 있다.
프로세서(204)는, CCD 신호 처리 블록(204-1), CPU 블록(204-2), 메모리 컨트롤러 블록(204-3), 및 외부 인터페이스(I/F) 블록(204-4)을 포함하고, 이들은 서로 버스 라인으로 접속되어 있다. 프로세서(204)의 외부에는, YUV 화상 데이터를 기억하는 SDRAM(205)이 배치되고, SDRAM(205)은 프로세서(204)와 버스 라인에 의하여 접속되어 있다. 또한 프로세서(204)의 외부에는, 제어 프로그램을 기억하는 ROM(206)이 배치되고, ROM(206)은 프로세서(204)와 버스 라인에 의해서 접속되어 있다.
기판(18)에서, 촬상 센서(15)의 CCD(201-1)와 CCD(201-2)로부터의 피사체 화상의 화상 신호가 각각 F/E-IC(202)와 F/E-IC(203)에 입력된다. 본 실시예에서, 거리 측정 유닛(5)은 2개의 촬상 센서를 포함하고, 각각은 제1 거리 측정 센서 F/E-IC(202)와 제2 거리 측정 센서 F/E-IC(203)를 갖는다. 상기에 이미 설명된 바와 같이, F/E-IC는 프론트-엔드 집적 회로의 약자이며, F/E-IC(202) 및 F/E-IC(203)는 각각 상관 이중 샘플링을 하는 CDS(202-1)와 CDS(203-1); 이득 조정을 하는 AGC(202-2)와 AGC(203-2); 및 화상 신호를 디지털 신호로 변환하여 프로세서(204)의 CCD-신호 처리 블록(204-1)에 입력되는 A/D 변환을 하는 A/D 변환기(202-3, 203-3)를 포함한다. 이들 신호 처리 동작은, 프로세서(204)의 CCD 신호 처리 블록(204-1)으로부터 출력된 동기 신호인 VD/HD/CLK 신호에 따라, TG(202-4)와 TG(203-4)를 통해 제어된다.
ROM(206)에 기억된 제어 프로그램은, CCD 신호 처리 블록(204-1)이 2개의 촬상 센서(201-1, 201-2) 각각에 제어 프로그램의 제어 동작을 수행할 수 있도록 구성되어 있다. 이 제어 프로그램은, 촬상 센서(201-1, 201-2) 각각에, 거리 측정 처리를 수행하기 위한 거리 측정 처리 유닛 블록과, 측광 처리를 수행하기 위한 측광 처리 유닛 블록을 포함한다.
촬상 센서에 의한 화상 신호의 촬영 타이밍은 VD 신호와 동기하여 제어된다. 본 실시예에서, 촬영 타이밍은, 30 fps(frames per seconds)의 프레임 레이트로 구동되도록 설정되어 있다. 도 7은 촬영 타이밍의 타이밍 챠트이고, 전자 셔터의 촬영 타이밍을 설정하는 것으로, 노광이 제어될 수 있다는 것을 도시한다.
외부 I/F 블록(204-4)은, 거리 측정(거리 분포)의 결과 및 측광의 결과의 출력, 2개의 촬상 센서로부터 입력된 화상 데이터의 출력, 및 디지털 스틸 카메라와의 통신의 수행을 가능하게 한다. 따라서, 디지털 스틸 카메라에서의 거리 측정 유닛(5) 이외의 각 부가 출력 데이터를 획득하도록 연산하게 하는 것이 가능하다.
[거리 측정 및 측광의 기본 원리]
이하에, 거리 측정 및 측광의 기본 원리를 설명한다. 우선, 거리 측정의 기본 원리를 도 8a 및 도 8b에 도시된 라인 센서를 이용하는 거리 측정 방법의 예를 이용하여 설명한다.
도 8a 및 도 8b에 도시된 바와 같이, 피사체(311)로부터 반사된 광이, 서로 동일한 광학계를 포함하는 2개의 디지털 스틸 카메라(312a, 312b)로 촬영되는 경우를 생각한다. 렌즈(313a)를 통해서 얻은 제1 피사체 화상(314a)과 렌즈(313b)를 통해서 얻은 제2 피사체 화상(314b)은, 피사체 상의 동일점이 라인 센서(315a, 315b) 상에 시차(Δ)만큼 변위되도록, 라인 센서(315a) 및 라인 센서(315b)에 각각 도달하고, 피사체 화상(314a, 314b)은 복수의 수광 소자(화소)에 의하여 수광되어, 전기 신호로 변환된다. 여기서, 렌즈(313a, 313b)의 광축 간의 거리를 기선 길이로 칭하며, D로 하고, 렌즈와 피사체 간의 거리를 A로 하고, 렌즈의 초점 거리를 f로 한다. 여기서, A >> f 이면, 식 (1)이 성립한다.
A = Df / Δ (1)
기선 길이(D) 및 렌즈의 초점 거리(f)는 기지이므로, 시차(Δ)가 검출되면, 피사체까지의 거리(A)가 산출될 수 있다. 2개의 화상의 시차(Δ)로부터 거리(A)를 산출하는 방식을 삼각 측량(triangulation)이라고 한다. 시야 전체에 걸쳐 렌즈 해상도가 높은 중심부에 라인 센서 각각을 배치한다. 따라서, 시야의 중심부에 초점이 맞춰진다.
[본 실시예의 거리 측정 유닛에 의하여 수행되는 거리 측정 및 측광]
본 실시예의 거리 측정 유닛(5)은 2차원 센서를 포함하고, 상기 원리를 2차원적으로 실행한다. 도 9는 촬상 센서(15) 상에 배치된 2차원의 영역 구성을 도시하는 도면이다. 이 각 영역에 대하여, 제1 거리 측정 센서(CCD 201-1)에 의한 검출 결과 및 제2 거리 측정 센서(CCD 201-2)에 의한 검출 결과 간의 차를 결정하여 구한다. 예컨대, 도 9에 도시된 제1 거리 측정 센서(CCD 201-1)의 영역 "A1"과, 제2 거리 측정 센서(CCD 201-2)의, 영역 "A1"에 대응하는 영역 "A2" 간의 변위에 대응하는 화소수는, 도 10에 도시된 바와 같이, 수평 방향으로 매번 수 화소로 영역을 시프트시키면서 결정되어, 화소수가 가장 작은 위치를 구하고, 그 영역의 시차를 결정한다. 그 시차(Δ)를 사용하여 상기 식(1)으로부터 거리(A)를 구한다. 일부 경우에서, 하늘과 같은, 시차를 구할 수 없는 피사체의 경우, 거리가 결정되지 않을 수 있다. 이러한 경우, 거리 측정이 수행될 수 없기 때문에, 거리(A)는 영으로 설정되는 것으로 한다.
한편, 본 실시예의 거리 측정 유닛(5)은, 노광량을 변경시킬 수 있기 때문에, 측광 기능을 갖는다. 본 실시예에서, 촬상 센서의 촬상 영역을 다분할함으로써 시야 전체를 복수 영역으로 분할하여, 각 영역의 밝기를 측정한다. 도 11은 거리 측정 유닛(5)의 촬상 센서인 CCD(201-1) 및 CCD(201-2) 중 어느 하나에서 분할된 영역을 도시한다. 예컨대, CCD(201-2)로부터의 화상 신호는 F/E-IC(203)을 통해 CCD 신호 처리 블록(204-1)으로 전달된다. SDRAM(205)에 기억된 YUV 화상 데이터로부터인, 분할 영역의 Y 값(휘도)을 부가하여, 타켓 화소수로 곱셈함으로써, 각 영역의 평가치를 구한다. 그 평가치로부터 얻어지는 분할 영역의 휘도 분포에 기초하여 적정 노광이 산출되어, 피사체의 밝기를 검출한다. 피사체의 검출된 휘도가 적정 노광량에 관하여 밝거나 어두운 경우, 프로세서(104)는 메카니컬 셔터 유닛(7-4)을 제어하고, 전자 셔터의 설정을 변경시켜, 노광량을 변경한다.
[종래의 디지털 스틸 카메라의 동작 개요]
다음에, 상기한 바와 같이 구성된 디지털 스틸 카메라의 동작을 설명하기 전에, 종래의 디지털 스틸 카메라의 동작 개요를 설명한다.
도 1에 도시된 모드 다이얼(SW2)을 기록 모드에 설정하는 것으로, 디지털 스틸 카메라가 기록 모드로 기동한다. 모드 다이얼(SW2)이 설정되면, 도 4에 도시된 조작 키 유닛(SW1 내지 SW13)의 모드 다이얼(SW2)의 상태가 기록 모드로 들어간 것을 CPU가 검출하고, 모터 드라이버(7-5)를 제어하여, 렌즈 배럴 유닛(7)을 촬영 가능한 위치에 이동시킨다. 또한, CPU는, CCD(101), F/E-IC(102), LCD 모니터(10) 등의 각 부에 전원을 투입하여, 각 부의 동작을 시작시킨다. 각 부의 전원이 투입되면, 뷰파인더 모드의 동작이 시작된다.
뷰파인더 모드에서, 렌즈를 통해서 촬상 센서(CCD 101)에 입사한 광은, 전기 신호로 변환되어, 아날로그 RGB 신호로서 CDS 회로(102-1), AGC(102-2), A/D 변환기(102-3)에 보내여진다. A/D 변환기(102-3)에 의하여 디지털 신호로 변환된 각각의 신호는, CCD2 신호 처리 블록(104-2) 내의 YUV 변환기에 의하여 YUV 신호로 변환되어, 메모리 컨트롤러(도시하지 않음)에 의해서 SDRAM(103)에 기록된다. 이 YUV 신호는 메모리 컨트롤러에 의하여 판독되어, TV 신호 표시 블록(104-9)을 통해 TV나 LCD 모니터(10)에 보내지고, 그 위에 표시된다. 이 처리의 시퀀스는 30 fps(1/30초 간격)으로 행해진다. 따라서, 화상이 1/30초마다 갱신되는 뷰파인더 모드의 화상 표시가 행해진다.
[본 실시예에 따른 디지털 스틸 카메라의 동작]
이하, 본 실시예에 따른 디지털 스틸 카메라의 동작을 설명한다. 본 실시예에 있어서 특징적인 고속 연속 촬영 처리에 관해서, 제1 실시예 및 제2 실시예를 들어 설명한다.
(제1 실시예)
우선, 본 실시예에 따른 디지털 스틸 카메라에 의하여 수행되는 고속 연속 촬영 처리의 제1 실시예를 설명한다. 도 12는 제1 실시예의 뷰파인더 모드로부터 고속 연속 촬영까지의 처리 플로우를 도시하는 플로우 차트이다. 이하에서는, 이 플로우에 참조하여 설명한다.
디지털 스틸 카메라는 전원 ON 직후, 뷰파인더 모드로 된다. 이 뷰파인더 모드에서, 우선, 거리 측정 유닛(5)을 사용한 거리 측정 처리를 행한다(S12-1). 거리 측정 처리는 도 15 및 도 16의 플로우 차트를 참조하여 설명한다.
우선, 거리 측정 유닛(5) 내의 ROM(206)에 기억된 제어 프로그램(거리 측정 처리 유닛)에 따라서, CPU 블록(204-2)은 측광 처리를 한다(S15-1). 측광 처리(S15-1)는 도 16의 플로우 차트에 도시된다.
우선, 노광에 의하여 획득된 후, CCD 신호 처리 블록(204-1)에서 YUV 변환된 화상 신호에 기초하여, 상술한 바와 같이 자동 노출을 위한 평가치를 연산한다(S16-1).
다음에, 그 평가치로부터 피사체의 Y치(휘도)의 분포를 획득하여, 적정 노광을 달성하기 위한 노광량(셔터 스피드)을 설정한다(S16-2).
마지막으로, 이와 같이 설정된 노광량은 거리 측정 센서의 TG(202-4)와 TG(203-4)에 인가된다(S16-3). 또, 이 측광 결과는 바람직하게는 SDRAM(205)에 기억되어, 디지털 스틸 카메라가 촬영에 들어간 경우에, 거리 측정 유닛(5)으로부터 외부 I/F 블록(204-4)을 통해 이 측광 결과가 송신될 수 있다. 이것에 의하여, 거리 측정 유닛(5) 외의 디지털 스틸 카메라 내에서의 각 부가 측광을 수행하는 필요성을 생략할 수 있기 때문에, 처리 시간을 단축시킨다.
도 15에 되돌아 가면, 상술된 측광 설정에서 설정된 노광 설정에 기초하여, 제1 및 제2 거리 측정 센서가 노광을 수행하여 화상 신호를 획득하고, 그 화상 신호에 기초하여 거리 측정 처리(S15-2)를 행한다. 거리 측정 처리(S15-2)는 도 17의 플로우 차트에 도시된다.
도 17에서, 우선 프로세서 제어는, 2개의 거리 측정 센서, 즉 제1 및 제2 거리 측정 센서에 노광 타이밍을 제공하기 위하여 VD 신호를 대기한다(S17-1).
다음에, 노광과 CCD 신호 처리 블록(204-1)에서 행한 YUV 변환에 의하여 얻은 화상 신호에 기초하여, 도 9에 도시된 바와 같은 영역에 거리 측정에 대한 연산이 행해진다(S17-2). 본 실시예에서, 49개(= 7 x 7) 영역을 촬상 영역에 걸쳐 균등하게 배치한다. 이 영역수에 관해서, 극소의 피사체에 대한 거리 측정을 위한 연산 결과는, 영역수를 더 큰 값으로 설정함으로써 출력될 수 있다.
다음에, 거리 측정 연산의 결과에 기초하여, 거리 분포 생성 처리를 한다(S17-3). 예컨대, 도 18a에 도시된 장면은, 도 18b에 도시된 바와 같이, 49개의 영역으로 분할되고, 도 18c에 도시된 거리 분포가 작성된다. 도 18c의 각 수치는 1/거리(1/미터)이다. 이상과 같이 하여, 거리 측정을 행한다.
도 12로 되돌아가, 터치 패널에 터치 조작이 되어 있는지의 여부를 검출한다. 터치 패널에 수행될 수 있는 터치 조작은, 도 20a 내지 도 20c에 도시된 바와 같이, "탭(tap)" 조작, "프레스 앤드 홀드(press-and-hold) 조작, 및 "드래그(drag)" 조작의 3종류의 조작을 포함한다. 제1 실시예에서, "터치"는 (c) 드래그 조작의 개시를 의미하고, "터치 조작이 되어 있는지의 여부를 검출"은 드래그 조작이 개시한 것을 의미한다. 또한, "디태치(detached)"는, 사용자가 드래그 조작을 완료하고, 손가락을 터치 패널로부터 분리할 때 검출된다.
터치 조작이 검출된 경우(S12-2에서 YES), 궤적 기억 처리(S12-3)에서 터치점의 좌표를 SDRAM(103)에 기억한다. 사용자가 터치 패널 상을 드래그하면, 터치 패널 상의 터치점의 좌표가 변한다. 그 좌표를 기록함으로써, 사용자의 드래그 조작에 의하여 생성된 궤적이 기억될 수 있다.
기억된 좌표에 기초하여 LCD 모니터(10)에 드래그 조작에 의하여 생성된 궤적을 표시시킨다(S12-4). 도 18d는 궤적이 LCD에 표시될 때의 상태의 예를 도시한다.
디태치 조작이 검출되지 않는 동안(S12-5에서 NO), 궤적 기억 처리(S12-3) 및 궤적 표시 처리(S12-4)를 반복한다.
디태치 조작이 검출되면(S12-5에서 YES), 드래그 조작에 의하여 생성된 궤적으로부터, 거리 측정 영역과 중복되는 영역을 선택하는 영역 선택 처리가 실행된다(S12-6)(이하, 거리 측정 유닛으로부터 출력된 거리 측정의 결과로부터 연산된 영역을 "거리 측정 영역"이라 칭함). 영역 선택 처리는 도 13의 플로우 차트에 도시되어 있다.
우선, 드래그 조작에 의하여 생성된 궤적과 중복되는 거리 측정 영역이 추출된다(S13-1). 예컨대, 도 18f는, 도 18e에 도시된 거리 측정 영역과 중복되는 영역을 추출하여, 복수의 영역이 선택된 상태를 도시한다.
다음에, 각 거리 측정 영역에서, 카메라로부터 유사한 거리에 있는 피사체는 동일한 피사체로서 결정되고, 영역에 영역 합성 처리(S13-2)를 행한다. 이 처리는, 거리 측정 유닛(5)으로부터 출력된 거리 분포에 기초하여 1/거리에서 서로 유사한 값을 갖는 거리 측정 영역을 추출하는 단계와, 추출된 영역을 단일 영역으로 합성하는 단계를 포함한다. 도 18g는 이와 같이 합성된 영역의 예를 도시한다. 보다 구체적으로는, 이 장면으로부터, 본 실시예에 따른 디지털 스틸 카메라는, 도 18g에 도시된 5개의 영역 A 내지 E와, 그 영역에 관한 거리 측정의 결과를 획득한다. 합성된 영역에 관한 거리 측정의 결과의 평균을 취하여 얻은 평균값이, 합성된 영역의 거리 측정 연산의 결과로서 SDRAM(103)에 기억된다.
마지막으로, 각 합성된 영역이 인 포커스 위치가 결정되는 포커스 영역으로서, 예컨대 프레임으로 표시되도록, 도 18g에 도시된 바와 같이 거리 측정 영역이 표시된다(S13-3). 이상까지가 영역 선택 처리를 설명하였다.
도 12에 되돌아가, 영역 선택 처리에서 설정된 복수 영역의 거리 측정의 결과를 이용하여, 거리 리스트를 작성한다(S12-7). 예컨대, 도 18에 도시된 장면으로부터 5개의 영역을 추출한다. 따라서, 5개의 영역의 거리 데이터를 추출한다. 도 18h는 1/거리로 표시된 5개의 영역의 거리 리스트를 도시한다.
거리 리스트가 작성된 경우(S12-8에서 YES), 그 거리 리스트에 기초하여 고속 연속 촬영을 하는 연속 촬영 처리가 시작된다(S12-9). 이 고속 연속 촬영 처리는, LCD 모니터(10)에 표시된 촬상 화면 상에 표시된 포커스 영역의 프레임 중 어느 하나가 터치 패널을 통해 탭 또는 터치되면 개시될 수도 있고, 미리 결정된 스위치 조작에 응답하여 개시될 수도 있다.
본 실시예에서, 거리 리스트의 거리 데이터를, 각 포커스 렌즈(7-2a)의 인 포커스 위치로 변환시키고, 그 위치에 포커스 렌즈를 이동시키고 나서 촬영하는 것을 포함하는 순차 동작이 각 거리에 관해서 행해진다. 이 방식으로 동작을 행함으로써, 사용자가 원하는 거리에 관해서만, 힐 클라이밍 AF 동작을 하지 않고서, 보다 고속인 고속 연속 촬영을 하는 것이 가능해져, 촬영에 수반되는 처리 시간을 삭감시키는 것이 가능해진다. 노광에 관해서는, 사전에 뷰파인더 모드 시에, 거리 측정 유닛(5) 이외의 각 부에 의하여 디지털 스틸 카메라 내에서 측광한 결과를 이용하여 촬영할 수 있고, 또는 거리 측정 유닛(5)에 의하여 얻은 측광 결과를 이용하여 촬영할 수 있다. 그러나, 고속 처리에 보다 적합한 2차원 촬상 센서를 이용하는 거리 측정 유닛(5)에 의하여 얻은 측광 결과를 이용하는 것이 촬영에 수반되는 처리를 빠르게 한다. 또한, 거리 측정 유닛(5)으로부터 획득된 측광 결과를 이용함으로써, 좋은 촬영 기회를 놓치지 않는다고 하는 효과를 갖는다.
또한, 특정의 거리 측정 영역의 인 포커스 위치에서만 고속 연속 촬영을 한다. 따라서, 사용자에게 있어서 불필요한 화상이 배제되어, 연속 촬영시 사진 매수를 최적화할 수 있게 한다.
디지털 스틸 카메라에 의해서 행할 수 있는 고속 연속 촬영 처리의 제1 실시예를 상기에 설명했다.
(제2 실시예)
디지털 스틸 카메라에 의하여 행할 수 있는 고속 연속 촬영 처리의 제2 실시예를 이하에 설명한다. 제2 실시예의 뷰파인더 모드로부터 고속 연속 촬영까지의 기본적인 처리 플로우는, 도 12의 플로우 차트를 참조하여 제1 실시예에 설명된 것과 실질적으로 동일하다. 거리 측정 유닛(5)을 사용한 거리 측정 처리는 또한, 도 15, 도 16, 도 17을 참조하여 제1 실시예에 설명된 것과 실질적으로 동일하다. 이하에서는, 뷰파인더 모드로부터 고속 연속 촬영까지의 기본적인 처리 플로우 외에, 제2 실시예에 특징적인 처리에 관해서 설명한다.
우선, 디지털 스틸 카메라로의 전원이 온되면, 디지털 스틸 카메라는 뷰파인더 모드이도록 설정된다. 뷰파인더 모드시, 거리 측정 유닛(5)을 사용한 거리 측정 처리가 먼저 수행된다(S12-1). 이 거리 측정 처리는, 제1 실시예에 있어서, 도 15, 도 16, 도 17을 참조하여 설명된 바와 실질적으로 동일하여, 중복 설명은 생략한다. 이 거리 측정 처리에서, 예컨대 도 19a의 장면은 도 19b에 도시된 49개 영역으로 분할되고, 도 19c에 도시된 거리 분포가 작성된다. 이 거리 분포에서의 수치 각각은 1/거리(1/미터)로 표시하고 있다.
계속해서, 터치 패널이 터치 조작되어 있는지의 여부를 검출한다. 또한, 제2 실시예에서, "터치"는, 상술된 바와 같이, 드래그 조작을 의미하고, "터치 조작되어 있는지의 여부를 검출"은, 상술된 바와 같이 드래그 조작이 개시한 것을 의미한다. 또한, "디태치"는, 그 역의 동작으로, 사용자가 드래그 조작을 종료하여 사용자가 손가락을 터치 패널로부터 분리할 때 검출된다.
터치 조작이 검출된 경우(S12-2에서 YES), 궤적 기억 처리(S12-3)에서 터치된 점의 좌표를 SDRAM(103)에 기억한다(S12-3). 터치된 점이 터치 패널 상을 드래그하면, 터치된 점의 좌표가 변한다. 그 좌표를 기록함으로써, 사용자의 드래그 조작에 의한 궤적을 기억할 수 있다.
SDRAM(103)에 기억된 좌표에 기초하여 LCD 모니터(10)에 드래그 조작의 궤적을 표시시킨다(S12-4). 도 19d는 그 궤적을 LCD 상에 표시시켰을 때의 상태의 예를 도시한다. 디태치 조작을 검출하지 않는 동안(S12-5에서 NO), 궤적 기억 처리(S12-3)와 궤적 표시 처리(S12-4)를 반복한다.
디태치 조작이 검출되면(S12-5에서 YES), 드래그 조작의 궤적으로부터, 거리 측정 영역과 중복되는 영역을 선택하는 영역 선택 처리를 행한다(S12-6).
영역 선택 처리를 도 14의 플로우 차트를 참조하여 설명한다.
우선, 드래그된 궤적 상에 얼굴 영역이 있는지의 여부를 검출한다(S14-1). 얼굴 영역의 검출을 위한 다양한 방법이 디지털 스틸 카메라의 기술 분야에서 이미 알려져 있다. 제2 실시예에서, 방법들 중 하나가 사용된다. 이하에, 얼굴 영역의 종래의 검출 방법의 예를 설명한다.
(1) 컬러 화상을 모자이크 영상화하여, 피부색 영역을 사용하여 얼굴 영역을 추출하는 방법. 이 방법의 예는, 텔레비젼 학회(Institute of Television Engineers)지 Vol.49, No.6, pp.787-797(1995)의 "Proposal of the Modified HSV Colour System Suitable for Human Face Extraction"에 설명되어 있다.
(2) 모발, 눈, 입 등 정면 인물 얼굴의 부분의 기하학적 형상 특징을 이용하여 정면 인물의 얼굴 영역을 추출하는 방법. 이 방법의 예는, 전자 정보 통신 학회(Institute of Electronics, Information and Communication Engineers)지 Vol.74-D-Ⅱ, No.11, pp.1625-1627(1991)의 "Extraction of Face Regions from Monochromatic Photographs"에 설명되어 있다.
(3) 복수의 프레임에 걸쳐 인물의 미묘한 이동에 의하여 발생하는 인물상의 윤곽 에지를 이용하여 동작 화상으로부터 정면 인물상을 추출하는 방법. 이 방법의 예는, 화상 연구실(Image Laboratory) 1991-11(1991)의 "Face Area Detection for Mobile TV and its Effect"에 설명되어 있다.
얼굴 영역의 검출을 위한 상술된 바와 같은 방법 중 어느 한 방법을 이용하여, 뷰파인더 모드시의 디지털 스틸 카메라의 화상 데이터에 얼굴 검출을 한다. 얼굴 영역이 검출된 경우(S14-2에서 YES), 얼굴 영역을 선택한다. 얼굴 영역과 중복되는 거리 측정 영역을, 거리 측정 유닛(5)으로부터 출력되는 거리 분포와 비교하여, 추출한다(S14-3).
도 19e는 얼굴 영역이 검출되었을 때의 상태를 도시한다. 도 19e에 도시된 예에서, 4개의 열굴이 검출된다. 얼굴 영역(A 내지 D) 각각에 대하여, 얼굴 영역에 가까운 거리 측정 영역의 평균치를 산출한다. 그 평균값을 거리 측정 연산의 결과로서 SDRAM(103)에 기억한다.
얼굴 영역이 검출되지 않은 경우(S14-2에서 NO), 제1 실시예에서와 같이, 드래그된 궤적과 중복되는 거리 측정 영역을 추출한다(S14-5). 거리 측정 영역과 중복하는 영역을 추출하고, 각 거리 측정 영역에서, 카메라로부터 유사한 거리에 있는 피사체는 동일한 피사체로서 결정되고, 이로써 영역 합성 처리(S14-6)를 영역에 대하여 행한다. 이 처리는, 거리 측정 유닛(5)으로부터 출력된 거리 분포에 기초하여 1/거리에서 서로 유사한 거리 측정 영역을 추출하여, 그 추출된 영역을 하나의 영역으로 합성하는 것을 포함한다. 각 영역의 거리 측정의 결과를 사용하여, 합성하는 영역의 거리 분포의 값의 평균을 취한다. 다음, 평균값을 거리 측정 연산의 결과로서 SDRAM(103)에 기억한다.
마지막으로, 검출된 영역(또는 합성된 영역)을, 인 포커스 위치가 결정되는 포커스 영역으로서, 예컨대, 프레임으로 각 영역이 표시되는 방식으로, 도 19e에 도시된 바와 같이 표시한다(S14-4). 이상까지가 영역 선택 처리이다.
도 12에 되돌아가, 영역 선택 처리에서, 설정된 복수 영역의 거리 측정의 결과를 이용하여, 거리 리스트를 작성한다(S12-7). 도 19a에 도시된 장면으로부터 얼굴 영역(A 내지 D)(도 19f)을 추출하기 때문에, 4개 영역의 거리 데이터를 추출한다. 도 19g는 4개 영역의 거리 리스트를 도시한다.
거리 리스트가 작성되면(S12-8에서 YES), 거리 리스트에 기초하여 고속 연속 촬영을 하는 연속 촬영 처리가 시작된다(S12-9). 고속 연속 촬영 처리는, LCD 모니터(10)에 표시된 촬상 화면 상에 표시된 포커스 영역의 프레임 중 어느 하나가 터치 패널을 통해 탭 또는 터치되면, 개시될 수도 있고, 또는 미리 결정된 스위치 조작에 응답하여 개시될 수도 있다.
제2 실시예에서도, 제1 실시예에서와 같이, 거리 리스트의 거리 데이터를 각 포커스 렌즈(7-2a)의 인 포커스 위치로 변환하여, 그 위치로 포커스 렌즈를 이동하고 나서 촬영하는 것을 포함하는 순차 동작을 각 거리에 관해서 행한다. 이 방식으로 동작함으로써, 사용자가 소망으로 하는 거리만에 대하여, 힐 클라이밍 AF 동작을 하지 않고서, 보다 고속인 고속 연속 촬영을 하는 것이 가능해져, 고속 연속 촬영에 수반되는 처리 시간을 삭감시키는 것이 가능해진다. 제2 실시예에서 특히 얼굴 영역을 검출하고 있지만, 얼굴 우선 모드를 갖는 실제 디지털 스틸 카메라를 제공하여, 얼굴 영역을 결정하는 모드와 얼굴 모드 이외의 다른 피사체를 결정하는 모드 간에 전환할 수 있도록 하는 것이 더욱 바람직하다. 노광에 관해서, 사전에 뷰파인더 모드시에, 거리 측정 유닛(5) 이외의 디지털 스틸 카메라 내에 제공된 각 부에 의한 측광의 결과를 이용하여 촬영할 수 있고, 또는 거리 측정 유닛(5)에 의한 측광의 결과를 이용하여 촬영할 수 있다. 그러나, 고속 처리에 보다 적합한 2차원 촬상 센서를 이용하여 거리 측정 유닛(5)에 의한 측광 결과를 이용하는 것이 촬영에 수반하는 처리를 빠르게 한다. 또한, 거리 측정 유닛(5)으로부터의 측광 결과를 이용함으로써, 좋은 촬영 기회를 놓치지 않는다고 하는 효과를 나타낸다.
또한, 특정한 거리 측정 영역의 인 포커스 위치에서만 고속 연속 촬영을 한다. 따라서, 사용자에게 불필요한 화상이 배제되어, 연속 촬영시 사진 매수를 최적화할 수 있다.
본 실시예에 따른 디지털 스틸 카메라에 의하여 행할 수 있는 고속 연속 촬영 처리의 제2 실시예를 설명했다.
완전하고 명백한 개시를 위하여 본 발명이 특정 실시예에 관하여 설명되었지만, 첨부된 청구항은 여기에 제한되고자 함이 아니며, 여기에 나타낸 기본 교시 내에 있으며, 당업자가 행할 수도 있는 모든 변형 및 대안적 구성을 구현하는 것으로서 이해되어야 한다.

Claims (7)

  1. 촬상 장치로서,
    렌즈를 통해 피사체 화상을 촬상하여, 피사체 화상을 전기 신호로 변환하는 촬상 유닛;
    상기 촬상 유닛으로부터의 전기 신호에 기초하여 화상을 표시하는 화상 표시 유닛;
    상기 화상 표시 유닛의 표시면에 제공되고, 상기 화상 표시 유닛에 표시된 화상 상의 복수의 위치의 지정을 접수하는 지정 접수 유닛;
    복수의 2차원 촬상 센서를 이용하여 피사체까지의 거리를 거리 측정하는 거리 측정 유닛;
    상기 지정 접수 유닛을 통해 지정된 복수의 위치를 포함하는 영역에 관해서, 상기 거리 측정 유닛으로부터 출력된 거리 측정 결과로부터 획득된 거리 측정 영역을 설정하는 영역 설정 유닛;
    상기 영역 설정 유닛에 의하여 설정된 거리 측정 영역의 거리에 기초하여 복수의 인 포커스(in-focus) 위치를 결정하는 위치 결정 유닛; 및
    상기 위치 결정 유닛에 의하여 결정된 상기 복수의 인 포커스 위치에서 촬영을 행하는 연속 촬영 유닛
    을 포함하는 촬상 장치.
  2. 제 1 항에 있어서, 피사체의 얼굴 영역을 검출하는 얼굴 영역 검출 유닛을 더 포함하고,
    상기 영역 설정 유닛은, 상기 얼굴 영역 검출 유닛이 얼굴 영역을 검출했을 때, 검출된 얼굴 영역과 중복되는 영역을 거리 측정 영역으로서 설정하는 것인 촬상 장치.
  3. 제 1 항에 있어서, 상기 지정 접수 유닛은, 상기 지정 접수 유닛 상에서 행해진 터치 앤드 드래그(touch-and-drag) 조작에 의해 지정된 복수의 위치의 지정을 한번에 접수하는 것인 촬상 장치.
  4. 제 3 항에 있어서, 상기 터치 앤드 드래그 조작에 의해 지정된 복수의 위치가 상기 지정 접수 유닛에 의하여 접수될 때, 상기 복수의 위치는, 먼저 제1 위치를 결정하는 터치 조작을 수행하고, 그 후, 드래그 조작에 의해 생성된 궤적에 상기 제1 위치를 제외한 복수의 위치가 포함되도록 복수의 위치를 결정하는 드래그 조작을 수행하고, 마지막으로 최종 위치를 결정하는 디태치(detach) 조작을 수행함으로써 결정되는 것인 촬상 장치.
  5. 제 1 항에 있어서, 사용자로부터 상기 지정 접수 유닛을 통해 한번에 지정된 복수의 위치를 포함하는 범위 내에 인 포커스 위치가 결정되는 포커스 영역을 나타내는 프레임이, 상기 화상 표시 유닛에 표시된 화상 상에 표시되는 것인 촬상 장치.
  6. 제 1 항에 있어서, 상기 지정 접수 유닛은 터치 패널을 포함하는 것인 촬상 장치.
  7. 렌즈를 통해 피사체 화상을 촬상하여, 피사체 화상을 전기 신호로 변환하는 촬상 유닛;
    상기 촬상 유닛으로부터의 전기 신호에 기초하여 화상을 표시하는 화상 표시 유닛;
    상기 화상 표시 유닛의 표시면에 제공되고, 상기 화상 표시 유닛에 표시된 화상 상의 복수의 위치의 지정을 접수하는 지정 접수 유닛; 및
    복수의 2차원 촬상 센서를 이용하여 피사체까지의 거리를 거리 측정하는 거리 측정 유닛
    을 포함하는 촬상 장치에서 촬상을 위한 촬상 방법으로서,
    촬상 장치를 제어하는 제어 유닛이,
    영역 설정 유닛으로서, 상기 지정 접수 유닛을 통해 지정된 복수의 위치를 포함하는 영역에 관해서, 상기 거리 측정 유닛으로부터 출력된 거리 측정 결과로부터 획득된 거리 측정 영역을 설정하는 단계;
    위치 결정 유닛으로서, 상기 영역 설정 유닛에 의하여 설정된 거리 측정 영역의 거리에 기초하여 복수의 인 포커스 위치를 결정하는 단계; 및
    연속 촬영 유닛으로서, 상기 위치 결정 유닛에 의해 결정된 복수의 인 포커스 위치에서 촬영을 행하는 단계
    를 수행하게 하는 단계를 포함하는 촬상 방법.
KR1020137018048A 2011-01-13 2012-01-10 촬상 장치 및 촬상 방법 KR101501395B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011004858A JP5834410B2 (ja) 2011-01-13 2011-01-13 撮像装置および撮像方法
JPJP-P-2011-004858 2011-01-13
PCT/JP2012/050657 WO2012096395A1 (en) 2011-01-13 2012-01-10 Image capturing device and image capturing method

Publications (2)

Publication Number Publication Date
KR20130113495A true KR20130113495A (ko) 2013-10-15
KR101501395B1 KR101501395B1 (ko) 2015-03-10

Family

ID=46507280

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137018048A KR101501395B1 (ko) 2011-01-13 2012-01-10 촬상 장치 및 촬상 방법

Country Status (6)

Country Link
US (1) US9106837B2 (ko)
EP (1) EP2663889B1 (ko)
JP (1) JP5834410B2 (ko)
KR (1) KR101501395B1 (ko)
CN (1) CN103299227B (ko)
WO (1) WO2012096395A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180000446U (ko) 2016-08-05 2018-02-14 (주)엠큐어 피부시술용 니들모듈

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5857610B2 (ja) 2011-10-13 2016-02-10 株式会社リコー 撮像装置および撮像方法
KR101838033B1 (ko) * 2011-11-25 2018-03-15 삼성전자 주식회사 사용자 디바이스의 영상 촬영 방법 및 장치
JP6257199B2 (ja) * 2013-07-22 2018-01-10 キヤノン株式会社 光学機器、その制御方法、および制御プログラム
JP6212717B2 (ja) * 2014-03-26 2017-10-18 パナソニックIpマネジメント株式会社 撮像装置
US9609200B2 (en) * 2014-09-24 2017-03-28 Panavision International, L.P. Distance measurement device for motion picture camera focus applications
US9704250B1 (en) 2014-10-30 2017-07-11 Amazon Technologies, Inc. Image optimization techniques using depth planes
JP6478654B2 (ja) 2015-01-23 2019-03-06 キヤノン株式会社 撮像装置及びその制御方法
US9648236B2 (en) * 2015-02-19 2017-05-09 Blackberry Limited Device with a front facing camera having discrete focus positions
US9800773B2 (en) * 2015-06-25 2017-10-24 Motorola Mobility Llc Digital camera apparatus with dynamically customized focus reticle and automatic focus reticle positioning
TWI706181B (zh) 2015-09-11 2020-10-01 新加坡商海特根微光學公司 具有自動對焦控制的成像裝置
CN108377342B (zh) * 2018-05-22 2021-04-20 Oppo广东移动通信有限公司 双摄像头拍照方法、装置、存储介质及终端
JP2020036091A (ja) * 2018-08-27 2020-03-05 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP2020118728A (ja) * 2019-01-18 2020-08-06 オリンパス株式会社 焦点調節装置および焦点調節方法
JP6768997B1 (ja) * 2019-04-23 2020-10-14 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、移動体、制御方法、及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04158322A (ja) 1990-10-23 1992-06-01 Ricoh Co Ltd 自動焦点調整装置
JPH1125263A (ja) * 1997-07-08 1999-01-29 Canon Inc 対象物特徴点検出装置、焦点調節装置、露出制御装置及びカメラ
JPH11136568A (ja) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
JP2001159730A (ja) * 1999-12-02 2001-06-12 Ricoh Co Ltd 電子カメラ
JP2004117490A (ja) * 2002-09-24 2004-04-15 Fuji Photo Optical Co Ltd オートフォーカスシステム
US8289399B2 (en) 2004-08-09 2012-10-16 Hewlett-Packard Development Company, L.P. System and method for image capture device
JP2006138966A (ja) * 2004-11-11 2006-06-01 Nikon Corp 自動焦点カメラ
US20080136958A1 (en) * 2006-12-11 2008-06-12 Pentax Corporation Camera having a focus adjusting system and a face recognition function
US7813633B2 (en) 2007-07-31 2010-10-12 Ricoh Company, Ltd. Imaging device and imaging method
JP4530067B2 (ja) 2008-03-27 2010-08-25 ソニー株式会社 撮像装置、撮像方法及びプログラム
JP5169563B2 (ja) * 2008-07-15 2013-03-27 株式会社ニコン 焦点検出装置、カメラ
JP2010085699A (ja) * 2008-09-30 2010-04-15 Fujinon Corp オートフォーカスシステム
JP5205232B2 (ja) 2008-11-28 2013-06-05 三星電子株式会社 撮像装置および撮像方法
JP5849389B2 (ja) 2010-11-04 2016-01-27 株式会社リコー 撮像装置および撮像方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180000446U (ko) 2016-08-05 2018-02-14 (주)엠큐어 피부시술용 니들모듈

Also Published As

Publication number Publication date
CN103299227B (zh) 2016-08-10
KR101501395B1 (ko) 2015-03-10
WO2012096395A1 (en) 2012-07-19
JP5834410B2 (ja) 2015-12-24
US20130278809A1 (en) 2013-10-24
EP2663889B1 (en) 2017-08-02
EP2663889A1 (en) 2013-11-20
EP2663889A4 (en) 2014-01-22
CN103299227A (zh) 2013-09-11
JP2012145813A (ja) 2012-08-02
US9106837B2 (en) 2015-08-11

Similar Documents

Publication Publication Date Title
KR101501395B1 (ko) 촬상 장치 및 촬상 방법
KR101503333B1 (ko) 촬상장치 및 그 제어 방법
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
US8395694B2 (en) Apparatus and method for blurring image background in digital image processing device
US20120105590A1 (en) Electronic equipment
JP5736796B2 (ja) 電子カメラ、プログラム及び記録媒体
US8854532B2 (en) Imaging apparatus, imaging method, and program
KR20100039430A (ko) 화상 처리기, 화상 처리 방법, 디지털 카메라 및 촬영 장치
JP2014123070A (ja) 撮像装置及びその制御方法
KR20130069039A (ko) 디스플레이 장치, 방법, 및 컴퓨터 판독 가능 저장 매체
JP4780205B2 (ja) 撮像装置、画角調節方法、及び、プログラム
US8648960B2 (en) Digital photographing apparatus and control method thereof
JP2013008004A (ja) 撮像装置
US8223255B2 (en) Imaging apparatus, auto-focusing method and recording medium
JP2011223294A (ja) 撮像装置
JP2007214845A (ja) 電子カメラ、多数ポイント同時合焦枠表示方法、及びプログラム
JP6833801B2 (ja) 撮像装置、撮像方法、プログラムおよび記録媒体
JP5870533B2 (ja) 撮像装置および撮像方法
JP2011066827A (ja) 画像処理装置、画像処理方法及びプログラム
JP6590894B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2016142924A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2014116789A (ja) 撮影装置、その制御方法及びプログラム
JP5915720B2 (ja) 撮像装置
JP6590899B2 (ja) 撮像装置、撮像方法およびプログラム
JP2015118274A (ja) 撮像装置、その制御方法及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180223

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200220

Year of fee payment: 6