KR20140101816A - 촬상 장치 및 그 촬상 방법, 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된 기억 매체 - Google Patents

촬상 장치 및 그 촬상 방법, 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된 기억 매체 Download PDF

Info

Publication number
KR20140101816A
KR20140101816A KR1020147017340A KR20147017340A KR20140101816A KR 20140101816 A KR20140101816 A KR 20140101816A KR 1020147017340 A KR1020147017340 A KR 1020147017340A KR 20147017340 A KR20147017340 A KR 20147017340A KR 20140101816 A KR20140101816 A KR 20140101816A
Authority
KR
South Korea
Prior art keywords
touch panel
focus
frame
section
display
Prior art date
Application number
KR1020147017340A
Other languages
English (en)
Other versions
KR101585488B1 (ko
Inventor
아키라 우가와
Original Assignee
올림푸스 이미징 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 올림푸스 이미징 가부시키가이샤 filed Critical 올림푸스 이미징 가부시키가이샤
Publication of KR20140101816A publication Critical patent/KR20140101816A/ko
Application granted granted Critical
Publication of KR101585488B1 publication Critical patent/KR101585488B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

본 발명의 과제는 모니터 상의 터치되는 부위에 대응하는 화상이 숨겨지지 않고 확인하면서 촬상을 행하는 것이다.
촬상 장치는, 표시부와, 터치 패널과, 프레임 표시 제어부와, 촬상 제어부를 포함한다. 상기 프레임 표시 제어부는, 상기 터치 패널에 대하여 조작 부위가 근접하려고 하면, 상기 표시부에 포커스용 프레임을 표시함과 함께, 상기 터치 패널에 근접하려고 하는 상기 조작 부위의 이동을 추종하여 상기 포커스용 프레임을 이동한다. 상기 촬상 제어부는, 촬영 지시를 받아서 상기 포커스용 프레임 내의 피사체에 대하여 포커스를 실행해서 촬상을 행한다.

Description

촬상 장치 및 그 촬상 방법, 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된 기억 매체 {IMAGING DEVICE AND IMAGING METHOD, AND STORAGE MEDIUM FOR STORING TRACKING PROGRAM PROCESSABLE BY COMPUTER}
본 발명은 촬상에 의해 취득한 화상을 표시하는 표시부에 터치 패널을 설치하고, 터치 패널 상에서의 유저의 손가락 등의 조작 부위가 접촉한 부분에 대응하는 화상을 예를 들어 확대 표시하는 촬상 장치에 관한 것이다.
이러한 촬상 장치로서는, 예를 들어 특허문헌 1에 개시되어 있는 기술이 있다. 이 기술은, 추종 대상으로 하는 특정한 피사체를, 용이한 조작에 의해 촬영 시에 선택 가능하게 한다. 이 기술에 의한 추종 대상으로 하는 피사체의 선택은, 모니터 상에 터치 패널을 설치하고, 이 터치 패널에 터치하면, 당해 터치된 부위에 대응하는 특정 부위를 표시 화상으로부터 추출하고, 이 특정 부위와 당해 특정 부위의 추출 후에 생성된 영상 신호에 의해 나타내는 화상을 비교하고, 특정 부위에 해당하는 화상 부분을 영상 신호로부터 검출함으로써 행해진다.
일본 특허 공개 제2006-101186호 공보
그러나 피사체의 선택은, 모니터 상에 설치된 터치 패널에 터치함으로써 행해진다. 이로 인해, 터치 동작 시에, 예를 들어 모니터 상의 터치되는 부위에 대응하는 표시 화상이 숨겨져 잘 보이지 않아, 볼 수 없는 경우가 있다.
본 발명의 목적은, 모니터 상의 터치되는 부위에 대응하는 화상이 숨겨지지 않고 확인하면서 촬상을 할 수 있는 촬상 장치 및 그 촬상 방법, 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된 기억 매체를 제공하는 데 있다.
본 발명의 촬상 장치는, 동화상 또는 정지 화상을 표시하는 표시부와, 상기 표시부에 설치된 터치 패널과, 상기 터치 패널에 대하여 조작 부위가 근접하려고 하면, 상기 표시부에 포커스용 프레임을 표시함과 함께, 상기 터치 패널에 근접하려고 하는 상기 조작 부위의 이동을 추종하여 상기 포커스용 프레임을 이동하는 프레임 표시 제어부와, 촬영 지시를 받아서 상기 포커스용 프레임 내의 상기 피사체에 대하여 포커스를 실행해서 촬상을 행하는 촬상 제어부를 구비한다.
본 발명의 촬상 장치의 촬상 방법은, 동화상 또는 정지 화상을 표시하는 표시부에 설치된 터치 패널에 대하여 조작 부위가 근접하려고 하는지를 검출하고, 상기 조작 부위가 상기 터치 패널에 대하여 근접하려고 하면, 상기 표시부에 포커스용 프레임을 표시함과 함께, 상기 터치 패널에 근접하려고 하는 상기 조작 부위의 이동을 추종하여 상기 포커스용 프레임을 이동하고, 촬영 지시를 받으면, 상기 포커스용 프레임 내의 상기 피사체에 대하여 포커스를 실행하고, 피사체에 대한 촬상을 행한다.
본 발명의 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된 기억 매체는, 동화상 또는 정지 화상을 표시하는 표시부에 설치된 터치 패널에 대하여 조작 부위가 근접하려고 하는 것을 검출시키는 검출 기능과, 상기 조작 부위가 상기 터치 패널에 대하여 근접하려고 하면, 상기 표시부에 포커스용 프레임을 표시함과 함께, 상기 터치 패널에 근접하려고 하는 상기 조작 부위의 이동을 추종하여 상기 포커스용 프레임을 이동시키는 추종 기능과, 촬영 지시를 받으면, 상기 포커스용 프레임 내의 상기 피사체에 대하여 포커스를 실행하고, 피사체에 대한 촬상을 행하게 하는 촬상 기능을 포함한다.
본 발명은 모니터 상의 터치되는 부위에 대응하는 화상이 숨겨지지 않고 확인하면서 촬상을 할 수 있는 촬상 장치 및 그 촬상 방법, 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된 기억 매체를 제공할 수 있다.
도 1은 본 발명에 관한 촬상 장치의 제1 실시 형태를 도시하는 구성도이다.
도 2는 상기 장치에 있어서의 터치 패널의 센서 패턴을 도시하는 모식도이다.
도 3은 상기 장치에 있어서의 터치 패널에 예를 들어 유저의 손가락을 가까이 가져갔을 때의 상태를 도시하는 도면이다.
도 4는 상기 장치에 있어서의 터치 패널과 유저의 손가락(F) 사이의 정전 용량 변화를 도시하는 도면이다.
도 5는 상기 장치에 있어서의 터치 패널에 대하여 유저의 손가락이 각도로 접촉하려고 하는 경우를 도시하는 도면이다.
도 6은 상기 장치에 있어서의 터치 패널에 대하여 유저의 손가락이 접촉하려고 할 때의 정전 용량값의 변화의 경과를 도시하는 도면이다.
도 7은 상기 장치에 있어서의 액정 디스플레이의 표시면에 표시되는 포커스용 프레임을 도시하는 도면이다.
도 8은 상기 장치에 있어서의 유저의 손가락의 이동을 추종하는 포커스용 프레임의 이동을 도시하는 도면이다.
도 9는 상기 장치에 있어서의 유저의 손가락이 이동하는 속도에 따른 포커스용 프레임의 사이즈를 축소·확대를 도시하는 도면이다.
도 10은 상기 장치에 의한 제1 촬상 동작에 있어서의 촬상 동작 흐름도이다.
도 11은 상기 장치에 의한 제1 촬상 동작에 있어서의 촬영 모드 흐름도이다.
도 12는 상기 장치에 의한 제1 촬상 동작에 있어서의 촬상 동작 타이밍도이다.
도 13은 상기 장치에 있어서의 터치 패널에 유저의 손가락이 접촉하려고 하는 상태의 표시 화상 및 유저의 손가락의 위치를 도시하는 도면이다.
도 14는 상기 장치에 있어서의 터치 패널에 대하여 유저의 손가락이 제1 근접 범위 내에 들어간 상태의 표시 화상 및 유저의 손가락의 위치를 도시하는 도면이다.
도 15는 상기 장치에 있어서의 터치 패널에 대하여 유저의 손가락이 제2 근접 범위 내에 들어간 상태의 표시 화상 및 유저의 손가락의 위치를 도시하는 도면이다.
도 16은 상기 장치에 있어서의 터치 패널에 대하여 유저의 손가락이 접촉한 상태의 표시 화상 및 유저의 손가락의 위치를 도시하는 도면이다.
도 17은 상기 장치에 의한 제2 촬상 동작에 있어서의 촬영 모드 흐름도이다.
도 18은 상기 장치에 의한 제2 촬상 동작에 있어서의 촬상 동작 타이밍도이다.
도 19는 상기 장치에 있어서의 유저의 손가락 이동 시의 포커스용 프레임의 추종을 설명하기 위한 도면이다.
도 20은 상기 장치에 있어서의 유저의 손가락이 일정 시간만큼 이동을 정지하고 있는 상태를 도시하는 도면이다.
도 21은 상기 장치에 있어서의 촬상 동작 중의 프레임 확대 축소 표시 흐름도이다.
도 22는 상기 장치에 의한 제3 촬상 동작에 있어서의 촬상 동작 타이밍도이다.
도 23은 상기 장치에 있어서의 포커스용 프레임의 사이즈를 변경할 때의 각 사이즈별 범위를 나타내는 모식도이다.
도 24는 상기 장치에 있어서의 터치 패널에 유저의 손가락이 경사지는 방향에서 접근해서 접촉하려고 하는 상태의 표시 화상 및 유저의 손가락의 위치를 도시하는 도면이다.
도 25는 상기 장치에 있어서의 터치 패널에 대하여 유저의 손가락이 경사지는 방향에서 접근해서 제1 근접 범위 내에 들어간 상태의 표시 화상 및 유저의 손가락의 위치를 도시하는 도면이다.
도 26은 상기 장치에 있어서의 터치 패널에 대하여 유저의 손가락이 경사지는 방향에서 접근해서 제2 근접 범위 내에 들어간 상태의 표시 화상 및 유저의 손가락의 위치를 도시하는 도면이다.
도 27은 상기 장치에 있어서의 터치 패널에 대하여 유저의 손가락이 접촉한 상태의 표시 화상 및 유저의 손가락의 위치를 도시하는 도면이다.
도 28은 상기 장치에 의한 제4 촬상 동작에 있어서의 촬상 동작 흐름도이다.
도 29는 상기 장치에 있어서의 액정 디스플레이의 표시 화면 상으로의 포커스용 프레임의 표시예를 도시하는 도면이다.
도 30은 상기 장치에 있어서의 포커스용 프레임의 이동 흐름도이다.
이하, 본 발명의 제1 실시 형태에 대해서 도면을 참조하여 설명한다.
도 1은 촬상 장치의 구성도를 나타낸다. 촬상부(100)는 피사체를 촬상하고, 그 촬상 신호를 출력한다. 촬상부(100)는 렌즈(11)와, 조리개(12)와, 오토 포커스(AF) 기구(13)와, 셔터(14)와, 촬상 센서(15)와, 촬상 회로(16)와, A/D 변환기(17)를 포함한다. 피사체로부터의 광속은, 렌즈(11)로부터 조리개(12), 셔터(14)를 통해서 촬상 센서(15)에 입사한다. 촬상 센서(15)는 입사한 광속을 전기 신호로 변환한다. 촬상 회로(16)는 촬상 센서(15)로부터의 전기 신호를 아날로그 촬상 신호로서 출력한다. A/D 변환기(17)는 촬상 회로(16)로부터의 아날로그 촬상 신호를 소정 형식의 디지털 촬상 신호로 변환해서 화상 처리 장치(18)와 파인더 화상 생성부(23)로 보낸다. AF 기구(13)는 렌즈(11)를 광축 방향으로 이동하고, 피사체에 대한 AF를 행한다.
화상 처리 장치(18)는 A/D 변환부(17)에 의해 변환된 디지털 촬상 신호에 대하여 소정의 화상 처리, 예를 들어 당해 화상 데이터에 의해 표현되어야 할 화상의 색조 보정, 계조 보정, γ(감마) 보정과 같은 조정 등을 행하고, 이들 조정 등을 행한 화상 신호를 버퍼 메모리(19)에 일시 기억한다.
압축 신장부(21)는 버퍼 메모리(19)에 일시 기억되는 화상 신호에 대하여 압축·신장을 행하고, 기록 매체(22)에 기록하기에 적합한 형식으로 성형해서 주 화상 데이터를 생성하고, 이 주 화상 데이터를 인터페이스(22a)를 거쳐 기록 매체(22)에 기록한다.
제1 액정 제어부(20)는 버퍼 메모리(19)에 일시 기억되는 화상 신호를 판독하고, 이 화상 신호에 대하여 액정 디스플레이(이하, LCD라고 칭함)(9)에 표시하기에 적합한 형식의 스루(through) 화상을 생성하고, 이 스루 화상을 LCD(9)에 표시하는, 소위 라이브 뷰 기능을 구비한다.
제1 액정 제어부(20)는 기록 매체(22)에 기록되어 있는 화상 데이터를 버퍼 메모리(19), 압축 신장부(21)를 통해서 판독하고, 이 화상 데이터를 LCD(9)에 표시한다.
파인더 화상 생성부(23)는 A/D 변환부(17)에 의해 변환된 디지털 촬상 신호로부터 EVF 등의 표시 장치(3)에 표시하기에 적합한 형식의 동화상의 파인더 화상 데이터를 생성한다.
제2 액정 제어부(24)는 파인더 화상 생성부(23)에 의해 생성된 동화상의 파인더 화상 데이터를 EVF 등의 표시 장치(3)에 표시한다.
LCD(9)의 표시 화면상은, 터치 패널(31)이 설치되어 있다. 터치 패널(31)은 당해 터치 패널(31)에 터치하는 조작 부위, 예를 들어 유저의 손가락에 의한 터치(접촉)를 검출하고, 당해 터치 부위에 대응하는 좌표 신호를 출력한다.
터치 패널 제어부(30)는 터치 패널(31)의 구동을 제어하고, 터치 패널(31)로부터 출력된 좌표 신호를 입력하고, 터치 패널(31) 상에서의 터치 부위를 판정한다. 터치 패널 제어부(30)는 터치 패널(31)과 예를 들어 유저의 손가락 사이의 정전 용량의 변화에 기초하여 터치 패널(31)에 대하여 예를 들어 유저의 손가락이 근접 또는 터치했는지 여부를 판정한다.
도 2는 터치 패널(31)의 센서 패턴의 모식도를 나타낸다. 터치 패널(31)에는, 복수의 센서(31a)가 xy 방향으로 일정 간격마다 배열되어 있다. 각 센서(31a)는, 상기와 같이, 예를 들어 유저의 손가락과의 사이의 정전 용량의 변화에 기초하여 유저의 손가락이 터치 패널(31)에 대하여 점점 접근해서 터치하려고 있고 있거나, 또는 유저의 손가락이 터치 패널(31)에 터치했는지 여부를 판정한다. 또한, 터치 패널(31)은 표면에 보호 필름, 보호 유리, 보호 패널 등의 보호층이 형성되어 있으므로, 유저의 손가락의 터치는, 보호층에 대한 터치를 포함한다. 각 센서(31a)는 정전 용량 방식 투영형이며, 자기 용량 방식과 상호 용량 방식이 있다. 자기 용량 방식은, 각 센서(31a)와 예를 들어 유저의 손가락 사이에 발생하는 정전 용량값을 센싱한다. 상호 용량 방식은, 예를 들어 유저의 손가락이 각 센서(31a)에 접근함으로써, 인접하는 센서(31a) 사이의 전기 용량 변화를 센싱한다.
도 3은 정전 용량 방식의 터치 패널(31)에 예를 들어 유저의 손가락(F)을 가까이 가져간 상태를 나타낸다. 도 4는 정전 용량 방식의 터치 패널(31)에 유저의 손가락(F)을 가까이 가져갔을 때의 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량 변화를 나타낸다. 유저의 손가락(F)은, 예를 들어 터치 패널(31)의 면상의 좌표(x, y, z)의 상방에 위치한다. 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량은, 유저의 손가락(F)을 터치 패널(31)에 가까이 가져감에 따라서 2차 함수적으로 증가한다. 따라서, 각 센서(31a)는 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량이 따른 신호, 즉 터치 패널(31)과 유저의 손가락(F) 사이의 거리 D(이하, 터치 간 거리라고 칭함)에 따른 신호를 출력한다.
터치 패널(31)에 대한 유저의 손가락(F)의 근접 또는 터치를 판정하기 위해서, 복수의 터치 근접 범위 E1 내지 En과 터치 직전 범위 T가 설정된다. 터치 패널(31)에서는, 예를 들어 도 4에 도시한 바와 같이 제1 및 제2 터치 근접 범위 E1, E2와 터치 직전 범위 T가 설정된다. 제1 및 제2 터치 근접 범위 E1, E2와 터치 직전 범위 T는, 터치 패널(31)과 유저의 손가락(F)의 터치 간 거리 D를 D3, D2, D1(D3 > D2 > D1)로 했을 때에, 각 거리 D3-D2 사이를 제1 터치 근접 범위 E1로 설정하고, 각 거리 D2-D3 사이를 제2 터치 근접 범위 E2로 설정하고, 거리 D3 이내이고 또한 터치 패널(31)에 유저의 손가락(F)이 터치할 때까지의 사이를 터치 직전 범위 T로 설정한다.
제1 및 제2 터치 근접 범위 E1, E2와 터치 직전 범위 T는, 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량값 Th1, Th2, Th3에 의해 구획된다. 각 정전 용량값 Th1, Th2, Th3의 크기 관계는, Th1 < Th2 < Th3이다. 이에 의해, 제1 터치 근접 범위 E1은, 정전 용량값 Th1-Th2 사이이다. 제2 터치 근접 범위 E2는, 정전 용량값 Th2-Th3 사이이다. 터치 직전 범위 T는, 정전 용량값 Th3을 포함하는 근소한 범위다.
따라서, 터치 패널 제어부(30)는 터치 AF 모드의 동작, 즉 터치 패널(31)의 각 센서(31a)에 의해 검출되는 정전 용량값의 변화를 모니터하고, 당해 정전 용량값이 변화되는 영역을 터치하려고 하는 좌표 위치로서 검출한다. 터치 패널 제어부(30)는 터치 패널(31)에 있어서의 정전 용량값의 변화를 모니터하고, 모니터된 정전 용량값과 각 정전 용량값 Th1, Th2, Th3을 비교하고, 터치 패널(31)에 대하여 유저의 손가락(F)이 제1 터치 근접 범위 E1 내, 제2 터치 근접 범위 E2 내, 또는 터치 직전 범위 T 내에 존재하거나, 나아가 터치 패널(31)에 터치했는지 여부를 판정한다.
터치 패널(31)에 유저의 손가락(F)이 터치하려고 하는 경우, 유저의 손가락(F)은, 터치 패널(31)에 대하여 각도 θ로 터치하려고 하는 경우가 많다. 도 5는 터치 패널(31)에 대하여 유저의 손가락(F)이 각도 θ의 경사지는 방향에서 터치하려고 하는 경우를 나타낸다. 여기서, 유저의 손가락(F)과 터치 패널(31)의 표시면과의 터치 간 거리를 D(D1, D2, D3을 포함함), 터치하려고 하는 포인트 P와 유저의 손가락(F)의 수평 거리를 x, 터치하려고 하는 포인트 P로부터의 각도를 θ[터치 패널(31)의 표시면의 수선을 기준으로 하는 각도]로 한다.
도 6의 (a), (b) 및 (c)는 터치 패널(31)에 대하여 유저의 손가락(F)이 터치하려고 할 때의 정전 용량값의 일정 시간마다의 변화 경과를 나타낸다. 상기 도면에 있어서 각 센서(31a)에는, 정전 용량값을 모식적으로 도시하는 각 수치「1」「2」…「5」등을 기재한다. 이들 수치「1」「2」…「5」는, 수치가 클수록, 정전 용량값이 큰 것을 나타낸다.
유저의 손가락(F)이 터치 패널(31)에 근접함에 따라서 터치 패널(31)의 정전 용량값이 커진다. 유저의 손가락(F)과 터치 패널(31)의 표시면과의 터치 간 거리 D가 먼 경우에는, 각 센서(31a)의 정전 용량의 변화량이 적다. 터치 패널 제어부(30)는 터치 패널(31) 위에서 정전 용량의 변화를 검출한 부위, 예를 들어 도 6의 (a)에 도시한 바와 같이 수치「1」이 나타난 부위를 시점의 좌표 위치 ST1로 한다.
시점으로 하는 유저의 손가락(F)의 좌표 위치 ST1을 검출한 시각 t0으로부터 시간 t1 이후, 유저의 손가락(F)이 터치 패널(31)의 표시면에 접근해서 터치 간 거리 D가 작아지면, 터치 패널(31) 상에서 정전 용량값이 커진다. 도 6의 (b)에서는 각 수치「3」「1」이 나타나는 부위가 증가하고 있다. 터치 패널 제어부(30)는 각 수치「3」「1」 중 정전 용량값의 변화가 가장 큰 부위, 예를 들어 수치「3」의 부위의 좌표 위치 ST2를 검출하고, 이 수치「3」의 부위의 좌표 위치 ST2와 시점의 위치 좌표 ST1로부터 수평 이동 거리 x와 터치 간 거리 D를 구한다.
계속해서, 시간 t1로부터 시간 t2 이후, 유저의 손가락(F)이 터치 패널(31)의 표시면에 접근해서 터치 간 거리 D가 더욱 작아지면, 터치 패널(31) 위에서 정전 용량값이 더욱 커진다. 도 6의 (c)에서는 각 수치「5」「3」「1」 등이 나타나는 부위가 증가하고 있다. 터치 패널 제어부(30)는, 각 수치「5」「3」「1」 등 중 정전 용량값의 변화가 가장 큰 부위, 예를 들어 수치「5」의 부위의 좌표 위치 ST3을 검출하고, 이 수치「5」의 부위의 좌표 위치 ST3과 시점의 좌표 위치 ST1로부터 수평 거리 x와 터치 간 거리 D를 구한다.
이 이후, 터치 패널 제어부(30)는 일정 시간마다, 정전 용량값의 변화가 가장 큰 부위의 좌표 위치 STm을 검출하고, 이 좌표 위치 STm과 시점의 좌표 위치 ST1로부터 수평 이동 거리 x와 터치 간 거리 D를 구한다. 또한, 터치 패널 제어부(30)는 일정 시간마다, 정전 용량값의 변화가 가장 큰 부위의 좌표 위치 STm과 직전의 좌표 위치 STm-1로부터 일정 시간마다 수평 이동 거리 x와 터치 간 거리 D를 구해도 된다.
터치 패널 제어부(30)는 일정 시간마다 구해지는 각 수평 이동 거리 x와 각 터치 간 거리 D로부터 유저의 손가락(F)의 이동 방향 M을 구하고, 이 이동 방향 M으로부터 각도 θ를 구하고, 다시 수평 이동 거리 x와 터치 간 거리 D와 각도 θ로부터 유저의 손가락(F)이 터치하려고 하는 후보 포인트 P의 좌표 위치를 구한다.
후보 포인트 P의 좌표 위치의 다른 산출 방법에 대해서 설명하면, 터치 패널 제어부(30)는 터치 패널(31)의 각 센서(31a)에 의해 검출되는 정전 용량값으로부터 유저의 손가락(F)과 터치 패널(31)의 표시면과의 터치 간 거리 D를 구한다. 터치 간 거리 D와 유저의 손가락(F)의 각도 θ는, 삼각 함수 D=r·cosθ, x=r·sinθ의 관계를 갖는다. 따라서, 터치 패널 제어부(30)는 터치 간 거리 D와 유저의 손가락(F)의 각도 θ를 사용해서 삼각 함수 D=r·cosθ, x=r·sinθ를 연산함으로써 수평 거리 x를 구한다. 터치 패널 제어부(30)는 터치 간 거리 D와 각도 θ와 수평 거리 x로부터 유저의 손가락(F)이 터치하려고 하는 후보 포인트 P의 좌표 위치를 구한다.
또한, 유저의 손가락(F)의 각도 θ는, 미리 설정한 각도, 예를 들어 45°로 설정해도 된다. 유저의 손가락(F)의 각도 θ(=45°)는 유저의 손가락(F)이 터치 패널(31)에 터치할 때에 향하는 일반적인 각도이다.
시스템 컨트롤러(26)는 피사체를 촬상할 때의 일련의 촬상 동작을 제어한다. 시스템 컨트롤러(26)는 촬상부(100)와, 화상 처리 장치(18)와, 버퍼 메모리(19)와, 압축 신장부(21)와, 인터페이스(22a)와, 파인더 화상 생성부(23)와, 터치 패널 제어부(30)와, 제1 액정 제어부(20)와, 제2 액정 제어부(24)를 제어한다. 시스템 컨트롤러(26)에는, 조작부(27)와, 스트로보 제어 회로(25)가 접속되어 있다. 조작부(27)는, 예를 들어 릴리즈 버튼(5)과, 모드 다이얼(6)과, 십자 키(7)와, 확정 키(8)를 갖는다. 조작부(27)는 전원 버튼이나 종료 버튼 등을 포함한다. 스트로보 제어 회로(25)는 섬광을 발하는 스트로보(4)를 동작 제어한다.
이 시스템 컨트롤러(26)는 프레임 표시 제어부(40)와, 포커스 제어부(41)와, 촬상 제어부(42)와, 얼굴 검출부(43)와, 일람 표시부(44)와, 화상 재생부(45)를 포함한다.
프레임 표시 제어부(40)는 유저의 손가락(F)이 터치 패널(31)에 터치하려고 근접하면, 도 7에 도시한 바와 같이 LCD(9)의 표시 화면 상에 표시되어 있는 화상 상에 있어서의 터치하려고 하는 터치 패널(31)의 부위에 대응하는 화상 영역에 포커스용 프레임(W)을 표시한다. 이 경우, 프레임 표시 제어부(40)는 터치 패널 제어부(30)에 의해 구해진 후보 포인트 P의 좌표 위치를 중심으로 해서 포커스용 프레임(W)을 표시한다.
프레임 표시 제어부(40)는 유저의 손가락(F)이 제2 터치 근접 범위 E2 내에 들어갔을 때에 포커스용 프레임(W)을 표시한다. 포커스용 프레임(W)은, 유저의 손가락(F)이 제1 터치 근접 범위 E1에 들어갔을 때부터 표시하도록 해도 된다.
유저의 손가락(F)이 터치 패널(31)에 대하여 근접하려고 할 때에 포커스용 프레임(W)을 표시하면, 유저의 손가락(F)이 터치 패널(31)에 터치하기 전에, 유저의 손가락(F)이 터치하려고 하는 터치 패널(31)의 부위를 LCD(9)의 표시 화면 상에서 확인할 수 있다. 유저의 손가락(F)이 터치하려고 하는 부위는, 유저의 손가락(F)이 터치 패널(31)에 터치하기 전이므로, 포커스용 프레임(W)이 유저의 손가락(F)에 의해 가려지는 일 없이 확인할 수 있다. 이 확인으로, 유저의 손가락(F)의 터치하는 영역이 유저가 요구하는 영역과 다르면, 유저의 손가락(F)이 터치하려고 하는 영역을 바꿀 수 있다.
유저의 손가락(F)이 터치하려고 하는 후보 포인트 P의 좌표 위치가 터치 패널 제어부(30)에 의해 사전에 구해지므로, 후술하는 포커스 제어부(41)는 유저의 손가락(F)이 터치 패널(31)에 터치하기 전에, 후보 포인트 P의 좌표 위치에 대응하는 피사체에 포커스를 행할 수 있다. 유저의 손가락(F)이 터치 패널(31)에 터치하고 나서 포커스를 행하는 경우보다도, 포커스할 때까지의 시간을 짧게 할 수 있다.
포커스용 프레임(W)은, 예를 들어 유저의 조작에 의해 주요 피사체로서의 인물의 얼굴부(S)로 설정되어 있다. 포커스용 프레임(W)은, 예를 들어 정사각형으로 형성되어 있으나, 이에 한정되지 않고, 원형, 직사각형, 이중원 등으로 형성해도 된다.
프레임 표시 제어부(40)는 유저의 손가락(F)이 터치 패널(31)에 대하여 근접하고, 예를 들어 유저의 손가락(F)이 제2 터치 근접 범위 E2 내에 들어가 있는 상태에서, 도 8에 도시한 바와 같이 유저의 손가락(F)이 LCD(9)의 표시 화면 상과 동일 평면 내의 방향으로 이동하면, 유저의 손가락(F)의 이동을 추종하여 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에서 이동한다. 예를 들어 인물이 이동하면, 포커스용 프레임(W)은, 유저의 손가락(F)의 이동을 추종하여, 이동한 인물의 얼굴부(S)로 설정된다.
프레임 표시 제어부(40)는 유저의 손가락(F)의 이동을 추종하여 포커스용 프레임(W)을 이동할 경우, 유저의 손가락(F)의 이동하는 속도에 따른 속도, 예를 들어 유저의 손가락(F)의 이동 속도의 증감에 따라서 증감한 속도로 포커스용 프레임(W)을 이동한다. 프레임 표시 제어부(40)는 유저의 손가락(F)의 이동을 추종하여 포커스용 프레임(W)을 이동할 경우, 유저의 손가락(F)의 이동하는 방향과 동일한 방향으로 포커스용 프레임(W)을 이동한다.
프레임 표시 제어부(40)는 유저의 손가락(F)과 터치 패널(31)의 표시면과의 터치 간 거리 D에 따라서 포커스용 프레임(W)의 사이즈를 축소·확대한다. 예를 들어, 프레임 표시 제어부(40)는 터치 간 거리 D가 좁아짐에 따라서 포커스용 프레임(W)의 사이즈를 도 9에 도시한 바와 같이 화살표 방향으로 축소하고, 터치 간 거리 D가 넓어짐에 따라서 포커스용 프레임(W)의 사이즈를 확대한다. 포커스용 프레임(W)의 사이즈를 축소하면, 유저의 손가락(F)이 터치하려고 하는 후보 포인트 P를 향해 조여가는 것과 같은 표시를 할 수 있다.
프레임 표시 제어부(40)는, 피사체에 대한 촬영 방향이나 구도 등을 변화시키지 않고 미리 설정된 장시간만큼 당해 촬상 장치의 이동을 정지하면, LCD(9)의 표시 화면 중의 포커스용 프레임(W)의 표시 상태를 로크해도 된다. 프레임 표시 제어부(40)는 촬상 장치가 이동하면, 포커스용 프레임(W)의 표시 상태의 로크를 해제한다.
포커스 제어부(41)는 유저의 손가락(F)이 터치 패널(31)에 터치하기 전에, 포커스용 프레임(W) 내의 피사체 상의 후보 포인트 P에 대한 포커스 처리를 실행한다.
포커스 제어부(41)는 프레임 표시 제어부(40)에 의한 포커스용 프레임(W)의 이동, 즉 LCD(9)의 표시 화면 상과 동일 평면 내의 방향으로의 이동 중에 포커스의 실행을 행하지 않고, 유저의 손가락(F)의 이동이 정지하면, 포커스용 프레임(W) 내의 피사체에 대한 포커스를 실행한다.
포커스 제어부(41)는 포커스용 프레임(W)이 표시된 후 포커스를 실행하도록 해도 된다.
포커스 제어부(41)는 유저의 손가락(F)이 복수의 터치 근접 범위 E1 내지 En 중 소정의 근접 범위 내, 예를 들어 제2 터치 근접 범위 E2 내에 접근하면, 포커스용 프레임(W) 내의 피사체에 대한 포커스를 실행한다.
촬상 제어부(42)는 유저의 손가락(F)의 터치 패널(31)에 대한 터치를 검출하면, 당해 터치 검출 시에 촬상부(100)에 의해 촬상을 행한다.
얼굴 검출부(43)는 화상 데이터 중에 피사체의 얼굴 부위 S가 존재하는지 여부, 또는 화상 데이터 중에 표시되어 있는 포커스용 프레임(W) 내에 피사체의 얼굴 부위 S가 존재하는지 여부를 검출한다. 얼굴 검출부(43)는 화상 데이터 중에 존재하는 피사체의 얼굴 부위 S를 검출한다.
얼굴 검출부(43)에 의해 피사체의 얼굴 부위 S가 검출되면, 프레임 표시 제어부(40)는 당해 피사체의 얼굴 부위 S에 대하여 포커스용 프레임(W)을 표시하도록 해도 된다. 포커스용 프레임(W)의 표시 개시는, 상기한 바와 마찬가지로, 유저의 손가락(F)이 제2 터치 근접 범위 E2 내에 들어갔을 때이다. 피사체의 얼굴 부위 S를 주요 피사체로서 촬영할 경우, 프레임 표시 제어부(40)에 의해 표시되는 포커스용 프레임(W)의 위치가 주요 피사체에 대하여 어긋났다고 해도, 얼굴 검출부(43)에 의해 검출된 얼굴 부위 S에 포커스용 프레임(W)의 표시 위치를 수정할 수 있다.
일람 표시부(44)는 재생 모드 시에, 복수의 화상을 LCD(9)의 표시 화면 상에 일람 표시한다. 일람 표시부(44)는, 예를 들어 기록 매체(22)에 기록되어 있는 복수의 화상 데이터를 판독하고, 각 화상 데이터를 제1 액정 제어부(20)를 거쳐 LCD(9)의 표시 화면 상에 일람 표시한다.
화상 재생부(45)는 일람 표시부(44)에 의해 LCD(9)의 표시 화면 상에 일람 표시된 복수의 화상 데이터 중 어느 하나의 화상 데이터가 선택되면, 당해 선택된 화상 데이터를 LCD(9)의 표시 화면 상에 확대 표시한다.
[제1 촬상 동작]
이어서, 상기와 같이 구성된 장치의 제1 촬상 동작에 대해서 도 10에 나타낸 촬상 동작 흐름도를 참조하여 설명한다.
시스템 컨트롤러(26)는 스텝 #1에 있어서, 터치 패널(31)의 전원을 온(ON) 하고, 스텝 #2에 있어서, LCD(9)의 전원을 온(ON) 한다.
시스템 컨트롤러(26)는 스텝 #3에 있어서, 예를 들어 유저의 모드 다이얼(6)에 대한 조작에 의해 선택된 모드, 예를 들어 촬영 모드 또는 재생 모드를 접수한다.
시스템 컨트롤러(26)는 스텝 #4에 있어서, 선택된 모드가 촬영 모드 또는 재생 모드인지를 판정한다. 이 판정의 결과, 촬영 모드이면, 시스템 컨트롤러(26)는 스텝 #5로 이행하여, 촬영 모드로 설정한다.
이하, 촬영 모드에서의 촬상 동작에 대해서 도 11에 도시한 촬영 모드 흐름도에 따라서 설명한다.
도 12는 촬상 동작 타이밍도를 나타낸다. 도 12는, 터치 패널(31)과 예를 들어 유저의 손가락(F) 사이에 발생하는 정전 용량값의 센싱 가능한 기간과, LCD(9)의 표시면에 표시되는 포커스용 프레임(W)의 표시 기간과, 오토 포커스(AF)를 실행하는 기간과, 촬영을 실행하는 기간을 나타낸다.
촬영 모드에 있어서, 시스템 컨트롤러(26)는 촬상부(100)와, 화상 처리 장치(18)와, 버퍼 메모리(19)와, 압축 신장부(21)와, 인터페이스(22a)와, 파인더 화상 생성부(23)와, 터치 패널 제어부(30)와, 제1 액정 제어부(20)와, 제2 액정 제어부(24)를 제어하고, 피사체를 촬상할 때의 일련의 촬상 동작을 제어한다.
즉, 피사체로부터의 광속은, 렌즈(11)로부터 조리개(12), 셔터(14)를 통해서 촬상 센서(15)에 입사한다. 이때, AF 기구(13)는 렌즈(11)를 광축 방향으로 이동하고, 피사체에 대한 AF를 행한다. 촬상 센서(15)는 입사한 광속을 전기 신호로 변환한다. 촬상 센서(15)로부터 출력된 전기 신호는, 촬상 회로(16)에 의해 아날로그 촬상 신호로서 출력되고, A/D 변환기(17)에 의해 소정 형식의 디지털 촬상 신호로 변환되어서 화상 처리 장치(18)와 파인더 화상 생성부(23)로 보내진다.
화상 처리 장치(18)는 A/D 변환부(17)에 의해 변환된 디지털 촬상 신호에 대하여 소정의 화상 처리, 예를 들어 당해 화상 데이터에 의해 표현되어야 할 화상의 색조 보정, 계조 보정, γ(감마) 보정과 같은 조정 등을 행하고, 이들 조정 등을 행한 화상 신호를 버퍼 메모리(19)에 일시 기억한다.
제1 액정 제어부(20)는 버퍼 메모리(19)에 일시 기억되는 화상 신호를 판독하고, 이 화상 신호에 대하여 LCD(9)에 표시하기에 적합한 형식의 스루 화상을 생성하고, 이 스루 화상을 LCD(9)에 라이브 뷰 표시한다.
이 촬영 모드에 있어서, 시스템 컨트롤러(26)는 스텝 #10에 있어서, 터치 오토 포커스(AF) 모드로 설정되어 있는지 여부를 판정한다. 이 판정의 결과, 터치 AF 모드로 설정되어 있으면, 터치 패널 제어부(30)는 터치 패널(31)에 있어서의 정전 용량값의 변화를 모니터하고, 정전 용량값이 변화되는 영역을 터치하려고 하는 좌표 위치로서 검출한다. 터치 패널 제어부(30)는 모니터된 정전 용량값과 각 정전 용량값 Th1, Th2, Th3을 비교하고, 터치 패널(31)에 대하여 유저의 손가락(F)이 제1 터치 근접 범위 E1 내, 제2 터치 근접 범위 E2 내, 또는 터치 직전 범위 T 내에 존재하는지, 나아가 터치 패널(31)에 터치했는지 여부를 판정한다.
구체적으로, 터치 패널 제어부(30)는 스텝 #11에 있어서, 터치 패널(31)에 있어서의 정전 용량값의 변화를 모니터하고, 유저가 손가락(F)을 터치 패널(31)에 근접해서 터치하려고 하는 것을 판정한다. 유저의 손가락(F)이 터치하려고 하는 곳은, LCD(9) 상에서, 피사체 중의 포커스를 요구하는 화상, 예를 들어 인물의 얼굴부(S)에 대응하는 부분의 터치 패널(31) 상이다.
도 13의 (a) 및 (b)는, 터치 패널(31)에 유저의 손가락(F)이 터치하려고 하는 상태를 나타낸다. 도 13의 (a)는, 상기 상태에 있어서의 LCD(9)에 표시되는 화상을 나타낸다. 도 13의 (b)는, 상기 상태에 있어서의 터치 패널(31)과 유저의 손가락(F)의 터치 간 거리 D를 나타낸다.
터치 패널 제어부(30)는 스텝 #12에 있어서, 터치 패널(31)에 있어서의 정전 용량값의 변화에 기초하여 유저의 손가락(F)이 도 14의 (b)에 도시한 바와 같이 제1 터치 근접 범위 E1(D3 ≥ D > D2) 내에 존재하는지 여부를 판정한다. 제1 터치 근접 범위 E1 내는, 터치 패널(31)의 표면으로부터 예를 들어 30-20㎜ 이내다.
이 판정의 결과, 유저의 손가락(F)이 제1 터치 근접 범위 E1 내이면, 터치 패널 제어부(30)는 터치 패널(31)의 각 센서(31a)에 의해 터치 패널(31)과 유저의 손가락(F) 사이에 발생하는 정전 용량값의 센싱이 가능해져, 유저의 손가락(F)이 터치 패널(31)에 터치하려고 하고 있는 것을 판정한다. 유저의 손가락(F)이 제1 터치 근접 범위 E1 내에 들어간 시점으로부터 센싱이 가능해지므로, 유저의 손가락(F)이 제1 터치 근접 범위 E1 밖에 있을 때에는, 센싱을 행하지 않아, 불필요한 전력을 소비하는 일이 없다. 제1 터치 근접 범위 E1 밖에 있을 때에는, 터치 패널 제어부(30)는 센싱을 억제하거나, 유저의 손가락(F)과 터치 패널(31)의 간격을 넓혔을 때의 동작을 하거나, 시스템 컨트롤러(26)에서의 회로 동작이나 연산을 제한하거나 해서, 불필요한 전력을 소비하지 않아도 되게 된다.
또한, 터치 패널(31)과 유저의 손가락(F) 사이에 발생하는 정전 용량값의 범위를 미리 설정하면, 유저의 손가락(F)과 다른 다른 부재가 터치 패널(31)에 접촉하려고 할 때에 발생하는 정전 용량값과 구별할 수 있다. 이에 의해, 유저의 손가락(F)이 터치 패널(31)에 터치하려고 하고 있는 것만을 판별할 수 있어, 다른 부재가 터치 패널(31)에 접촉하려고 하는 것의 오동작을 방지할 수 있다.
유저의 손가락(F)이 도 14의 (b)에 도시한 바와 같이 제1 터치 근접 범위 E1 내에 들어간 후, 터치 패널 제어부(30)는 스텝 #13에 있어서, 터치 패널(31)에 있어서의 정전 용량값의 변화에 기초하여 유저의 손가락(F)이 도 15의 (b)에 도시한 바와 같이 제2 터치 근접 범위 E2(D2 ≥ D > D1) 내에 존재하는지 여부를 판정한다.
이 판정의 결과, 유저의 손가락(F)이 제2 터치 근접 범위 E2 내에 존재하면, 터치 패널 제어부(30)는 스텝 #14에 있어서, 터치 패널(31) 상에 투영되는 유저의 손가락(F)의 좌표 위치를 구한다. 즉, 유저의 손가락(F)이 터치 패널(31)의 표시면에 근접해서 터치 간 거리 D가 작아지면, 도 6의 (b)에 도시한 바와 같이 터치 패널(31) 상에서 정전 용량값이 커져, 예를 들어 각 수치「3」「1」이 나타나는 부위가 증가하고 있다. 터치 패널 제어부(30)는 각 수치「3」「1」 중 정전 용량값의 변화가 가장 큰 부위, 예를 들어 수치「3」의 부위를 좌표 위치를 검출하고, 이 좌표 위치를 유저의 손가락(F)의 좌표 위치를 구한다.
이와 함께, 터치 패널 제어부(30)는 스텝 #15에 있어서, 터치 패널(31)에 있어서의 정전 용량값으로부터 유저의 손가락(F)이 제2 터치 근접 범위 E2 내에 들어간 것을 판정하고, 그 취지를 프레임 표시 제어부(40)로 보낸다.
프레임 표시 제어부(40)는 유저의 손가락(F)이 제2 터치 근접 범위 E2 내에 존재한다는 취지를 받으면, 도 15의 (a)에 도시한 바와 같이 LCD(9)에 포커스용 프레임(W)을 표시한다. 유저의 손가락(F)이 터치 패널(31)에 터치하기 전에 포커스용 프레임(W)을 표시하므로, 포커스용 프레임(W)이 유저의 손가락(F)에 의해 숨겨지는 일 없이, 유저의 손가락(F)이 터치하려고 하는 터치 패널(31)의 부위가 LCD(9)의 표시 화면 상에서 확인 가능하다.
프레임 표시 제어부(40)는 유저의 손가락(F)이 제1 터치 근접 범위 E1 내에 있을 때 포커스용 프레임(W)을 표시하지 않고, 제2 터치 근접 범위 E2 내에 있을 때 포커스용 프레임(W)을 표시하고 있다. 유저의 손가락(F)이 제1 터치 근접 범위 E1 내에 있을 때는, 유저의 손가락(F)과 터치 패널(31)의 거리가 넓어, 유저가 터치 패널(31)에 터치할 의사가 있는지 없는지 여부를 결정할 수 없기 때문이다. 이에 의해, 불필요한 포커스용 프레임(W)의 표시를 방지할 수 있다.
또한, 유저의 손가락(F)과 터치 패널(31)의 터치 간 거리 D는, 도 4에 도시한 터치 간 거리 D2-D1 사이이다. 제2 터치 근접 범위 E2 내는, 터치 패널(31)의 표면으로부터 예를 들어 20-10㎜ 이내이다.
터치 패널 제어부(30)는 스텝 #16에 있어서, 터치 패널(31)에 있어서의 정전 용량값의 변화에 기초하여 유저의 손가락(F)이 도 16의 (b)에 도시한 바와 같이 터치 직전 범위 T(D1 ≥ D > D0) 내에 존재하여, 터치 패널(31)에 터치되었는지 여부를 판정한다.
이 판정의 결과, 유저의 손가락(F)이 터치 직전 범위 T 내에 존재하고, 터치 패널(31)에 터치되면, 포커스 제어부(41)는 스텝 #17에 있어서, 포커스용 프레임(W) 내의 피사체에 대한 오토 포커스(AF)를 개시한다.
포커스 제어부(41)는 스텝 #18에 있어서, 포커스용 프레임(W) 내의 피사체에 대한 오토 포커스(AF)가 종료되었는지 여부를 판정한다. 이 판정의 결과, 포커스용 프레임(W) 내의 피사체에 대한 오토 포커스(AF)가 종료되면, 포커스 제어부(41)는 스텝 #19에 있어서, 오토 포커스(AF)를 로크 상태로 한다.
터치 패널 제어부(30)는 스텝 #20에 있어서, 포커스용 프레임(W) 내에서, 유저의 손가락(F)이 도 16의 (b)에 도시한 바와 같이 피사체 중의 포커스를 요구하는 예를 들어 인물의 얼굴부(S)에 대응하는 터치 패널(31) 상에 터치했는지 여부를 판정한다.
이 판정의 결과, 포커스용 프레임(W) 내에서, 유저의 손가락(F)이 도 16의 (b)에 도시한 바와 같이 피사체 중의 포커스를 요구하는 예를 들어 인물의 얼굴부(S)에 대응하는 터치 패널(31) 위에 터치하면, 터치 패널 제어부(30)는 터치 패널(31)에 있어서의 정전 용량값으로부터 유저의 손가락(F)이 터치 패널(31)에 터치한 것을 판정하고, 그 취지를 촬상 제어부(42)로 보낸다.
촬상 제어부(42)는 스텝 #21에 있어서, 터치 패널 제어부(30)로부터의 유저의 손가락(F)이 터치 패널(31)에 터치했다는 취지를 받으면, 당해 터치 검출 시에, 촬상부(100)에 의해 정지 화상의 촬상을 행한다. 즉, 피사체로부터의 광속은, 렌즈(11)로부터 조리개(12), 셔터(14)를 통해서 촬상 센서(15)에 입사한다. 촬상 센서(15)는 입사한 광속을 전기 신호로 변환한다. 촬상 센서(15)로부터 출력된 전기 신호는, 촬상 회로(16)에 의해 아날로그 촬상 신호로서 출력되어, A/D 변환기(17)에 의해 소정 형식의 디지털 촬상 신호로 변환되어서 화상 처리 장치(18)로 보내진다. 화상 처리 장치(18)는 A/D 변환부(17)에 의해 변환된 디지털 촬상 신호에 대하여 소정의 화상 처리, 예를 들어 당해 화상 데이터에 의해 표현되어야 할 화상의 색조 보정, 계조 보정, γ(감마) 보정과 같은 조정 등을 행하고, 이들 조정 등을 행한 화상 신호를 버퍼 메모리(19)에 일시 기억한다. 압축 신장부(21)는 버퍼 메모리(19)에 일시 기억되는 화상 신호에 대하여 압축·신장을 행하고, 기록 매체(22)에 기록하기에 적합한 형식으로 성형해서 도 16의 (a)에 도시한 바와 같은 정지 화상으로서의 주 화상 데이터를 생성하고, 이 주 화상 데이터를 인터페이스(22a)를 거쳐 기록 매체(22)에 기록한다.
이 후, 시스템 컨트롤러(26)는 스텝 #22에 있어서, 촬영 모드를 종료한다.
한편, 상기 스텝 #10에서의 판정 결과, 터치 오토 포커스(AF) 모드로 설정되어 있지 않으면, 시스템 컨트롤러(26)는 스텝 #30으로 이행하고, 계속해서 오토 포커스(AF)를 실행하는지 여부를 판정한다. 이 판정의 결과, 피사체에 대한 포커스가 계속되면, 시스템 컨트롤러(26)는 스텝 #31에 있어서, 유저에 의해 조작부(27)의 릴리즈 버튼(5)이 절반 누름되면, 이 릴리즈 버튼(5)의 상태가 오프 상태로부터 1st 릴리즈 스위치의 온 상태로 이행한다.
시스템 컨트롤러(26)는 스텝 #34에 있어서, 오토 포커스(AF)를 종료하고, 스텝 #35에 있어서, 릴리즈 버튼(5)의 상태가 2nd 릴리즈 스위치의 온 상태인지 여부를 판정한다. 이 판정의 결과, 2nd 릴리즈 스위치의 온 상태이면, 촬상 제어부(42)는 스텝 #36에 있어서, 촬상부(100)에 대하여 피사체의 정지 화상의 촬상 동작을 행하게 한다. 시스템 컨트롤러(26)는 촬상 제어부(42)의 촬상에 의해 취득된 정지 화상을 LCD(9)의 표시 화면 상에 확대 표시한다.
상기 계속해서 오토 포커스(AF)를 실행하는지 여부의 판정 결과, 피사체에 대한 포커스가 종료되면, 시스템 컨트롤러(26)는 스텝 #32로 이행하고, 유저에 의해 조작부(27)의 릴리즈 버튼(5)이 절반 누름되면, 이 릴리즈 버튼(5)의 상태가 오프 상태로부터 1st 릴리즈 스위치의 온 상태로 이행한다. 시스템 컨트롤러(26)는 스텝 #33에 있어서, AF를 개시하고, 스텝 #34에 있어서, 오토 포커스(AF)를 종료하고, 스텝 #35, #36, #23으로 이행한다.
시스템 컨트롤러(26)는 도 10에 도시한 촬상 동작 흐름도로 돌아와, 스텝 #6에 있어서, 조작부(27)에 있어서의 모드 다이얼(6)이나 종료 버튼 등의 상태를 판독한다. 시스템 컨트롤러(26)는 계속해서 촬영 모드로 설정되어 있으면, 스텝 #3으로 돌아와, 종료 버튼이 조작되면, 스텝 #7로 이행하여 전원을 오프(OFF) 한다.
한편, 시스템 컨트롤러(26)는 스텝 #4에 있어서의 판정 결과, 재생 모드로 설정되어 있으면, 스텝 #8로 이행하고, 재생 모드의 동작을 행한다. 예를 들어, 일람 표시부(44)는 당해 재생 모드 시에, 예를 들어 기록 매체(22)에 기록되어 있는 복수의 화상 데이터를 판독하고, 이들 화상 데이터를 제1 액정 제어부(20)를 거쳐 LCD(9)의 표시 화면 상에 일람 표시한다.
화상 재생부(45)는 스텝 #9에 있어서, 일람 표시부(44)에 의해 LCD(9)의 표시 화면 상에 일람 표시된 복수의 화상 데이터 중 어느 하나의 화상 데이터가 선택되면, 당해 선택된 화상 데이터만을 LCD(9)의 표시 화면 상에 확대 표시한다.
이렇게 상기 제1 촬상 동작에 의하면, 터치 패널(31)에 대하여 유저의 손가락(F)이 근접하면, 당해 근접하는 화상 부분에 대응하는 LCD(9)의 표시 화면 상에 포커스용 프레임(W)을 표시하고, 포커스용 프레임(W) 내의 피사체에 대하여 오토 포커스(AF)를 행하고, 유저의 손가락(F)이 포커스용 프레임(W) 내에 대응하는 터치 패널(31)에 터치하면, 촬상 동작을 행한다.
이러한 상기 제1 촬상 동작이면, 오토 포커스(AF)를 행하는 화상 부분에 포커스용 프레임(W)을 표시함으로써, LCD(9)의 표시 화면 상의 터치 패널(31)에 유저의 손가락(F)을 터치할 때에, 유저의 손가락(F)이 터치하는 것에 대응하는 화상을 인식하기 쉬워져, 오토 포커스(AF)를 행하는 부분의 화상을 확인하면서 촬상을 할 수 있다.
유저의 손가락(F)이 터치 패널(31)에 대하여 근접하려고 할 때에 포커스용 프레임(W)을 표시하면, 유저의 손가락(F)이 터치 패널(31)에 터치하기 전에, 유저의 손가락(F)이 터치하려고 하는 터치 패널(31)의 부위가 유저의 손가락(F)에 의해 숨겨지는 일 없이 LCD(9)의 표시 화면 상에서 확인 가능하다. 이 확인으로, 유저의 손가락(F)이 터치하는 영역이 유저가 요구하는 영역과 상이하면, 유저의 손가락(F)이 터치하려고 하는 영역을 바꿀 수 있다.
유저의 손가락(F)이 터치 패널(31)에 터치하기 전에, 후보 포인트 P의 좌표 위치에 대응하는 피사체에 포커스를 행할 수 있으므로, 유저의 손가락(F)이 터치 패널(31)에 터치하고 나서 포커스를 행하는 경우보다도, 포커스할 때까지의 시간을 짧게 할 수 있다.
[제2 촬상 동작]
이어서, 제2 촬상 동작에 대해서 도 17에 나타낸 촬상 동작 흐름도에 따라서 설명한다. 도 18은 촬상 동작 타이밍도를 나타낸다. 도 18은, 상기 도 12와 마찬가지로, 터치 패널(31)과 예를 들어 유저의 손가락(F) 사이에 발생하는 정전 용량값의 센싱 가능한 기간과, LCD(9)의 표시면에 표시되는 포커스용 프레임(W)의 표시 기간과, 오토 포커스(AF)를 실행하는 기간과, 촬영을 실행하는 기간을 나타낸다. 또한, 상기 제1 촬상 동작과 동일 부분에는 동일 부호를 붙여서 그 상세한 설명은 생략한다.
제2 촬상 동작은, 유저의 손가락(F)이 터치 패널(31)에 대하여 근접한 상태, 예를 들어 유저의 손가락(F)이 터치 패널(31)에 대하여 제2 터치 근접 범위 E2 내에 존재하고 있는 상태에서 수평 방향, 즉 LCD(9)의 표시면과 평행한 평면 방향으로 이동한 경우이다.
이 제2 촬상 동작이면, 터치 패널 제어부(30)는 스텝 #20에 있어서, 포커스용 프레임(W) 내에서, 유저의 손가락(F)이 도 16의 (b)에 도시한 바와 같이 피사체 중의 포커스를 요구하는 예를 들어 인물의 얼굴부(S)에 대응하는 터치 패널(31) 상에 터치했는지 여부를 판정한다.
이 판정의 결과, 유저의 손가락(F)이 터치 패널(31) 상에 터치하고 있지 않다고 판정되면, 프레임 표시 제어부(40)는 스텝 #40으로 이행하고, 유저의 손가락(F)이 터치 패널(31)에 대하여 근접하고 있는 상태, 즉 유저의 손가락(F)이 도 4에 도시한 제2 터치 근접 범위 E2 내에 존재하고 있는 상태에서, 상기 도 8에 도시한 바와 같이 유저의 손가락(F)이 LCD(9)의 표시면과 평행한 평면 방향으로 이동했는지 여부를 판정한다. 유저의 손가락(F)이 제2 터치 근접 범위 E2 내에 존재하고 있는 상태는, 상기와 같이, 터치 패널 제어부(30)에 의해 터치 패널(31)의 정전 용량값으로부터 판정한다.
유저의 손가락(F)의 이동 판정에서는, 유저의 손가락(F)이 터치 패널(31)의 표시면에 근접해서 제2 터치 근접 범위 E2 내에 들어가면, 상기 도 6의 (c)에 도시한 바와 같이 터치 패널(31) 상에서 정전 용량값이 커져, 예를 들어 각 수치「5」「3」「1」 등이 나타나는 부위가 증가한다. 터치 패널 제어부(30)는, 각 수치「5」「3」「1」 등 중 정전 용량값의 변화가 가장 큰 부위, 예를 들어 수치「5」의 부위를 유저의 손가락(F)의 좌표 위치로서 구한다.
유저의 손가락(F)이 도 19의 (a)에 도시한 바와 같이 터치 패널(31)의 상방에서, 당해 터치 패널(31)의 표시면과 평행한 평면 방향으로 이동하면, 터치 패널(31) 상에서의 정전 용량값이 커지는 부분이 유저의 손가락(F)의 이동을 추종하여 이동한다. 터치 패널 제어부(30)는 정전 용량값의 변화가 가장 큰 부위가 되는 유저의 손가락(F)의 좌표 위치의 이동을 추적한다. 이 추적에 의해 터치 패널 제어부(30)는, 유저의 손가락(F)의 이동을 추종하고, 유저의 손가락(F)의 이동하는 각 좌표 위치를 차례로 프레임 표시 제어부(40)로 보낸다. 포커스용 프레임(W)의 이동은, LCD(9)의 표시 화면 상에 표시되는 화상 중의 인물의 얼굴부(S)가 이동함으로써, 인물의 얼굴부(S)의 이동을 추종하도록 유저의 손가락(F)이 이동함으로써 행해진다.
프레임 표시 제어부(40)는 터치 패널 제어부(30)에 의해 구해진 유저의 손가락(F)의 이동하는 각 좌표 위치를 차례로 수취하여, 각 좌표 위치로부터 유저의 손가락(F)이 소정의 이동 거리 M, 예를 들어 10㎜ 이상 이동했는지 여부를 판정한다.
이 판정의 결과, 유저의 손가락(F)의 이동 거리가 예를 들어 10㎜ 이상이라고 판정되면, 프레임 표시 제어부(40)는 스텝 #41에 있어서, 터치 패널 제어부(30)로부터 차례로 수취하는 유저의 손가락(F)의 이동하는 각 좌표 위치에 기초하여 유저의 손가락(F)의 이동하는 방향을 판정하고, 도 19의 (a) 및 (b)에 도시한 바와 같이 소정의 이동 거리 M의 예를 들어 2배의 이동 거리 2M, 예를 들어 20㎜만큼 유저의 손가락(F)의 이동 방향으로 예를 들어 도 8에 도시한 바와 같이 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에서 이동한다.
프레임 표시 제어부(40)는 유저의 손가락(F)의 이동을 추종하여 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에서 이동할 경우, 유저의 손가락(F)의 이동하는 속도에 비례한 속도로 포커스용 프레임(W)을 이동한다.
포커스용 프레임(W)의 이동 중, 포커스 제어부(41)는 피검체에 대한 포커스의 실행을 행하지 않고, 상기 포커스의 실행을 정지한다.
프레임 표시 제어부(40)는 스텝 #42에 있어서, 도 20의 (a), (b) 및 (c)에 도시한 바와 같이 유저의 손가락(F)이 이동을 정지하여 1군데에 멈추어, 당해 정지 상태가 일정 시간 계속되고 있는지 여부를 판정한다. 이 판정의 결과, 유저의 손가락(F)이 이동하고 있으면, 프레임 표시 제어부(40)는 스텝 #41로 돌아와, 유저의 손가락(F)의 이동하는 각 좌표 위치를 따라서 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에서 이동한다.
유저의 손가락(F)의 이동이 일정 시간 정지되면, 프레임 표시 제어부(40)는 당해 유저의 손가락(F)의 이동이 정지되었다는 취지를 포커스 제어부(41)로 보낸다. 포커스 제어부(41)는 유저의 손가락(F)의 이동이 정지되었다는 취지를 받아, 포커스용 프레임(W) 내의 피사체에 대한 오토 포커스(AF)를 개시한다.
터치 패널 제어부(30)는 다시, 스텝 #20에 있어서, 포커스용 프레임(W) 내에서, 유저의 손가락(F)이 도 16의 (b)에 도시한 바와 같이 피사체 중의 포커스를 요구하는 예를 들어 인물의 얼굴부(S)에 대응하는 터치 패널(31) 상에 터치했는지 여부를 판정한다. 이 판정의 결과, 포커스용 프레임(W) 내에서 유저의 손가락(F)이 터치 패널(31) 상에 터치하면, 터치 패널 제어부(30)는 터치 패널(31)에 있어서의 정전 용량값으로부터 유저의 손가락(F)이 터치 패널(31)에 터치한 것을 판정하고, 그 취지를 촬상 제어부(42)로 보낸다. 촬상 제어부(42)는 스텝 #21에 있어서, 터치 패널 제어부(30)로부터의 유저의 손가락(F)이 터치 패널(31)에 터치했다는 취지를 받으면, 당해 터치 검출 시에, 촬상부(100)에 의해 정지 화상의 촬상을 행한다. 시스템 컨트롤러(26)는 촬상부(100)의 촬상에 의해 취득된 정지 화상을 LCD(9)의 표시 화면 상에 확대 표시한다.
이렇게 상기 제2 촬상 동작에 의하면, 유저의 손가락(F)이 터치 패널(31)에 대하여 근접한 상태, 예를 들어 유저의 손가락(F)이 터치 패널(31)에 대하여 제2 터치 근접 범위 E2 내에 들어가 있는 상태에서 수평 방향으로 이동하면, 유저의 손가락(F)의 이동을 추종하여 포커스용 프레임(W)을 이동하고, 이 후, 유저의 손가락(F)이 일정 시간만큼 이동을 정지하면, 포커스용 프레임(W) 내의 피사체에 대한 오토 포커스(AF)를 재개하고, 터치 패널(31)로의 유저의 손가락(F)의 터치에 의해 촬상을 행한다.
이에 의해, 상기 제1 촬상 동작과 마찬가지의 효과를 발휘할 수 있는 외에, 유저의 손가락(F)이 이동해도, 유저의 손가락(F)의 이동을 추종하여 포커스용 프레임(W)을 이동할 수 있다. 예를 들어, LCD(9)의 표시 화면 상에서 인물의 얼굴부(S)가 이동했다고 해도, 얼굴부(S)의 이동을 추적하도록 유저의 손가락(F)을 이동하면, 인물의 얼굴부(S)의 이동을 추종하여 포커스용 프레임(W)을 이동할 수 있다. 이 후, 포커스용 프레임(W) 내의 인물의 얼굴부(S)에 오토 포커스해서 촬상을 행할 수 있다. 포커스용 프레임(W)의 이동 중은, 포커스용 프레임(W) 내의 인물의 얼굴부(S)에 대한 오토 포커스(AF)를 행하는 일이 없으므로, 포커스를 필요로 하지 않을 때에 당해 오토 포커스(AF)를 행하는 일 없이, 불필요한 동작을 행하는 일이 없다. 또, 주요 피사체인 인물의 얼굴부(S)를 다른 인물의 얼굴부(S)로 변경하는 경우에도, 유저의 손가락(F)을 이동해서 다른 인물의 얼굴부(S)에 대응하는 부분의 터치 패널(31)에 근접해서 터치하려고 하면, 당해 터치하려고 하는 화상 부분에 포커스용 프레임(W)을 표시할 수 있다.
[제3 촬상 동작]
이어서, 제3 촬상 동작에 대해서 도 17에 도시한 촬상 동작 흐름도를 원용하고, 또한 도 21에 도시한 촬상 동작 중의 프레임 확대 축소 표시 흐름도를 따라서 설명한다. 도 22는 촬상 동작 타이밍도를 나타낸다. 도 22는, 상기 도 12와 마찬가지로, 터치 패널(31)과 예를 들어 유저의 손가락(F) 사이에 발생하는 정전 용량값의 센싱 가능한 기간과, LCD(9)의 표시면에 표시되는 포커스용 프레임(W)의 표시 기간과, 오토 포커스(AF)를 실행하는 기간과, 촬영을 실행하는 기간을 나타낸다. 또한, 상기 제2 촬상 동작과 동일 부분에는 동일 부호를 붙이고 그 상세한 설명은 생략한다.
제3 촬상 동작에서는, 유저는 손가락(F)을 터치 패널(31)에 대하여 경사지는 방향으로부터 근접한다. 터치 패널 제어부(30)는, 도 5에 도시한 바와 같이 터치 패널(31)에 대하여 접근하는 유저의 손가락(F)의 위치를 경사의 각도 θ에 기초하여 구하고, 유저의 손가락(F)의 위치에 대응하는 LCD(9)의 표시 화면 상에 포커스용 프레임(W)을 표시한다.
프레임 표시 제어부(40)는 유저의 손가락(F)이 터치 패널(31)에 접근할 때마다, 포커스용 프레임(W)의 사이즈를 차례로 축소한다. 프레임 표시 제어부(40)는, 예를 들어 포커스용 프레임(W)의 사이즈로서 복수의 사이즈, 예를 들어 특대 사이즈 WE, 대형 사이즈 WL, 중형 사이즈 WM, 소형 사이즈 WS를 포함한다. 프레임 표시 제어부(40)는, 예를 들어 제2 터치 근접 범위 E2 내를 예를 들어 4개의 사이즈별 범위로 분할하고, 터치 패널(31)에서 먼 사이즈별 범위의 순으로 포커스용 프레임(W)의 사이즈를 특대 사이즈 WE, 대형 사이즈 WL, 중형 사이즈 WM, 소형 사이즈 WS로 설정한다.
도 23은 포커스용 프레임(W)의 사이즈를 변경할 때의 각 사이즈별 범위의 모식도를 나타낸다. 제2 터치 근접 범위 E2 내는, 복수의 사이즈별 범위, 예를 들어 제1 내지 제4 사이즈별 범위 E10 내지 E13로 구획되어 있다. 제1 내지 제4 사이즈별 범위 E10 내지 E13은, 각각 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량값 Tha, Thb, Thc에 의해 구획된다. 각 정전 용량값 Tha, Thb, Thc 크기의 관계는, Tha < Thb < Thc이다. 제1 사이즈별 범위 E10은, 정전 용량값 Th2-Tha 사이이다. 제2 사이즈별 범위 E11은, 정전 용량값 Tha-Thb 사이이다. 제3 사이즈별 범위 E12는, 정전 용량값 Thb-Thc 사이이다. 제4 사이즈별 범위 E13은, 정전 용량값 Thc-Th3 사이이다.
따라서, 프레임 표시 제어부(40)는 유저의 손가락(F)이 터치 패널(31)에 접근해서 제2 터치 근접 범위 E2의 제1 내지 제4 사이즈별 범위 E10 내지 E13 내에 차례로 들어가면, 특대 사이즈 WE, 대형 사이즈 WL, 중형 사이즈 WM, 소형 사이즈 WS의 순으로 포커스용 프레임(W)의 사이즈를 변경한다. 이 사이즈 변경에 의해 포커스용 프레임(W)의 사이즈는, 차례로 축소된다.
유저의 손가락(F)이 터치 패널(31)로부터 떨어져, 예를 들어 유저의 손가락(F)이 제4 내지 제1 사이즈별 범위 E13 내지 E10 내에 들어가면, 프레임 표시 제어부(40)는 소형 사이즈 WS, 중형 사이즈 WM, 대형 사이즈 WL, 특대 사이즈 WE의 순으로 포커스용 프레임(W)의 사이즈를 변경한다. 이 사이즈 변경에 의해 포커스용 프레임(W) 사이즈는, 차례로 확대된다.
이 제3 촬상 동작이면, 촬영 모드에 있어서, 유저의 손가락(F)이 터치 패널(31)에 대하여 경사지는 방향에서 접근하여 터치하려고 한다.
도 24의 (a) 및 (b)는, 터치 패널(31)에 유저의 손가락(F)이 경사지는 방향에서 터치하려고 하는 상태를 나타내는 것으로, 도 24의 (a)는 상기 상태에 있어서의 LCD(9)에 표시되는 화상을 나타내고, 도 24의 (b)는 상기 상태에 있어서의 경사지는 방향에서 터치하려고 하는 유저의 손가락(F)을 모식적으로 도시한다.
유저의 손가락(F)이 도 24의 (b), 도 25의 (b)에 도시한 바와 같이 경사지는 방향으로 이동하고, 제1 터치 근접 범위 E1을 통해 제2 터치 근접 범위 E2 내에 들어가면, 터치 패널 제어부(30)는 스텝 #14에 있어서, 상기 도 5에 도시한 바와 같이 터치 패널(31) 상에 투영되는 유저의 손가락(F)의 좌표 위치를 구한다. 이와 함께, 터치 패널 제어부(30)는 스텝 #16에 있어서, 유저의 손가락(F)이 제2 터치 근접 범위 E2 내에 들어갔다는 취지를 프레임 표시 제어부(40)로 보낸다. 프레임 표시 제어부(40)는, 유저의 손가락(F)이 제2 터치 근접 범위 E2 내에 존재한다는 취지를 받으면, 도 26의 (a)에 도시한 바와 같이 LCD(9)에 포커스용 프레임(W)을 표시한다.
이때로부터 유저의 손가락(F)이 터치 패널(31)에 접근할 때마다, 프레임 표시 제어부(40)는, 도 21에 나타낸 프레임 확대 축소 표시 흐름도를 따라서 포커스용 프레임(W)의 사이즈를 차례로 축소한다. 즉, 프레임 표시 제어부(40)는 도 23에 도시한 바와 같이 유저의 손가락(F)이 제1 터치 근접 범위 E2 내에 들어가면, 스텝 #50에 있어서, 유저의 손가락(F)이 제1 사이즈별 범위 E10 내에 들어가 있는지 여부를 판정한다. 이 판정은, 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량값이 Th2-Tha 사이에 있는지 여부에 의해 판정된다.
이 판정의 결과, 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량값이 Th2-Tha 사이에 있으면, 프레임 표시 제어부(40)는 스텝 #51에 있어서, 특대 사이즈 WE의 포커스용 프레임(W)을 LCD(9)에 표시한다.
프레임 표시 제어부(40)는 스텝 #52에 있어서, 유저의 손가락(F)이 제2 사이즈별 범위 E11 내에 들어가 있는지 여부를 판정한다. 이 판정은, 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량값이 Tha-Thb 사이에 있는지 여부에 의해 판정된다.
이 판정의 결과, 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량값이 Tha-Thb 사이에 있으면, 프레임 표시 제어부(40)는 스텝 #53에 있어서, 대형 사이즈 WL의 포커스용 프레임(W)을 LCD(9)에 표시한다.
프레임 표시 제어부(40)는 스텝 #54에 있어서, 유저의 손가락(F)이 제3 사이즈별 범위 E12 내에 들어가 있는지 여부를 판정한다. 이 판정은, 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량값이 Thb-Thc 사이에 있는지 여부에 의해 판정된다.
이 판정의 결과, 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량값이 Thb-Thc 사이에 있으면, 프레임 표시 제어부(40)는 스텝 #55에 있어서, 중형 사이즈 WM의 포커스용 프레임(W)을 LCD(9)에 표시한다.
프레임 표시 제어부(40)는 스텝 #56에 있어서, 유저의 손가락(F)이 제4 사이즈별 범위 E13 내에 들어가 있는지 여부를 판정한다. 이 판정은, 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량값이 Thc-Th3 사이에 있는지 여부에 의해 판정된다.
이 판정의 결과, 터치 패널(31)과 유저의 손가락(F) 사이의 정전 용량값이 Thc-Th3 사이에 있으면, 프레임 표시 제어부(40)는 스텝 #57에 있어서, 소형 사이즈 WS의 포커스용 프레임(W)을 LCD(9)에 표시한다.
따라서, 프레임 표시 제어부(40)는 유저의 손가락(F)이 터치 패널(31)에 접근해서 제2 터치 근접 범위 E2의 제1 내지 제4 사이즈별 범위 E10 내지 E13 내에 차례로 들어가면, 특대 사이즈 WE, 대형 사이즈 WL, 중형 사이즈 WM, 소형 사이즈 WS의 순으로 포커스용 프레임(W)의 사이즈를 축소하도록 변경한다.
이하, 터치 패널 제어부(30)는 상기와 마찬가지로, 스텝 #17로 이행한다.
이렇게 상기 제3 촬상 동작에 의하면, 유저의 손가락(F)을 터치 패널(31)에 대하여 경사지는 방향으로부터 근접하는 경우, 터치 패널(31)에 대하여 접근하는 유저의 손가락(F)의 위치를 경사의 각도 θ에 기초하여 구하고, 유저의 손가락(F)의 위치에 대응하는 LCD(9)의 표시 화면 상에 포커스용 프레임(W)을 표시한다. 이에 의해, 유저의 손가락(F)을 터치 패널(31)에 대하여 경사지는 방향으로부터 근접할 수 있음으로써, 포커스용 프레임(W)이 유저 자신의 손가락(F)에 의해 숨겨지는 일이 없어, 포커스용 프레임(W)의 표시 위치를 확실하게 인식하면서 당해 포커스용 프레임(W) 내에 터치할 수 있어, 오토 포커스(AF)를 행하는 부분의 화상을 확인하면서 촬상을 할 수 있다.
유저의 손가락(F)이 터치 패널(31)에 접근할 때마다, 포커스용 프레임(W)의 사이즈를 예를 들어 특대 사이즈 WE, 대형 사이즈 WL, 중형 사이즈 WM, 소형 사이즈 WS의 순으로 축소하므로, 유저의 손가락(F)이 터치 패널(31)에 접근하는 데 수반하여 유저의 손가락(F)이 터치 패널(31)에 터치하기 전에, 유저의 손가락(F)이 터치하려고 하는 터치 패널(31)의 부위를 LCD(9)의 표시 화면 상에서 확인할 수 있다. 또, 유저의 손가락(F)을 포커스용 프레임(W) 내에 터치할 때의 조작을 하기 쉬워지고, 유저의 손가락(F)이 터치 패널(31)에 터치하는 타이밍을 잡기 쉬워져, 촬상 시의 조작성을 향상할 수 있다.
[제4 촬상 동작]
제4 촬상 동작에 있어서 터치 패널 제어부(30)는 터치 패널(31)에 대한 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP를 판정하기 위해, 미리 제1 이동 속도 ΔP1과 제2 이동 속도 ΔP2가 설정되어 있다. 제1 및 제2 이동 속도 ΔP1, ΔP2는, ΔP1 > ΔP2의 관계로 설정되어 있다.
터치 패널 제어부(30)는 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP1보다도 빠르거나, 미리 설정된 이동 속도 ΔP1과 ΔP2 사이이거나, 또는 이동 속도 ΔP2보다도 늦거나 중 어느 것인지를 판정한다.
터치 패널 제어부(30)는 터치 패널(31)에 대한 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP를 판정하는 것에 한정되지 않고, 상기 도 4 및 도 5에 도시한 바와 같이 유저의 손가락(F)이 제1 및 제2 터치 근접 범위 E1, E2에 근접하고 있는 상태에서의 유저의 손가락(F)의 이동 속도의 변화량 ΔP를 판정해도 된다.
프레임 표시 제어부(40)는 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP에 따른 복수 사이즈의 포커스용 프레임(W)을 포함한다. 예를 들어, 포커스용 프레임(W)은, LCD(9)의 표시 화면을 9 분할했을 때의 1개의 분할 영역에 상당하는 제1 사이즈와, LCD(9)의 표시 화면을 18 분할했을 때의 1개의 분할 영역에 상당하는 제2 사이즈와, LCD(9)의 표시 화면을 27 분할했을 때의 1개의 분할 영역에 상당하는 제3 사이즈를 포함한다. 각 포커스용 프레임(W)의 각 사이즈의 관계는, 제1 사이즈가 가장 크고, 다음으로 제2 사이즈가 크고, 다음으로 제3 사이즈가 크다. 포커스용 프레임(W)의 사이즈는, 제1 내지 제3 사이즈에 한정되지 않고, 다른 사이즈를 설정하거나, 사이즈의 종류를 증가하는 등의 변경을 해도 된다.
프레임 표시 제어부(40)는 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP, 예를 들어 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP1보다도 빠를 때, 제1 사이즈의 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에 표시한다.
프레임 표시 제어부(40)는 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP1과 ΔP2 사이일 때, 제2 사이즈의 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에 표시한다.
프레임 표시 제어부(40)는 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP2보다도 늦을 때, 제3 사이즈의 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에 표시한다.
이어서, 제4 촬상 동작에 대해서 도 28에 도시한 촬상 동작 흐름도에 따라서 설명한다.
시스템 컨트롤러(26)는 스텝 #60에 있어서, 예를 들어 유저의 모드 다이얼(6)에 대한 조작에 의해 선택된 모드가 촬영 모드인지 여부를 판정한다. 이 판정의 결과, 촬영 모드이면, 시스템 컨트롤러(26)는 스텝 #61에 있어서, 촬영 동작을 개시하고, 상기한 바와 마찬가지로, 피사체를 촬상할 때의 일련의 촬상 동작의 제어를 행하고, 스텝 #62에 있어서, 스루 화상을 LCD(9)에 라이브 뷰 표시한다.
터치 패널 제어부(30)는 스텝 #63에 있어서, 터치 패널(31)에 있어서의 정전 용량값의 변화를 모니터한다. 터치 패널 제어부(30)는 모니터한 정전 용량값이 터치 직전 범위 T가 되어, 터치 패널(31)에 대하여 유저의 손가락(F)이 터치되었는지 여부를 판정한다. 이와 함께, 터치 패널 제어부(30)는 유저의 손가락(F)이 터치 패널(31)에 터치하면, 당해 터치한 영역의 좌표 위치를 검출하고, 이 좌표 위치가 LCD(9)의 표시 화면 상에 있어서의 주변부인지 여부를 판정한다. LCD(9)의 표시 화면 상의 주변부는, 그 좌표 위치가 미리 설정되어 있다.
판정의 결과, 유저의 손가락(F)의 터치의 좌표 위치가 LCD(9)의 표시 화면 상에 있어서의 주변부가 아니면, 터치 패널 제어부(30)는 스텝 #64에 있어서, 유저의 손가락(F)의 터치의 좌표 위치가 LCD(9)의 표시 화면 상의 주변부 이외인지 여부를 판정한다.
이 판정의 결과, LCD(9)의 표시 화면 상의 주변부 이외이면, 포커스 제어부(41)는 스텝 #65에 있어서, 유저의 손가락(F)이 터치한 좌표 위치에 대응하는 화상 상의 피사체에 대하여 오토 포커스(AF)를 개시한다.
오토 포커스(AF)가 종료되고, 릴리즈 버튼(5)이 1nd 릴리즈 스위치로부터 2nd 릴리즈 스위치의 온 상태가 되면, 촬상 제어부(42)는 스텝 #66에 있어서, 촬상부(100)에 의해 정지 화상의 촬상을 행한다. 촬상 제어부(42)는, 촬상에 의해 취득된 주 화상 데이터를 인터페이스(22a)를 거쳐 기록 매체(22)에 기록한다.
상기 스텝 #64에서의 판정 결과, 유저의 손가락(F)의 터치의 좌표 위치가 LCD(9)의 표시 화면 상의 주변부 이외가 아니면, 촬상 제어부(42)는 스텝 #67에 있어서, 릴리즈 버튼(5)이 1nd 릴리즈 스위치로부터 2nd 릴리즈 스위치의 온 상태가 되어, 촬상 동작을 행하는지 여부를 판정한다. 이 판정의 결과, 촬상 동작을 행하는 것이면, 촬상 제어부(42)는 스텝 #68에 있어서, 얼굴 검출부(43)에 대하여 얼굴 검출의 지시를 보낸다. 얼굴 검출부(43)는 화상 데이터 중에 존재하는 피사체의 얼굴 부위 S를 검출한다.
피사체의 얼굴 부위 S가 검출되어, 릴리즈 버튼(5)이 1nd 릴리즈 스위치로부터 2nd 릴리즈 스위치의 온 상태가 되면, 촬상 제어부(42)는 스텝 #69에 있어서, 촬상부(100)에 의해 정지 화상의 촬상을 행하고, 이 촬상에 의해 취득된 주 화상 데이터를 인터페이스(22a)를 거쳐 기록 매체(22)에 기록한다.
한편, 상기 스텝 #63에서의 판정 결과, 유저의 손가락(F)에 의해 터치한 좌표 위치가 LCD(9)의 표시 화면 상에 있어서의 주변부가 아니면, 터치 패널 제어부(30)는 유저의 손가락(F)에 의해 터치한 좌표 위치가 LCD(9)의 표시 화면 상에 있어서의 주변부가 아닌 취지와 유저의 손가락(F)이 터치한 좌표 위치를 프레임 표시 제어부(40)로 보낸다.
프레임 표시 제어부(40)는 스텝 #70에 있어서, 도 29의 (a)에 도시한 바와 같이 LCD(9)의 표시 화면 상에 있어서의 주변부이고, 또한 유저의 손가락(F)이 터치한 좌표 위치에 대응하는 위치에 LCD(9)에 포커스용 프레임(W)을 표시한다. LCD(9)의 표시 화면 상의 주변부에 포커스용 프레임(W)을 표시하는 것은, 예를 들어 피사체로서 인물을 촬상할 경우, LCD(9)의 표시 화면의 중앙부에 인물을 배치하는 것이 일반적이며, 상기 표시 화면의 주변부이면, 포커스용 프레임(W)을 표시해도, 피사체를 촬상할 때의 구도에 영향을 주지 않기 때문이다.
여기서, 유저는 LCD(9)의 표시 화면 상에서 포커스용 프레임(W)에 터치한 상태에서 상기 표시 화면 상을 이동하고, 포커스용 프레임(W)을 피사체의 얼굴부(S) 상에 설정한다.
프레임 표시 제어부(40)는 스텝 #71에 있어서, 도 29의 (b)에 도시한 바와 같이 유저의 손가락(F)이 이동했는지 여부를 판정한다. 이 판정의 결과, 유저의 손가락(F)이 이동하면, 프레임 표시 제어부(40)는 스텝 #72에 있어서, 유저의 손가락(F)의 이동을 추종하여 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에서 이동한다. 프레임 표시 제어부(40)는 유저의 손가락(F)의 이동을 추종하여 포커스용 프레임(W)을 이동할 경우, 유저의 손가락(F)의 이동하는 속도 및 방향에 따른 속도 및 방향으로 포커스용 프레임(W)을 이동한다.
프레임 표시 제어부(40)는 스텝 #73에 있어서, 유저의 손가락(F)의 이동이 종료되었는지 여부를 판정하고, 종료되지 않았다면, 유저의 손가락(F)의 이동을 추종하여 포커스용 프레임(W)의 표시를 계속한다.
도 30은 포커스용 프레임(W)의 프레임 표시 이동 흐름도를 나타낸다.
터치 패널 제어부(30)는 스텝 #80에 있어서, 유저의 손가락(F)이 터치한 좌표 위치의 변화를 판정한다. 즉, 터치 패널 제어부(30)는 터치 패널(31) 상에 있어서의 정전 용량값의 변화가 큰 부위의 좌표 위치를 검출하고, 시간 경과와 함께 이동하는 정전 용량값의 변화가 큰 부위의 좌표 위치를 차례로 검출하고, 각 좌표 위치로부터 유저의 손가락(F)이 터치하는 터치 패널(31) 상의 좌표 위치의 이동을 검출한다. 프레임 표시 제어부(40)는 유저의 손가락(F)이 터치하는 터치 패널(31) 상의 이동을 추종하여 포커스용 프레임(W)을 이동할 경우, 유저의 손가락(F)의 터치 위치의 이동하는 속도 및 방향에 따른 속도 및 방향으로 포커스용 프레임(W)을 이동한다. 여기서, 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량을 ΔP라 하고, 이동하는 방향을 D라 한다.
터치 패널 제어부(30)는 스텝 S81에 있어서, 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP1보다도 큰지 여부(ΔP > ΔP1)를 판정한다. 터치 패널 제어부(30)는 스텝 S82에 있어서, 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP2보다도 큰지 여부(ΔP > ΔP2)를 판정한다.
각 판정의 결과, 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP, 예를 들어 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP1보다도 빠를 때, 프레임 표시 제어부(40)는 스텝 #82에 있어서, 제1 사이즈의 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에 표시한다.
유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP1과 ΔP2 사이일 때, 프레임 표시 제어부(40)는 스텝 #84에 있어서, 제2 사이즈의 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에 표시한다.
유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP2보다도 늦을 때, 프레임 표시 제어부(40)는 스텝 #85에 있어서, 제3 사이즈의 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에 표시한다.
도 29의 (a), (b) 및 (c)에 도시한 바와 같이 유저가 손가락(F)을 LCD(9)의 표시 화면 상에 있어서의 주변부에 터치해서 포커스용 프레임(W)을 표시하고, 포커스용 프레임(W)을 피사체인 인물의 얼굴부(S)에 맞출 경우, 유저의 손가락(F)의 이동 속도는 이동의 개시 시에 빠르고, 얼굴부(S)에 근접함에 따라 감속한다. 유저의 손가락(F)의 이동 속도의 변화량 ΔP는, 예를 들어 이동 개시의 당초에서 ΔP > ΔP1, 다음으로 ΔP1 > ΔP > ΔP2가 되고, 인물의 얼굴부(S)에 맞추려고 할 때에 ΔP2 > ΔP가 된다.
프레임 표시 제어부(40)는 우선, 제1 사이즈의 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에 표시하고, 이어서 제2 사이즈의 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에 표시하고, 이어서 제3 사이즈의 포커스용 프레임(W)을 LCD(9)의 표시 화면 상에 표시한다.
프레임 표시 제어부(40)는 스텝 #73에 있어서, 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 없어져, 제3 사이즈의 포커스용 프레임(W)의 이동이 종료되었는지 여부를 판정한다.
이 판정의 결과, 제3 사이즈의 포커스용 프레임(W)의 이동이 종료되면, 포커스 제어부(41)는 스텝 #74에 있어서, 제3 사이즈의 포커스용 프레임(W) 내에 대응하는 화상 상의 피사체에 대하여 오토 포커스(AF)를 개시한다.
오토 포커스(AF)가 종료되면, 촬상 제어부(42)는 스텝 #75에 있어서, 제3 사이즈의 포커스용 프레임(W) 내에 대응하는 피사체의 동화상의 스루 화상을 확대하고, 확대된 스루 화상(K)을 LCD(9)에 라이브 뷰 표시한다. 촬상 제어부(42)는 제3 사이즈의 포커스용 프레임(W) 내의 확대된 스루 화상(K)을, LCD(9)의 표시 화면 중의 예를 들어 피사체로서 인물에 겹치지 않는 영역에 표시한다.
촬상 제어부(42)는 스텝 #76에 있어서, 릴리즈 버튼(5)이 1nd 릴리즈 스위치로부터 2nd 릴리즈 스위치의 온 상태가 되면, 촬상부(100)에 의해 정지 화상의 촬상을 행한다. 촬상 제어부(42)는 스텝 #77에 있어서, 촬상에 의해 취득된 화상 데이터를 인터페이스(22a)를 거쳐 기록 매체(22)에 기록한다. 시스템 컨트롤러(26)는 촬상부(100)의 촬상에 의해 취득된 정지 화상을 LCD(9)의 표시 화면 상에 확대 표시한다.
이렇게 상기 제4 촬상 동작에 의하면, 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP1보다도 빠르거나, 미리 설정된 이동 속도 ΔP1과 ΔP2 사이이거나, 또는 이동 속도 ΔP2보다도 늦거나 중 어느 것인지를 판정한다. 이 판정의 결과, 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP1보다도 빠를 때, 제1 사이즈의 포커스용 프레임(W)이 표시된다. 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP1과 ΔP2 사이일 때, 제2 사이즈의 포커스용 프레임(W)이 표시된다. 유저의 손가락(F)의 터치 위치의 이동하는 속도의 변화량 ΔP가 미리 설정된 이동 속도 ΔP2보다도 늦을 때, 제3 사이즈의 포커스용 프레임(W)이 표시된다.
이에 의해, 포커스용 프레임(W)의 이동 당초에, 제1 사이즈의 포커스용 프레임(W)을 표시함으로써 피사체인 인물의 얼굴부(S)에 대하여 위치 정렬을 하기 쉬워진다. 포커스용 프레임(W)이 얼굴부(S)에 근접함에 따라서 포커스용 프레임(W)의 이동 속도가 감소되고, 제2 사이즈로부터 제3 사이즈의 포커스용 프레임(W)의 표시로 전환되어, 포커스용 프레임(W)을 얼굴부(S)에 맞추어 정확하게 위치 정렬할 수 있다.
100 : 촬상부
11 : 렌즈
12 : 조리개
13 : 오토 포커스(AF) 기구
14 : 셔터
15 : 촬상 센서
16 : 촬상 회로
17 : A/D 변환기
18 : 화상 처리 장치
23 : 파인더 화상 생성부
19 : 버퍼 메모리
21 : 압축 신장부
22a : 인터페이스
22 : 기록 매체
20 : 제1 액정 제어부
9 : 액정 디스플레이(LCD)
23 : 화상 생성부
3 : 표시 장치
24 : 제2 액정 제어부
30 : 터치 패널 제어부
31 : 터치 패널
31a : 센서
26 : 시스템 컨트롤러
27 : 조작부
25 : 스트로보 제어 회로
5 : 릴리즈 버튼
6 : 모드 다이얼
7 : 십자 키
8 : 확정 키
25 : 스트로보 제어 회로
4 : 스트로보
40 : 프레임 표시 제어부
41 : 포커스 제어부
42 : 촬상 제어부
43 : 얼굴 검출부
44 : 일람 표시부
45 : 화상 재생부

Claims (25)

  1. 동화상 또는 정지 화상을 표시하는 표시부와,
    상기 표시부에 설치된 터치 패널과,
    상기 터치 패널에 대하여 조작 부위가 근접하려고 하면, 상기 표시부에 포커스용 프레임을 표시함과 함께, 상기 터치 패널에 근접하려고 하는 상기 조작 부위의 이동을 추종하여 상기 포커스용 프레임을 이동하는 프레임 표시 제어부와,
    촬영 지시를 받아서 상기 포커스용 프레임 내의 피사체에 대하여 포커스를 실행해서 촬상을 행하는 촬상 제어부를 구비하는 것을 특징으로 하는 촬상 장치.
  2. 제1항에 있어서,
    피사체를 촬상하는 촬상부와,
    상기 터치 패널에 대하여 조작 부위가 근접하려고 하거나 또는 접촉했는지 여부를 판정하는 터치 패널 제어부와,
    상기 포커스용 프레임 내의 상기 피사체에 대하여 포커스를 실행하는 포커스 제어부를 구비하고,
    상기 표시부는, 상기 촬상부에 의해 촬상된 상기 동화상 또는 상기 정지 화상을 표시하고,
    상기 프레임 표시 제어부는, 상기 조작 부위가 상기 터치 패널에 근접하려고 하는 상태에서, 상기 표시부에 포커스용 프레임을 표시하고, 또한 상기 조작 부위의 이동을 추종하여 상기 포커스용 프레임을 이동하고,
    상기 촬상 제어부는, 상기 촬상부에 의해 촬상을 행하는 것을 특징으로 하는 촬상 장치.
  3. 제1항에 있어서,
    상기 표시부는 표시 화면을 포함하고,
    상기 터치 패널은 상기 표시 화면 상에 설치되고,
    상기 프레임 표시 제어부는, 상기 표시부의 상기 표시 화면 상에 있어서의 상기 터치 패널에 대하여 상기 조작 부위가 근접하려고 하는 부위에 대응하는 좌표 위치에 상기 포커스용 프레임을 표시하는 것을 특징으로 하는 촬상 장치.
  4. 제3항에 있어서,
    상기 조작 부위가 상기 터치 패널에 대하여 경사지는 방향으로부터 근접해서 접촉할 경우,
    상기 터치 패널 제어부는, 상기 경사의 각도에 기초하여 상기 조작 부위가 상기 터치 패널에 접촉하려고 하는 부위의 위치를 구하고, 이 부위의 위치에 대응하는 상기 표시 화면 상에 상기 포커스용 프레임을 표시하는 것을 특징으로 하는 촬상 장치.
  5. 제1항에 있어서, 상기 프레임 표시 제어부는, 근접 상태에 있는 상기 조작 부위의 이동을 추종하여 상기 포커스용 프레임을 상기 표시부의 상기 표시 화면 상에서 이동하는 것을 특징으로 하는 촬상 장치.
  6. 제5항에 있어서, 상기 프레임 표시 제어부는, 상기 조작 부위의 이동 속도에 따른 속도 및 이동 방향에 따른 방향으로 상기 포커스용 프레임을 이동하는 것을 특징으로 하는 촬상 장치.
  7. 제6항에 있어서, 상기 프레임 표시 제어부는, 상기 조작 부위와 상기 터치 패널과의 거리에 따라서 상기 포커스용 프레임의 사이즈를 축소·확대하는 것을 특징으로 하는 촬상 장치.
  8. 제7항에 있어서, 상기 프레임 표시 제어부는, 상기 조작 부위와 상기 터치 패널과의 거리가 짧아짐에 따라서 상기 포커스용 프레임의 사이즈를 축소하는 것을 특징으로 하는 촬상 장치.
  9. 제1항에 있어서, 상기 포커스 제어부는, 상기 프레임 표시 제어부에 의해 상기 포커스용 프레임의 이동 중에 상기 포커스의 실행을 행하지 않고, 상기 조작 부위가 정지되면, 상기 피사체에 대한 포커스를 실행하는 것을 특징으로 하는 촬상 장치.
  10. 제1항에 있어서, 상기 촬상 제어부는, 상기 조작 부위의 상기 터치 패널에 대한 접촉을 검출하면, 당해 접촉의 검출 시에 상기 촬상부에 의해 상기 피사체의 촬상 동작을 행하는 것을 특징으로 하는 촬상 장치.
  11. 제1항에 있어서,
    상기 포커스용 프레임 내에 상기 피사체의 얼굴 부위가 존재하는지 여부를 검출하는 얼굴 검출부를 포함하고,
    상기 프레임 표시 제어부는, 상기 얼굴 검출부에 의해 검출된 상기 얼굴 부위에 상기 포커스용 프레임의 표시 위치를 수정하는 것을 특징으로 하는 촬상 장치.
  12. 제1항에 있어서,
    상기 터치 패널 제어부는, 상기 터치 패널에 대하여 상기 조작 부위가 근접하는 거리에 따른 복수의 터치 근접 범위를 미리 설정하고, 상기 조작 부위가 상기 복수의 터치 근접 범위 중 어느 터치 근접 범위에 들어가 있는지를 판정하고,
    상기 프레임 표시 제어부는, 상기 터치 패널 제어부의 판정 결과, 상기 조작 부위가 상기 터치 패널에 대하여 상기 복수의 터치 근접 범위 중 상기 터치 패널로부터 먼 측의 상기 터치 근접 범위 내에 들어가면, 상기 포커스용 프레임을 상기 표시부의 표시 화면 상에 표시하는 것을 특징으로 하는 촬상 장치.
  13. 제1항에 있어서, 상기 포커스 제어부는, 상기 조작 부위가 상기 터치 패널에 대하여 상기 복수의 터치 근접 범위 중 상기 터치 패널에 가까운 측의 상기 터치 근접 범위 내에 들어가면, 상기 피사체에 대한 포커스를 실행하는 것을 특징으로 하는 촬상 장치.
  14. 제12항에 있어서,
    상기 조작 부위가 상기 터치 패널에 대하여 수직 방향 또는 경사지는 방향으로부터 근접해서 접촉할 경우,
    상기 터치 패널 제어부는, 상기 터치 패널에 대한 상기 조작 부위의 거리가 먼 순서대로 제1 및 제2 터치 근접 범위와, 터치 직전 범위를 설정하고,
    상기 프레임 표시 제어부는, 상기 조작 부위가 상기 제2 터치 근접 범위 내에 들어가면, 상기 포커스용 프레임을 상기 표시부의 표시 화면에 표시하고,
    상기 포커스 제어부는, 상기 조작 부위가 상기 터치 직전 범위 내에 들어가면, 상기 피사체에 대한 포커스를 실행하고,
    상기 촬상 제어부는, 상기 조작 부위가 상기 터치 패널에 접촉하면, 상기 촬상부에 의해 촬상 동작을 행하는 것을 특징으로 하는 촬상 장치.
  15. 제14항에 있어서, 상기 프레임 표시 제어부는, 상기 조작 부위가 상기 제2 터치 근접 범위 내에 들어가, 상기 조작 부위가 상기 터치 패널에 접근할 때마다, 상기 포커스용 프레임의 사이즈를 차례로 축소하는 것을 특징으로 하는 촬상 장치.
  16. 제14항에 있어서, 상기 포커스 제어부는, 상기 조작 부위가 상기 제2 터치 근접 범위 내에 들어가 상기 포커스를 실행 중에, 상기 조작 부위가 이동하면, 상기 포커스의 실행을 중단하고, 다시 상기 조작 부위가 정지되면, 상기 피사체에 대한 포커스의 실행을 재개하는 것을 특징으로 하는 촬상 장치.
  17. 제14항에 있어서, 상기 촬상 제어부는, 상기 촬상부의 촬상에 의해 취득한 상기 피사체의 화상을 상기 표시부의 표시 화면 상에 확대 표시하는 것을 특징으로 하는 촬상 장치.
  18. 제1항에 있어서,
    재생 모드 시에, 복수의 화상을 상기 표시부의 표시 화면에 표시하는 일람 표시부와,
    상기 복수의 화상 중 어느 하나의 화상이 선택되면, 당해 선택된 화상을 상기 표시부에 확대 표시하는 화상 재생부를 포함하고,
    상기 프레임 표시 제어부는, 상기 터치 패널 제어부에 의해 상기 조작 부위가 근접 또는 접촉하고 있는 상태에서, 상기 표시부에 포커스용 프레임을 표시하고, 또한 상기 조작 부위의 이동을 추종하여 상기 포커스용 프레임을 상기 선택된 화상으로 이동하는 것을 특징으로 하는 촬상 장치.
  19. 동화상 또는 정지 화상을 표시하는 표시부에 설치된 터치 패널에 대하여 조작 부위가 근접하려고 하는지를 검출하고,
    상기 조작 부위가 상기 터치 패널에 대하여 근접하려고 하면, 상기 표시부에 포커스용 프레임을 표시함과 함께, 상기 터치 패널에 근접하려고 하는 상기 조작 부위의 이동을 추종하여 상기 포커스용 프레임을 이동하고,
    촬영 지시를 받으면, 상기 포커스용 프레임 내의 피사체에 대하여 포커스를 실행하고, 상기 피사체에 대한 촬상을 행하는 것을 특징으로 하는 촬상 장치의 촬상 방법.
  20. 제19항에 있어서,
    상기 조작 부위가 상기 터치 패널에 대하여 경사지는 방향으로부터 근접하려고 하는 경우,
    상기 터치 패널에 대하여 접근하려고 하는 상기 조작 부위의 위치를 상기 경사에 기초하여 구하고, 이 조작 부위의 위치에 대응하는 상기 표시부 상에 상기 포커스용 프레임을 표시하는 것을 특징으로 하는 촬상 장치의 촬상 방법.
  21. 제19항에 있어서, 상기 포커스용 프레임의 이동은, 근접 상태에 있는 상기 조작 부위의 이동을 추종하는 것을 특징으로 하는 촬상 장치의 촬상 방법.
  22. 제21항에 있어서, 상기 포커스용 프레임은, 상기 조작 부위와 상기 터치 패널과의 거리에 따라서 상기 포커스용 프레임의 사이즈를 축소·확대하는 것을 특징으로 하는 촬상 장치의 촬상 방법.
  23. 제22항에 있어서, 상기 포커스용 프레임은, 상기 조작 부위와 상기 터치 패널과의 거리가 짧아짐에 따라서 상기 포커스용 프레임의 사이즈를 축소하는 것을 특징으로 하는 촬상 장치의 촬상 방법.
  24. 제19항에 있어서, 상기 포커스는, 상기 포커스용 프레임의 이동 중에 상기 포커스를 실행하지 않고, 상기 조작 부위가 정지되면, 상기 피사체에 대하여 실행하는 것을 특징으로 하는 촬상 장치의 촬상 방법.
  25. 동화상 또는 정지 화상을 표시하는 표시부에 설치된 터치 패널에 대하여 조작 부위가 근접 또는 접촉했는지를 검출시키는 검출 기능과,
    상기 조작 부위가 상기 터치 패널에 대하여 근접하려고 하면, 상기 표시부에 포커스용 프레임을 표시함과 함께, 상기 터치 패널에 근접하려고 하는 상기 조작 부위의 이동을 추종하여 상기 포커스용 프레임을 이동시키는 추종 기능과,
    촬영 지시를 받으면, 상기 포커스용 프레임 내의 피사체에 대하여 포커스를 실행하고, 상기 피사체에 대한 촬상을 행하게 하는 촬상 기능을 포함하는 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된, 기억 매체.
KR1020147017340A 2011-12-16 2012-12-13 촬상 장치 및 그 촬상 방법, 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된 기억 매체 KR101585488B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011275924 2011-12-16
JPJP-P-2011-275924 2011-12-16
PCT/JP2012/082364 WO2013089190A1 (ja) 2011-12-16 2012-12-13 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体

Publications (2)

Publication Number Publication Date
KR20140101816A true KR20140101816A (ko) 2014-08-20
KR101585488B1 KR101585488B1 (ko) 2016-01-14

Family

ID=48612631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147017340A KR101585488B1 (ko) 2011-12-16 2012-12-13 촬상 장치 및 그 촬상 방법, 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된 기억 매체

Country Status (6)

Country Link
US (1) US9113073B2 (ko)
EP (1) EP2782328A4 (ko)
JP (1) JP5373229B1 (ko)
KR (1) KR101585488B1 (ko)
CN (2) CN107197141B (ko)
WO (1) WO2013089190A1 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5523635B2 (ja) * 2012-05-24 2014-06-18 パナソニック株式会社 撮影装置
JP6302215B2 (ja) * 2012-11-23 2018-03-28 キヤノン株式会社 撮像装置
KR102056316B1 (ko) 2013-05-03 2020-01-22 삼성전자주식회사 터치 스크린 동작 방법 및 그 전자 장치
JP6213076B2 (ja) * 2013-09-05 2017-10-18 コニカミノルタ株式会社 タッチパネル入力装置、タッチパネル入力装置の制御方法、およびタッチパネル入力装置の制御プログラム
US9584725B2 (en) 2014-06-03 2017-02-28 Xiaomi Inc. Method and terminal device for shooting control
CN104065878B (zh) * 2014-06-03 2016-02-24 小米科技有限责任公司 拍摄控制方法、装置及终端
US9235278B1 (en) * 2014-07-24 2016-01-12 Amazon Technologies, Inc. Machine-learning based tap detection
CN104270573A (zh) * 2014-10-27 2015-01-07 上海斐讯数据通信技术有限公司 多点触控对焦成像系统和方法及适用的移动终端
CN107465877B (zh) * 2014-11-20 2019-07-09 Oppo广东移动通信有限公司 跟踪对焦方法及装置和相关介质产品
CN104506765B (zh) * 2014-11-21 2018-05-11 惠州Tcl移动通信有限公司 一种移动终端及其基于触摸手势的对焦方法
CN107003730B (zh) * 2015-03-13 2021-01-29 华为技术有限公司 一种电子设备、拍照方法及拍照装置
JP6222148B2 (ja) * 2015-03-19 2017-11-01 カシオ計算機株式会社 撮像装置、画像再生方法及びプログラム
KR102429427B1 (ko) * 2015-07-20 2022-08-04 삼성전자주식회사 촬영 장치 및 그 동작 방법
CN105681657B (zh) * 2016-01-15 2017-11-14 广东欧珀移动通信有限公司 一种拍摄对焦的方法及终端设备
JP6608966B2 (ja) * 2016-01-28 2019-11-20 マクセル株式会社 撮像装置
CN112653838B (zh) * 2016-08-31 2022-08-30 佳能株式会社 显示控制设备及其控制方法和存储介质
US11106315B2 (en) * 2018-11-29 2021-08-31 International Business Machines Corporation Touch screen device facilitating estimation of entity orientation and identity
US11523060B2 (en) 2018-11-29 2022-12-06 Ricoh Company, Ltd. Display device, imaging device, object moving method, and recording medium
US10798292B1 (en) * 2019-05-31 2020-10-06 Microsoft Technology Licensing, Llc Techniques to set focus in camera in a mixed-reality environment with hand gesture interaction
CN110908558B (zh) * 2019-10-30 2022-10-18 维沃移动通信(杭州)有限公司 一种图像显示方法及电子设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0213215D0 (en) * 2002-06-08 2002-07-17 Lipman Robert M Computer navigation
JP2006101186A (ja) 2004-09-29 2006-04-13 Nikon Corp カメラ
JP2006319903A (ja) * 2005-05-16 2006-11-24 Fujifilm Holdings Corp 情報表示画面を備えた携帯機器
JP4929630B2 (ja) * 2005-07-06 2012-05-09 ソニー株式会社 撮像装置、制御方法、およびプログラム
GB0617400D0 (en) * 2006-09-06 2006-10-18 Sharan Santosh Computer display magnification for efficient data entry
JP4530067B2 (ja) * 2008-03-27 2010-08-25 ソニー株式会社 撮像装置、撮像方法及びプログラム
KR101505681B1 (ko) * 2008-09-05 2015-03-30 엘지전자 주식회사 터치 스크린을 구비한 이동 단말기 및 이를 이용한 이미지 촬상 방법
US8913176B2 (en) * 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
JP2011009846A (ja) * 2009-06-23 2011-01-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP2011028560A (ja) * 2009-07-27 2011-02-10 Sony Corp 情報処理装置、表示方法及び表示プログラム
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
US20110084962A1 (en) * 2009-10-12 2011-04-14 Jong Hwan Kim Mobile terminal and image processing method therein
US8826184B2 (en) * 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
JP5848561B2 (ja) * 2011-09-20 2016-01-27 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
WO2013089190A1 (ja) 2013-06-20
US9113073B2 (en) 2015-08-18
EP2782328A4 (en) 2015-03-11
JPWO2013089190A1 (ja) 2015-04-27
CN104012073B (zh) 2017-06-09
CN107197141B (zh) 2020-11-03
KR101585488B1 (ko) 2016-01-14
JP5373229B1 (ja) 2013-12-18
US20140293086A1 (en) 2014-10-02
CN107197141A (zh) 2017-09-22
CN104012073A (zh) 2014-08-27
EP2782328A1 (en) 2014-09-24

Similar Documents

Publication Publication Date Title
KR101585488B1 (ko) 촬상 장치 및 그 촬상 방법, 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된 기억 매체
US11747958B2 (en) Information processing apparatus for responding to finger and hand operation inputs
EP2701051B1 (en) Electronic apparatus and control method thereof
US9998651B2 (en) Image processing apparatus and image processing method
US8810709B2 (en) Image capturing apparatus and control method thereof
JP5306266B2 (ja) 撮像装置及びその制御方法
JP5760324B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム並びにこの画像処理プログラムが記録された記録媒体
US20120026364A1 (en) Image pickup apparatus
US20120319968A1 (en) Imaging control device and imaging control method
CN103024265A (zh) 摄像装置和摄像装置的摄像方法
JP2011035765A (ja) 画像処理装置および画像処理方法
JP5594157B2 (ja) 撮像装置および撮像方法
JP6104338B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
JP2013143578A (ja) 画像処理装置およびその制御方法
JP2013178520A (ja) 撮像装置及びその制御方法
KR102669853B1 (ko) 다중-카메라 시스템들에 대한 카메라 스위칭오버 제어 기술들
JP2014225846A (ja) 撮像装置、その制御方法及びプログラム
JP6239077B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
JP2018006803A (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP5840256B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
JP6545048B2 (ja) 電子機器、電子機器の制御方法及びプログラム
KR20240078637A (ko) 다중-카메라 시스템들에 대한 카메라 스위칭오버 제어 기술들
JP2010130281A (ja) 撮像装置
JP2019212966A (ja) 撮像装置及びその制御方法、プログラム
JP2017175306A (ja) 撮像装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190102

Year of fee payment: 4