WO2013089190A1 - 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体 - Google Patents

撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体 Download PDF

Info

Publication number
WO2013089190A1
WO2013089190A1 PCT/JP2012/082364 JP2012082364W WO2013089190A1 WO 2013089190 A1 WO2013089190 A1 WO 2013089190A1 JP 2012082364 W JP2012082364 W JP 2012082364W WO 2013089190 A1 WO2013089190 A1 WO 2013089190A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch panel
control unit
imaging
frame
focus
Prior art date
Application number
PCT/JP2012/082364
Other languages
English (en)
French (fr)
Inventor
明 鵜川
Original Assignee
オリンパスイメージング株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスイメージング株式会社 filed Critical オリンパスイメージング株式会社
Priority to JP2013516885A priority Critical patent/JP5373229B1/ja
Priority to EP12858021.4A priority patent/EP2782328A4/en
Priority to KR1020147017340A priority patent/KR101585488B1/ko
Priority to CN201280062133.0A priority patent/CN104012073B/zh
Publication of WO2013089190A1 publication Critical patent/WO2013089190A1/ja
Priority to US14/305,301 priority patent/US9113073B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Definitions

  • the present invention relates to an imaging apparatus in which a display unit that displays an image acquired by imaging is provided with a touch panel, and an image corresponding to a contacted portion of an operation site such as a user's finger on the touch panel is displayed in an enlarged manner, for example.
  • Patent Document 1 As such an imaging apparatus, there is a technique disclosed in Patent Document 1, for example.
  • This technique enables a specific subject to be tracked to be selected at the time of shooting by an easy operation. Selection of a subject to be tracked by this technique is achieved by providing a touch panel on a monitor and touching this touch panel to extract a specific part corresponding to the touched part from the display image. This is performed by comparing the image represented by the video signal generated after the extraction and detecting the image portion corresponding to the specific part from the video signal.
  • the subject is selected by touching a touch panel provided on the monitor. For this reason, at the time of the touch operation, for example, the display image corresponding to the touched portion on the monitor is hidden and may not be seen.
  • An object of the present invention is to provide an imaging apparatus capable of capturing an image while confirming an image corresponding to a touched location on a monitor without being hidden, an imaging method thereof, and a storage medium for storing a tracking program that can be processed by a computer. It is in.
  • the imaging device includes a display unit that displays a moving image or a still image, a touch panel provided on the display unit, and a focus frame on the display unit when an operation site is close to the touch panel. And a frame display control unit that moves the focus frame following the movement of the operation part that is about to come close to the touch panel, and a subject that is in the focus frame upon receiving a shooting instruction. And an imaging control unit that performs focusing and performs imaging.
  • the imaging method of the imaging apparatus of the present invention it is detected whether the operation part is going to approach a touch panel provided on a display unit that displays a moving image or a still image, and the operation part approaches the touch panel.
  • the focus frame is moved following the movement of the operation part to be brought close to the touch panel, and when the photographing instruction is received, the focus is Focusing is performed on the subject in the frame, and imaging is performed on the subject.
  • a storage medium that stores a tracking program that can be processed by the computer of the present invention has a detection function that detects that an operation part is about to approach a touch panel provided on a display unit that displays a moving image or a still image; When the operation part tries to come close to the touch panel, a focus frame is displayed on the display unit, and the focus frame is moved following the movement of the operation part trying to come close to the touch panel.
  • a tracking function to be performed, and an imaging function that, when receiving a shooting instruction, performs focusing on the subject within the focus frame and causes the subject to be imaged.
  • the present invention can provide an imaging apparatus capable of imaging while confirming an image corresponding to a touched location on a monitor without being hidden, an imaging method thereof, and a storage medium that stores a tracking program that can be processed by a computer.
  • FIG. 1 is a configuration diagram showing a first embodiment of an imaging apparatus according to the present invention.
  • FIG. 2 is a schematic diagram showing a sensor pattern of a touch panel in the apparatus.
  • FIG. 3 is a diagram showing a state when a user's finger is brought close to the touch panel in the apparatus, for example.
  • FIG. 4 is a diagram showing a change in capacitance between the touch panel and the user's finger F in the apparatus.
  • FIG. 5 is a diagram showing a case where a user's finger is about to contact the touch panel at the same angle.
  • FIG. 6 is a diagram illustrating a change in capacitance value when a user's finger tries to touch the touch panel of the apparatus.
  • FIG. 1 is a configuration diagram showing a first embodiment of an imaging apparatus according to the present invention.
  • FIG. 2 is a schematic diagram showing a sensor pattern of a touch panel in the apparatus.
  • FIG. 3 is a diagram showing a state when a user's finger is brought close
  • FIG. 7 is a diagram showing a focus frame displayed on the display surface of the liquid crystal display in the apparatus.
  • FIG. 8 is a diagram showing movement of the focus frame following the movement of the user's finger in the apparatus.
  • FIG. 9 is a diagram showing reduction / enlargement of the size of the focus frame in accordance with the moving speed of the user's finger in the apparatus.
  • FIG. 10 is an imaging operation flowchart in the first imaging operation by the apparatus.
  • FIG. 11 is a shooting mode flowchart in the first imaging operation by the apparatus.
  • FIG. 12 is an imaging operation timing chart in the first imaging operation by the apparatus.
  • FIG. 13 is a view showing a display image and a position of the user's finger in a state where the user's finger is about to touch the touch panel in the apparatus.
  • FIG. 14 is a view showing a display image and a position of the user's finger in a state where the user's finger is in the first proximity range with respect to the touch panel in the apparatus.
  • FIG. 15 is a diagram showing a display image and a position of the user's finger in a state where the user's finger is in the second proximity range with respect to the touch panel in the apparatus.
  • FIG. 16 is a diagram showing a display image and a position of the user's finger in a state where the user's finger is in contact with the touch panel in the apparatus.
  • FIG. 17 is a shooting mode flowchart in the second imaging operation by the apparatus.
  • FIG. 18 is an imaging operation timing chart in the second imaging operation by the apparatus.
  • FIG. 19 is a diagram for explaining the tracking of the focus frame when the user's finger moves in the apparatus.
  • FIG. 20 is a diagram illustrating a state in which the user's finger in the apparatus stops moving for a predetermined time.
  • FIG. 21 is a frame enlargement / reduction display flowchart during the imaging operation in the apparatus.
  • FIG. 22 is an imaging operation timing chart in the third imaging operation by the apparatus.
  • FIG. 23 is a schematic diagram showing ranges for each size when changing the size of the focus frame in the apparatus.
  • FIG. 24 is a diagram showing a display image and a position of the user's finger in a state in which the user's finger approaches and touches the touch panel in the apparatus in a tilting direction.
  • FIG. 25 is a diagram showing a display image and a position of the user's finger in a state in which the user's finger approaches the touch panel in the device in a tilting direction and enters the first proximity range.
  • FIG. 26 is a diagram illustrating a display image and a position of the user's finger in a state in which the user's finger approaches the touch panel in the device in a tilting direction and enters the second proximity range.
  • FIG. 27 is a view showing a display image and a position of the user's finger in a state where the user's finger is in contact with the touch panel in the apparatus.
  • FIG. 28 is an imaging operation flowchart in the fourth imaging operation by the apparatus.
  • FIG. 29 is a diagram showing a display example of a focus frame on a display screen of a liquid crystal display in the same device.
  • FIG. 30 is a flowchart for moving the focus frame in the apparatus.
  • FIG. 1 shows a configuration diagram of an imaging apparatus.
  • the imaging unit 100 images a subject and outputs an imaging signal thereof.
  • the imaging unit 100 includes a lens 11, a diaphragm 12, an autofocus (AF) mechanism 13, a shutter 14, an imaging sensor 15, an imaging circuit 16, and an A / D converter 17.
  • the light beam from the subject enters the image sensor 15 from the lens 11 through the diaphragm 12 and the shutter 14.
  • the imaging sensor 15 converts the incident light beam into an electrical signal.
  • the imaging circuit 16 outputs an electrical signal from the imaging sensor 15 as an analog imaging signal.
  • the A / D converter 17 converts the analog imaging signal from the imaging circuit 16 into a digital imaging signal of a predetermined format and sends it to the image processing device 18 and the finder image generation unit 23.
  • the AF mechanism 13 moves the lens 11 in the optical axis direction and performs AF on the subject.
  • the image processing device 18 performs predetermined image processing on the digital imaging signal converted by the A / D conversion unit 17, for example, tone correction, gradation correction, and ⁇ (gamma) correction of an image to be represented by the image data.
  • the image signal subjected to these adjustments is temporarily stored in the buffer memory 19.
  • the compression / decompression unit 21 compresses / decompresses the image signal temporarily stored in the buffer memory 19, forms the image signal into a format suitable for recording on the recording medium 22, and generates main image data. Is recorded on the recording medium 22 via the interface 22a.
  • the first liquid crystal control unit 20 reads an image signal temporarily stored in the buffer memory 19 and displays a through image in a format suitable for displaying on the liquid crystal display (hereinafter referred to as LCD) 9 in response to the image signal. A so-called live view function for generating and displaying this through image on the LCD 9 is provided.
  • the first liquid crystal control unit 20 reads the image data recorded on the recording medium 22 through the buffer memory 19 and the compression / decompression unit 21 and displays the image data on the LCD 9.
  • the finder image generation unit 23 generates finder image data of a moving image in a format suitable for display on the display device 3 such as an EVF from the digital imaging signal converted by the A / D conversion unit 17.
  • the second liquid crystal control unit 24 displays the finder image data of the moving image generated by the finder image generation unit 23 on the display device 3 such as an EVF.
  • a touch panel 31 On the display screen of the LCD 9, a touch panel 31 is provided.
  • the touch panel 31 detects an operation part touching the touch panel 31, for example, a touch (contact) by a user's finger, and outputs a coordinate signal corresponding to the touch part.
  • the touch panel control unit 30 controls driving of the touch panel 31, inputs a coordinate signal output from the touch panel 31, and determines a touch site on the touch panel 31.
  • the touch panel control unit 30 determines whether, for example, the user's finger approaches or touches the touch panel 31 based on a change in capacitance between the touch panel 31 and the user's finger, for example.
  • FIG. 2 is a schematic diagram of a sensor pattern of the touch panel 31.
  • a plurality of sensors 31a are arranged at regular intervals in the xy direction.
  • each sensor 31a is, for example, based on a change in capacitance between the user's finger and the user's finger gradually approaching and touching the touch panel 31, or the user's finger is touching the touch panel. It is determined whether or not 31 is touched. Since the touch panel 31 has a protective layer such as a protective film, protective glass, or protective panel formed on the surface, the touch of the user's finger includes a touch on the protective layer.
  • Each sensor 31a is a capacitive projection type, and has a self-capacitance method and a mutual capacitance method.
  • the self-capacitance method senses a capacitance value generated between each sensor 31a and, for example, a user's finger.
  • a change in electric capacitance between adjacent sensors 31a is sensed.
  • FIG. 3 shows a state in which, for example, the user's finger F is brought close to the capacitive touch panel 31.
  • FIG. 4 shows a change in capacitance between the touch panel 31 and the user's finger F when the user's finger F is brought close to the capacitive touch panel 31.
  • the user's finger F is located above the coordinates (x, y, z) on the surface of the touch panel 31, for example.
  • each sensor 31a has a signal corresponding to the capacitance between the touch panel 31 and the user's finger F, that is, a distance D between the touch panel 31 and the user's finger F (hereinafter referred to as an inter-touch distance). A corresponding signal is output.
  • a plurality of touch proximity ranges E1 to En and a range T immediately before the touch are set.
  • first and second touch proximity ranges E ⁇ b> 1 and E ⁇ b> 2 and a touch immediately preceding range T are set.
  • the first and second touch proximity ranges E1 and E2 and the immediately preceding touch range T are when the touch distance D between the touch panel 31 and the user's finger F is D3, D2, and D1 (D3>D2> D1).
  • the distance between the distances D3-D2 is set as the first touch proximity range E1, and the distance between the distances D2-D3 is set as the second touch proximity range E2, within the distance D3 and on the touch panel 31.
  • the period immediately before touching F is set as a range T immediately before touching.
  • the first and second touch proximity ranges E1 and E2 and the immediately preceding touch range T are separated by capacitance values Th1, Th2, and Th3 between the touch panel 31 and the user's finger F.
  • the relationship between the magnitudes of the electrostatic capacitance values Th1, Th2, Th3 is Th1 ⁇ Th2 ⁇ Th3.
  • the first touch proximity range E1 is between the capacitance values Th1 and Th2.
  • the second touch proximity range E2 is between the capacitance values Th2-Th3.
  • the range T immediately before the touch is a slight range including the capacitance value Th3.
  • the touch panel control unit 30 monitors the operation in the touch AF mode, that is, the change in the capacitance value detected by each sensor 31a of the touch panel 31, and coordinates to touch the region where the capacitance value changes. Detect as position.
  • the touch panel control unit 30 monitors the change in the capacitance value on the touch panel 31, compares the monitored capacitance value with each of the capacitance values Th1, Th2, and Th3. It is determined whether F is present in the first touch proximity range E1, the second touch proximity range E2, or the range T immediately before touching, and whether the touch panel 31 is touched.
  • FIG. 5 shows a case where the user's finger F tries to touch the touch panel 31 in a direction in which the angle ⁇ is inclined.
  • the distance between the touches of the user's finger F and the display surface of the touch panel 31 is D (including D1, D2, and D3), and the horizontal distance between the point P to be touched and the user's finger F is x. Is defined as ⁇ (an angle with reference to the perpendicular of the display surface of the touch panel 31).
  • FIG. 6A, 6B, and 6C show the change of the capacitance value at regular intervals when the user's finger F tries to touch the touch panel 31.
  • the touch panel control unit 30 sets a position where a change in electrostatic capacitance is detected on the touch panel 31, for example, a position where a numerical value “1” appears as shown in FIG. 6A as a starting coordinate position ST1.
  • the capacitance on the touch panel 31 decreases.
  • the value increases.
  • the places where the numerical values “3” and “1” appear are increasing.
  • the touch panel control unit 30 detects a coordinate position ST2 of a location where the change in the capacitance value is the largest among the numerical values “3” and “1”, for example, a location of the numerical value “3”.
  • a horizontal movement distance x and a touch-to-touch distance D are obtained from the coordinate position ST2 and the position coordinate ST1 of the starting point.
  • the capacitance value is further increased on the touch panel 31.
  • the places where the numerical values “5”, “3”, “1”, etc. appear are increasing.
  • the touch panel control unit 30 detects the coordinate position ST3 of the location where the capacitance value changes most, for example, the location of the value “5”, among the values “5”, “3”, “1”, and the like.
  • the horizontal distance x and the touch-to-touch distance D are obtained from the coordinate position ST3 of the point “” and the coordinate position ST1 of the start point.
  • the touch panel control unit 30 detects the coordinate position STm of the place where the change in the capacitance value is the largest at regular time intervals, and touches the horizontal movement distance x and the touch from the coordinate position STm and the starting coordinate position ST1.
  • the distance D is obtained.
  • the touch panel control unit 30 determines the horizontal movement distance x and the touch-to-touch distance D at regular intervals from the coordinate position STm of the place where the capacitance value changes most and the immediately preceding coordinate position STm-1 at regular intervals. You may ask for.
  • the touch panel control unit 30 obtains the moving direction M of the user's finger F from each horizontal movement distance x and each touch distance D obtained every predetermined time, obtains the angle ⁇ from the moving direction M, and further moves the horizontal movement distance.
  • the coordinate position of the candidate point P to be touched by the user's finger F is obtained from x, the inter-touch distance D, and the angle ⁇ .
  • the touch panel control unit 30 determines the interval between touches between the user's finger F and the display surface of the touch panel 31 from the capacitance value detected by each sensor 31a of the touch panel 31. Find the distance D.
  • the touch panel control unit 30 obtains the coordinate position of the candidate point P to be touched by the user's finger F from the inter-touch distance D, the angle ⁇ , and the horizontal distance x.
  • the angle ⁇ of the user's finger F may be set to a preset angle, for example, 45 °.
  • the system controller 26 controls a series of imaging operations when imaging a subject.
  • the system controller 26 includes an imaging unit 100, an image processing device 18, a buffer memory 19, a compression / decompression unit 21, an interface 22a, a finder image generation unit 23, a touch panel control unit 30, and a first liquid crystal control unit. 20 and the second liquid crystal control unit 24 are controlled.
  • An operation unit 27 and a strobe control circuit 25 are connected to the system controller 26.
  • the operation unit 27 includes, for example, a release button 5, a mode dial 6, a cross key 7, and a confirmation key 8.
  • the operation unit 27 includes a power button, an end button, and the like.
  • the strobe control circuit 25 controls the operation of the strobe 4 that emits flash.
  • the system controller 26 includes a frame display control unit 40, a focus control unit 41, an imaging control unit 42, a face detection unit 43, a list display unit 44, and an image reproduction unit 45.
  • the frame display control unit 40 corresponds to the part of the touch panel 31 to be touched on the image displayed on the display screen of the LCD 9 as shown in FIG.
  • a focus frame W is displayed in the image area to be displayed.
  • the frame display control unit 40 displays the focus frame W around the coordinate position of the candidate point P obtained by the touch panel control unit 30.
  • the frame display control unit 40 displays the focus frame W when the user's finger F enters the second touch proximity range E2.
  • the focus frame W may be displayed from when the user's finger F enters the first touch proximity range E1.
  • the touch panel 31 that the user's finger F is about to touch before the user's finger F touches the touch panel 31. Can be confirmed on the display screen of the LCD 9. Since the part to which the user's finger F is to touch is before the user's finger F touches the touch panel 31, the focus frame W can be confirmed without being hidden by the user's finger F. In this confirmation, if the area touched by the user's finger F is different from the area requested by the user, the area to be touched by the user's finger F can be changed.
  • the focus control unit 41 described later can select the candidate point before the user's finger F touches the touch panel 31. It is possible to focus on the subject corresponding to the coordinate position of P. Compared with the case where the user's finger F touches the touch panel 31 and performs focusing, the time until focusing can be shortened.
  • the focus frame W is set, for example, on the face S of the person as the main subject by a user operation.
  • the focus frame W is formed in, for example, a square, but is not limited thereto, and may be formed in a circle, a rectangle, a double circle, or the like.
  • the frame display control unit 40 moves the user's finger F as shown in FIG. 8 in a state in which the user's finger F is close to the touch panel 31, for example, the user's finger F is in the second touch proximity range E2.
  • F moves in the same plane direction as the display screen of the LCD 9
  • the focus frame W is moved on the display screen of the LCD 9 following the movement of the user's finger F.
  • the focus frame W follows the movement of the user's finger F and is set to the face S of the moved person.
  • the frame display control unit 40 moves the focus frame W following the movement of the user's finger F
  • the frame display control unit 40 increases or decreases the speed according to the moving speed of the user's finger F, for example, the moving speed of the user's finger F.
  • the focus frame W is moved at a speed increased or decreased according to.
  • the frame display control unit 40 moves the focus frame W following the movement of the user's finger F
  • the frame display control unit 40 moves the focus frame W in the same direction as the direction in which the user's finger F moves.
  • the frame display control unit 40 reduces / enlarges the size of the focus frame W according to the distance D between touches between the user's finger F and the display surface of the touch panel 31. For example, the frame display control unit 40 reduces the size of the focus frame W in the direction of the arrow as shown in FIG. 9 as the inter-touch distance D becomes smaller, and the focus frame becomes larger as the inter-touch distance D becomes larger. Increase the size of W. If the size of the focus frame W is reduced, it is possible to display such that the candidate point P to be touched by the user's finger F is narrowed down.
  • the frame display control unit 40 stops the movement of the imaging apparatus for a preset long time without changing the shooting direction or composition of the subject, the display state of the focus frame W on the display screen of the LCD 9 is changed. You may lock it. The frame display control unit 40 unlocks the display state of the focus frame W when the imaging apparatus moves.
  • the focus control unit 41 performs a focus process on the candidate point P on the subject in the focus frame W before the user's finger F touches the touch panel 31.
  • the focus control unit 41 does not perform focus during movement of the focus frame W by the frame display control unit 40, that is, movement in the same plane as the display screen of the LCD 9, and moves the user's finger F. When is stopped, focus on the subject in the focus frame W is executed.
  • the focus control unit 41 may execute the focus after the focus frame W is displayed.
  • the focus control unit 41 focuses on the subject in the focus frame W. Execute.
  • the imaging control unit 42 detects a touch of the user's finger F on the touch panel 31, the imaging unit 100 captures an image when the touch is detected.
  • the face detection unit 43 determines whether or not the face part S of the subject exists in the image data, or whether or not the face part S of the subject exists in the focus frame W displayed in the image data. To detect.
  • the face detection unit 43 detects the face part S of the subject existing in the image data.
  • the frame display control unit 40 may display the focus frame W on the face part S of the subject.
  • the display of the focus frame W is started when the user's finger F enters the second touch proximity range E2 as described above.
  • the list display unit 44 displays a plurality of images as a list on the display screen of the LCD 9 in the playback mode.
  • the list display unit 44 reads, for example, a plurality of image data recorded on the recording medium 22 and displays each image data as a list on the display screen of the LCD 9 via the first liquid crystal control unit 20.
  • the image reproduction unit 45 displays the selected image data on the display screen of the LCD 9. Zoom in on the top.
  • the system controller 26 turns on the power of the touch panel 31 in step # 1, and turns on the power of the LCD 9 in step # 2.
  • the system controller 26 receives a mode selected by, for example, the user's operation on the mode dial 6, such as a shooting mode or a playback mode.
  • the system controller 26 determines whether the selected mode is a shooting mode or a playback mode. If the result of this determination is that the camera is in shooting mode, the system controller 26 moves to step # 5 and sets the shooting mode.
  • FIG. 12 shows an imaging operation timing chart.
  • the figure shows a period during which a capacitance value generated between the touch panel 31 and, for example, a user's finger F can be sensed, a display period of a focus frame W displayed on the display surface of the LCD 9, and autofocus ( AF) is performed, and a period during which shooting is performed is shown.
  • AF autofocus
  • the system controller 26 includes the imaging unit 100, the image processing device 18, the buffer memory 19, the compression / decompression unit 21, the interface 22a, the finder image generation unit 23, the touch panel control unit 30, and the first.
  • the liquid crystal control unit 20 and the second liquid crystal control unit 24 are controlled to control a series of imaging operations when imaging a subject. That is, the light beam from the subject enters the image sensor 15 from the lens 11 through the diaphragm 12 and the shutter 14. At this time, the AF mechanism 13 moves the lens 11 in the optical axis direction and performs AF on the subject.
  • the imaging sensor 15 converts the incident light beam into an electrical signal.
  • the electrical signal output from the imaging sensor 15 is output as an analog imaging signal by the imaging circuit 16, converted into a digital imaging signal of a predetermined format by the A / D converter 17, and the image processing device 18 and the finder image generation unit 23. And sent to.
  • the image processing device 18 performs predetermined image processing on the digital imaging signal converted by the A / D conversion unit 17, for example, tone correction, gradation correction, and ⁇ (gamma) correction of an image to be represented by the image data.
  • the image signal subjected to these adjustments is temporarily stored in the buffer memory 19.
  • the first liquid crystal control unit 20 reads an image signal temporarily stored in the buffer memory 19, generates a through image in a format suitable for display on the LCD 9 in response to the image signal, and sends the through image to the LCD 9. Display live view.
  • the system controller 26 determines in step # 10 whether or not the touch autofocus (AF) mode is set. If the touch AF mode is set as a result of this determination, the touch panel control unit 30 monitors the change in the capacitance value on the touch panel 31 and sets the region where the capacitance value changes as a coordinate position to be touched. To detect.
  • AF touch autofocus
  • the touch panel control unit 30 compares the monitored capacitance values with the respective capacitance values Th1, Th2, Th3, and the user's finger F with respect to the touch panel 31 is within the first touch proximity range E1, the second It is determined whether or not it is within the touch proximity range E2 or within the range T immediately before touching, and whether or not the touch panel 31 is touched.
  • step # 11 the touch panel control unit 30 monitors the change in the capacitance value on the touch panel 31 and determines that the user tries to touch the finger F close to the touch panel 31.
  • the place where the user's finger F is about to touch is an image on the LCD 9 that requires focus in the subject, for example, on the touch panel 31 corresponding to the face S of the person.
  • FIG. 13A and 13B show a state in which the user's finger F is about to touch the touch panel 31.
  • FIG. FIG. 13A shows an image displayed on the LCD 9 in the same state.
  • FIG. 13B shows an inter-touch distance D between the touch panel 31 and the user's finger F in the same state.
  • the touch panel control unit 30 determines that the user's finger F is within the first touch proximity range E1 (D3 ⁇ D> D2) as shown in FIG. 14B based on the change in the capacitance value on the touch panel 31. Determine if it exists.
  • the first touch proximity range E1 is, for example, within 30-20 mm from the surface of the touch panel 31.
  • the touch panel control unit 30 As a result of this determination, if the user's finger F is within the first touch proximity range E1, the touch panel control unit 30 generates capacitance between the touch panel 31 and the user's finger F by each sensor 31a of the touch panel 31. The sensing of the value becomes possible, and it is determined that the user's finger F is about to touch the touch panel 31. Since sensing becomes possible from the time when the user's finger F enters the first touch proximity range E1, when the user's finger F is outside the first touch proximity range E1, sensing is not performed and wasted power. Is not consumed.
  • the touch panel control unit 30 When the touch panel control unit 30 is outside the first touch proximity range E1, the touch panel control unit 30 suppresses sensing, operates when the interval between the user's finger F and the touch panel 31 is widened, or performs a circuit in the system controller 26. By restricting operations and operations, it is possible to eliminate unnecessary power consumption.
  • the capacitance value generated between the touch panel 31 and the user's finger F is set in advance, the capacitance value generated when another member different from the user's finger F tries to touch the touch panel 31. And can be distinguished. Thereby, it is possible to determine only that the user's finger F is about to touch the touch panel 31, and it is possible to prevent malfunction due to other members trying to touch the touch panel 31.
  • the touch panel control unit 30 determines the user's finger based on the change in the capacitance value on the touch panel 31 in step # 13. As shown in FIG. 15B, it is determined whether or not F is within the second touch proximity range E2 (D2 ⁇ D> D1).
  • the touch panel control unit 30 obtains the coordinate position of the user's finger F projected on the touch panel 31 in step # 14. That is, when the user's finger F approaches the display surface of the touch panel 31 and the inter-touch distance D decreases, the capacitance value increases on the touch panel 31 as shown in FIG. 6B. For example, each numerical value “3” “1” The number of places that appear is increasing.
  • the touch panel control unit 30 detects the coordinate position of the numerical value “3” or “1” having the largest change in capacitance value, for example, the position of the numerical value “3”. Find the coordinate position.
  • step # 15 the touch panel control unit 30 determines that the user's finger F has entered the second touch proximity range E2 from the capacitance value on the touch panel 31, and notifies the frame display control unit. Send to 40.
  • the frame display control unit 40 When receiving that the user's finger F is within the second touch proximity range E2, the frame display control unit 40 displays a focus frame W on the LCD 9 as shown in FIG. 15A. Since the focus frame W is displayed before the user's finger F touches the touch panel 31, the focus frame W is not hidden by the user's finger F, and the part of the touch panel 31 to be touched by the user's finger F is displayed. Can be confirmed on the display screen of the LCD 9.
  • the frame display control unit 40 does not display the focus frame W when the user's finger F is within the first touch proximity range E1, but does not display the focus frame W when the user's finger F is within the second touch proximity range E2. Is displayed. This is because, when the user's finger F is within the first touch proximity range E1, the distance between the user's finger F and the touch panel 31 is large, and it cannot be determined whether or not the user intends to touch the touch panel 31. Thereby, unnecessary display of the focus frame W can be prevented.
  • the inter-touch distance D between the user's finger F and the touch panel 31 is the inter-touch distance D2-D1 shown in FIG.
  • the second touch proximity range E2 is, for example, within 20-10 mm from the surface of the touch panel 31.
  • step # 16 the touch panel control unit 30 has the user's finger F within the immediately preceding touch range T (D1 ⁇ D> D0) as shown in FIG. 16B based on the change in capacitance value on the touch panel 31, It is determined whether or not the touch panel 31 has been touched.
  • step # 17 when the user's finger F is present in the range T immediately before the touch and the touch panel 31 is touched, the focus control unit 41 performs autofocus on the subject in the focus frame W (step # 17). AF) is started. In step # 18, the focus control unit 41 determines whether or not autofocus (AF) for the subject in the focus frame W has been completed. As a result of this determination, when the autofocus (AF) for the subject in the focus frame W is completed, the focus control unit 41 sets the autofocus (AF) to the locked state in step # 19.
  • step # 20 the touch panel control unit 30 places the user's finger F on the touch panel 31 corresponding to, for example, the face S of the person who requests focus in the subject as shown in FIG. 16B within the focus frame W. It is determined whether or not it has been touched. As a result of this determination, when the user's finger F touches the touch panel 31 corresponding to the face S of the person who requests the focus in the subject as shown in FIG. 30 determines that the user's finger F has touched the touch panel 31 from the capacitance value on the touch panel 31, and sends the fact to the imaging control unit 42.
  • step # 21 when the imaging control unit 42 receives a notification from the touch panel control unit 30 that the user's finger F has touched the touch panel 31, the imaging unit 100 captures a still image when the touch is detected. That is, the light beam from the subject enters the image sensor 15 from the lens 11 through the diaphragm 12 and the shutter 14.
  • the imaging sensor 15 converts the incident light beam into an electrical signal.
  • the electrical signal output from the imaging sensor 15 is output as an analog imaging signal by the imaging circuit 16, converted into a digital imaging signal of a predetermined format by the A / D converter 17, and sent to the image processing device 18.
  • the image processing device 18 performs predetermined image processing on the digital imaging signal converted by the A / D conversion unit 17, for example, tone correction, gradation correction, and ⁇ (gamma) correction of an image to be represented by the image data.
  • the image signal subjected to these adjustments is temporarily stored in the buffer memory 19.
  • the compression / decompression unit 21 compresses / decompresses the image signal temporarily stored in the buffer memory 19, forms it into a format suitable for recording on the recording medium 22, and forms a main image as a still image as shown in FIG. 16A. Image data is generated, and the main image data is recorded on the recording medium 22 via the interface 22a. Thereafter, the system controller 26 ends the photographing mode in step # 22.
  • step # 10 determines whether or not to continue autofocus (AF). Determine.
  • the system controller 26 determines that the release button 5 of the operation unit 27 is half-pressed by the user in step # 31 from the off state to the first release. Move to the ON state of the switch.
  • the system controller 26 ends the autofocus (AF) in step # 34, and determines in step # 35 whether or not the release button 5 is in the ON state of the 2nd release switch. If the result of this determination is that the 2nd release switch is on, the imaging control unit 42 causes the imaging unit 100 to perform an imaging operation of a still image of the subject in step # 36. The system controller 26 enlarges and displays the still image acquired by the imaging of the imaging control unit 42 on the display screen of the LCD 9.
  • step # 32 the system controller 26 moves to step # 32, and the release button 5 of the operation unit 27 is half-pressed by the user. Then, the state of the release button 5 changes from the off state to the on state of the 1st release switch.
  • the system controller 26 starts AF in step # 33, ends autofocus (AF) in step # 34, and proceeds to steps # 35, # 36, and # 23.
  • the system controller 26 returns to the imaging operation flowchart shown in FIG. 10 and reads the state of the mode dial 6 and the end button in the operation unit 27 in step # 6. If the system controller 26 continues to be set to the shooting mode, the system controller 26 returns to step # 3. When the end button is operated, the system controller 26 proceeds to step # 7 and turns off the power.
  • step # 8 the system controller 26 proceeds to step # 8 and performs playback mode operation.
  • the list display unit 44 reads, for example, a plurality of image data recorded on the recording medium 22 in the playback mode, and lists these image data on the display screen of the LCD 9 via the first liquid crystal control unit 20. indicate.
  • step # 9 when any one of the plurality of image data displayed as a list on the display screen of the LCD 9 is selected by the list display unit 44 in step # 9, the image playback unit 45 selects the selected image data. Are enlarged and displayed on the display screen of the LCD 9.
  • the focus frame W is displayed on the display screen of the LCD 9 corresponding to the adjacent image portion, and the focus
  • autofocus AF
  • an imaging operation is performed.
  • the user's finger F is touched on the touch panel 31 on the display screen of the LCD 9 by displaying the focus frame W on the image portion on which autofocus (AF) is performed.
  • AF autofocus
  • the touch panel 31 that the user's finger F is about to touch before the user's finger F touches the touch panel 31. Can be confirmed on the display screen of the LCD 9 without being hidden by the user's finger F. In this confirmation, if the area touched by the user's finger F is different from the area requested by the user, the area to be touched by the user's finger F can be changed.
  • the subject corresponding to the coordinate position of the candidate point P can be focused before the user's finger F touches the touch panel 31, it is possible to focus more than when the user's finger F touches the touch panel 31 and performs the focus. , The time to focus can be shortened.
  • FIG. 18 shows an imaging operation timing chart. 12, similar to FIG. 12, the period during which the capacitance value generated between the touch panel 31 and the user's finger F can be sensed and the focus frame W displayed on the display surface of the LCD 9 are illustrated. A display period, a period during which autofocus (AF) is performed, and a period during which shooting is performed are shown.
  • the same parts as those in the first imaging operation are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the second imaging operation is performed in a horizontal direction in a state where the user's finger F is close to the touch panel 31, for example, in a state where the user's finger F is present in the second touch proximity range E 2 with respect to the touch panel 31. That is, it is a case where it moves in a plane direction parallel to the display surface of the LCD 9.
  • the touch panel control unit 30 determines in step # 20 that the user's finger F requests focus in the subject as shown in FIG. It is determined whether or not the touch panel 31 corresponding to the face S is touched. If it is determined that the user's finger F is not touching the touch panel 31 as a result of the determination, the frame display control unit 40 moves to step # 40 and the user's finger F is close to the touch panel 31. In other words, the user's finger F moves in a plane direction parallel to the display surface of the LCD 9 as shown in FIG. 8 while the user's finger F exists in the second touch proximity range E2 shown in FIG. Determine whether or not. The state in which the user's finger F is present in the second touch proximity range E2 is determined from the capacitance value of the touch panel 31 by the touch panel control unit 30 as described above.
  • the capacitance value is displayed on the touch panel 31 as shown in FIG. And the number of places where each numerical value “5”, “3”, “1”, etc. appears is increased.
  • the touch panel control unit 30 obtains, as the coordinate position of the user's finger F, the location where the capacitance value changes most, for example, the location of the value “5”, among the values “5”, “3”, “1”, and the like.
  • the portion where the capacitance value increases on the touch panel 31 is the user's finger F.
  • the touch panel control unit 30 tracks the movement of the coordinate position of the user's finger F that is the place where the change in the capacitance value is the largest. By this tracking, the touch panel control unit 30 follows the movement of the user's finger F and sequentially sends each coordinate position to which the user's finger F moves to the frame display control unit 40.
  • the user's finger F moves so as to follow the movement of the person's face S as the person's face S in the image displayed on the display screen of the LCD 9 moves. Is done.
  • the frame display control unit 40 sequentially receives each coordinate position to which the user's finger F moves obtained by the touch panel control unit 30, and whether the user's finger F has moved a predetermined movement distance M, for example, 10 mm or more from each coordinate position. Determine whether or not. As a result of this determination, if it is determined that the moving distance of the user's finger F is, for example, 10 mm or more, the frame display control unit 40 receives the coordinates of the movement of the user's finger F sequentially received from the touch panel control unit 30 in step # 41.
  • the direction in which the user's finger F moves is determined based on the position, and as shown in FIGS. 19A and 19B, the movement distance 2M, for example, 20 mm, which is twice the predetermined movement distance M, For example, as shown in FIG. 8, the focus frame W is moved on the display screen of the LCD 9.
  • the frame display control unit 40 moves the focus frame W on the display screen of the LCD 9 following the movement of the user's finger F
  • the frame display control unit 40 moves at a speed proportional to the moving speed of the user's finger F. Move W.
  • the focus control unit 41 does not perform the focus on the subject and stops the focus.
  • step # 42 the frame display control unit 40 determines whether or not the user's finger F stops moving and stops at one place as shown in FIGS. 20A, 20B, and 20C, and the stop state continues for a certain period of time. Determine whether. If the result of this determination is that the user's finger F has moved, the frame display control unit 40 returns to step # 41 and displays the focus frame W on the display screen of the LCD 9 in accordance with each coordinate position to which the user's finger F moves. Move up. When the movement of the user's finger F stops for a certain period of time, the frame display control unit 40 sends to the focus control unit 41 that the movement of the user's finger F has stopped. In response to the fact that the movement of the user's finger F has stopped, the focus control unit 41 starts autofocus (AF) on the subject within the focus frame W.
  • AF autofocus
  • step # 20 the touch panel control unit 30 again in the focus frame W, for example, the touch panel 31 corresponding to the face S of a person for which the user's finger F requests focus in the subject as shown in FIG. 16B. Determine whether you touched the top.
  • the touch panel control unit 30 determines that the user's finger F has touched the touch panel 31 based on the capacitance value on the touch panel 31. The determination is made and a message to that effect is sent to the imaging control unit 42.
  • step # 21 when the imaging control unit 42 receives a notification from the touch panel control unit 30 that the user's finger F has touched the touch panel 31, the imaging unit 100 captures a still image when the touch is detected.
  • the system controller 26 enlarges and displays the still image acquired by the imaging of the imaging unit 100 on the display screen of the LCD 9.
  • the user's finger F is in proximity to the touch panel 31, for example, the user's finger F is within the second touch proximity range E2 with respect to the touch panel 31.
  • the focus frame W is moved following the movement of the user's finger F.
  • the focus frame W moves within the focus frame W.
  • Autofocus (AF) on the subject is resumed, and imaging is performed by touching the touch panel 31 with the user's finger F.
  • the focus frame W is moved following the movement of the user's finger F. be able to. For example, even if the person's face S moves on the display screen of the LCD 9, if the user's finger F is moved so as to track the movement of the face S, the focus follows the movement of the person's face S.
  • the frame W for use can be moved. Thereafter, it is possible to take an image by auto-focusing on the face portion S of the person in the focus frame W. While the focus frame W is moving, the auto focus (AF) is not performed on the face portion S of the person in the focus frame W. Therefore, the auto focus (AF) is performed when the focus is not necessary.
  • the focus frame W can be displayed on the image portion to be touched.
  • FIG. 22 shows an imaging operation timing chart. 12, similar to FIG. 12, the period during which the capacitance value generated between the touch panel 31 and the user's finger F can be sensed and the focus frame W displayed on the display surface of the LCD 9 are illustrated. A display period, a period during which autofocus (AF) is performed, and a period during which shooting is performed are shown.
  • the same parts as those in the second imaging operation are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the touch panel control unit 30 obtains the position of the user's finger F approaching the touch panel 31 based on the inclination angle ⁇ , and displays it on the display screen of the LCD 9 corresponding to the position of the user's finger F.
  • a focus frame W is displayed.
  • the frame display control unit 40 sequentially reduces the size of the focus frame W every time the user's finger F approaches the touch panel 31.
  • the frame display control unit 40 includes, for example, a plurality of sizes as the size of the focus frame W, for example, an extra large size WE, a large size WL, a medium size WM, and a small size WS.
  • the frame display control unit 40 divides, for example, the second touch proximity range E2 into, for example, four size ranges, and sets the size of the focus frame W in the order of the size range far from the touch panel 31 to the extra large size WE and the large size.
  • WL, medium size WM, and small size WS are set.
  • FIG. 23 shows a schematic diagram of ranges for each size when the size of the focus frame W is changed.
  • the second touch proximity range E2 is divided into a plurality of size ranges, for example, first to fourth size ranges E10 to E13.
  • the first to fourth size ranges E10 to E13 are divided by capacitance values Tha, Thb, and Thc between the touch panel 31 and the user's finger F, respectively.
  • the relationship between the capacitance values Tha, Thb, and Thc is Tha ⁇ Thb ⁇ Thc.
  • the first size range E10 is between the capacitance values Th2-Tha.
  • the second size-specific range E11 is between the capacitance values Tha-Thb.
  • the third size range E12 is between the capacitance values Thb-Thc.
  • the fourth size range E13 is between the capacitance values Thc-Th3.
  • the frame display control unit 40 displays the small size WS, the medium size WM, and the large size.
  • the size of the focus frame W is changed in the order of WL and extra-large size WE. By this size change, the size of the focus frame W is sequentially enlarged.
  • the user's finger F approaches and touches the touch panel 31 in the tilting direction in the shooting mode.
  • 24A and 24B show a state where the user's finger F is about to touch the touch panel 31 in a tilting direction.
  • FIG. 24A shows an image displayed on the LCD 9 in the same state
  • FIG. 24B shows a state in the same state.
  • toe F which is going to touch in the direction to incline is shown typically.
  • step # 14 the coordinate position of the user's finger F projected on the touch panel 31 is obtained as shown in FIG.
  • the touch panel control unit 30 sends to the frame display control unit 40 that the user's finger F has entered the second touch proximity range E2 in step # 16.
  • the frame display control unit 40 displays the focus frame W on the LCD 9 as shown in FIG. 26A.
  • the frame display control unit 40 sequentially reduces the size of the focus frame W according to the frame enlargement / reduction display flowchart shown in FIG. That is, when the user's finger F enters the first touch proximity range E2 as shown in FIG. 23, the frame display control unit 40 moves the user's finger F within the first size-specific range E10 in step # 50. It is determined whether or not. This determination is made based on whether or not the capacitance value between the touch panel 31 and the user's finger F is between Th2 and Tha.
  • the frame display control unit 40 selects a frame for focusing on the extra large size WE. W is displayed on the LCD 9.
  • step # 52 the frame display control unit 40 determines whether or not the user's finger F is within the second size range E11. This determination is made based on whether or not the capacitance value between the touch panel 31 and the user's finger F is between Tha-Thb. As a result of this determination, if the capacitance value between the touch panel 31 and the user's finger F is between Tha-Thb, the frame display control unit 40, in step # 53, sets the large size WL focus frame. W is displayed on the LCD 9.
  • step # 54 the frame display control unit 40 determines whether or not the user's finger F is within the third size range E12. This determination is made based on whether or not the capacitance value between the touch panel 31 and the user's finger F is between Thb-Thc. If the capacitance value between the touch panel 31 and the user's finger F is between Thb-Thc as a result of this determination, the frame display control unit 40, in step # 55, selects the frame for focus of the medium size WM. W is displayed on the LCD 9.
  • step # 56 the frame display control unit 40 determines whether or not the user's finger F is within the fourth size range E13. This determination is made based on whether or not the capacitance value between the touch panel 31 and the user's finger F is between Thc-Th3. As a result of this determination, if the capacitance value between the touch panel 31 and the user's finger F is between Thc-Th3, the frame display control unit 40, in step # 57, selects the focus frame for the small size WS. W is displayed on the LCD 9.
  • the frame display control unit 40 when the user's finger F approaches the touch panel 31 and sequentially enters the first to fourth size ranges E10 to E13 of the second touch proximity range E2, the frame display control unit 40, The focus frame W is changed so as to be reduced in the order of the large size WL, the medium size WM, and the small size WS.
  • the touch panel control unit 30 proceeds to step # 17 as described above.
  • the position of the user's finger F approaching the touch panel 31 is set to the inclination angle ⁇ .
  • the focus frame W is displayed on the display screen of the LCD 9 corresponding to the position of the user's finger F.
  • the user's finger F can be brought closer to the touch panel 31 from the tilting direction, so that the focus frame W is not hidden by the user's own finger F, and the display position of the focus frame W is changed. It is possible to touch within the focusing frame W while reliably recognizing, and it is possible to take an image while confirming an image of a portion where autofocus (AF) is performed.
  • AF autofocus
  • the size of the focus frame W is sequentially reduced, for example, an extra large size WE, a large size WL, a medium size WM, and a small size WS.
  • the part of the touch panel 31 to be touched by the user's finger F can be confirmed on the display screen of the LCD 9.
  • it is easy to perform an operation when the user's finger F is touched in the focus frame W and it is easy to grasp a tamming that the user's finger F touches the touch panel 31, thereby improving operability at the time of imaging.
  • the touch panel control unit 30 preliminarily determines the first moving speed ⁇ P1 and the second moving speed ⁇ P2 in order to determine the amount of change ⁇ P in the moving speed of the touch position of the user's finger F with respect to the touch panel 31. And are set.
  • the first and second moving speeds ⁇ P1 and ⁇ P2 are set to have a relationship of ⁇ P1> ⁇ P2.
  • the touch panel control unit 30 determines whether the change amount ⁇ P of the moving speed of the touch position of the user's finger F is faster than the preset moving speed ⁇ P1 or between the preset moving speeds ⁇ P1 and ⁇ P2. Alternatively, it is determined whether the movement speed is slower than ⁇ P2.
  • the touch panel control unit 30 is not limited to determining the change amount ⁇ P of the moving speed of the touch position of the user's finger F with respect to the touch panel 31, but the user's finger F is the first and second as shown in FIGS. 4 and 5. You may determine the variation
  • DELTA change_quantity
  • the frame display control unit 40 includes focus frames W of a plurality of sizes according to the change amount ⁇ P of the moving speed of the touch position of the user's finger F.
  • the focus frame W is a first size corresponding to one divided area when the display screen of the LCD 9 is divided into nine parts, and a first size corresponding to one divided area when the display screen of the LCD 9 is divided into eighteen parts. 2 and a third size corresponding to one divided area when the display screen of the LCD 9 is divided into 27.
  • the first size is the largest, the second size is the next, and the third size is the next.
  • the size of the focus frame W is not limited to the first to third sizes, and other sizes may be set or the size type may be increased.
  • a change amount ⁇ P of the moving speed of the touch position of the user's finger F for example, a change amount ⁇ P of the moving speed of the touch position of the user's finger F is faster than a preset moving speed ⁇ P1.
  • the focus frame W of the first size is displayed on the display screen of the LCD 9.
  • the frame display control unit 40 displays the focus frame W of the second size. It is displayed on the display screen of the LCD 9.
  • the frame display control unit 40 displays the third size focus frame W on the display screen of the LCD 9 Display above.
  • step # 60 the system controller 26 determines whether or not the mode selected by, for example, the user's operation on the mode dial 6 is the shooting mode. If the result of this determination is that the camera is in shooting mode, the system controller 26 starts the shooting operation in step # 61, controls the series of shooting operations when shooting the subject as described above, and in step # 62. The through image is displayed in live view on the LCD 9.
  • Touch panel control unit 30 monitors the change in the capacitance value on touch panel 31 in step # 63. The touch panel control unit 30 determines whether or not the monitored capacitance value is the range T immediately before the touch, and the user's finger F touches the touch panel 31.
  • the touch panel control unit 30 detects the coordinate position of the touched area and determines whether or not the coordinate position is a peripheral part on the display screen of the LCD 9. To do.
  • the coordinate positions of peripheral portions on the display screen of the LCD 9 are set in advance. If the coordinate position of the touch of the user's finger F is not a peripheral portion on the display screen of the LCD 9 as a result of the determination, the touch panel control unit 30 displays the coordinate position of the touch of the user's finger F on the LCD 9 in step # 64. It is determined whether the area is other than the peripheral area on the screen.
  • the focus control section 41 autofocuses the subject on the image corresponding to the coordinate position touched by the user's finger F in step # 65. (AF) is started.
  • the imaging control unit 42 captures a still image with the imaging unit 100 in step # 66.
  • the imaging control unit 42 records main image data acquired by imaging on the recording medium 22 via the interface 22a.
  • step # 64 if the coordinate position of the touch of the user's finger F is not other than the peripheral portion on the display screen of the LCD 9, the imaging control unit 42 determines that the release button 5 is 1nd release in step # 67. It is determined whether or not the 2nd release switch is turned on from the switch and the imaging operation is performed. If the result of this determination is that an imaging operation is to be performed, the imaging control unit 42 sends a face detection instruction to the face detection unit 43 in step # 68. The face detection unit 43 detects the face part S of the subject existing in the image data.
  • the imaging control unit 42 captures a still image with the imaging unit 100 in step # 69.
  • the main image data acquired by the above is recorded on the recording medium 22 via the interface 22a.
  • step # 63 determines that the coordinate position touched by the user's finger F is The fact that it is not a peripheral part on the display screen of the LCD 9 and the coordinate position touched by the user's finger F are sent to the frame display control unit 40.
  • step # 70 the frame display control unit 40 places a focus frame W on the LCD 9 at a position corresponding to the coordinate position touched by the user's finger F on the periphery of the display screen of the LCD 9, as shown in FIG. 29A. Is displayed.
  • the focus frame W is displayed on the periphery of the display screen of the LCD 9.
  • the person when a person is imaged as a subject, the person is generally arranged in the center of the display screen of the LCD 9. This is because even if the focus frame W is displayed in the peripheral portion of the screen, the composition when the subject is imaged is not affected.
  • step # 71 the frame display control unit 40 determines whether or not the user's finger F has moved as shown in FIG. 29B. As a result of this determination, when the user's finger F moves, the frame display control unit 40 moves the focus frame W on the display screen of the LCD 9 in step # 72 following the movement of the user's finger F. When the frame display control unit 40 moves the focus frame W following the movement of the user's finger F, the frame display control unit 40 moves the focus frame W at a speed and direction according to the moving speed and direction of the user's finger F. Moving. In step # 73, the frame display control unit 40 determines whether or not the movement of the user's finger F is finished. If not, the frame display control unit 40 follows the movement of the user's finger F. Continue to display.
  • FIG. 30 shows a frame display movement flowchart of the focus frame W.
  • the touch panel control unit 30 determines a change in the coordinate position touched by the user's finger F. That is, the touch panel control unit 30 detects the coordinate position of the location where the capacitance value changes greatly on the touch panel 31 and sequentially detects the coordinate position of the location where the capacitance value changes greatly as time passes. The movement of the coordinate position on the touch panel 31 touched by the user's finger F is detected from each coordinate position.
  • the frame display control unit 40 moves the focus frame W following the movement on the touch panel 31 touched by the user's finger F, the speed corresponding to the moving speed and direction of the touch position of the user's finger F.
  • the focus frame W is moved in the direction and direction.
  • the amount of change in the moving speed of the touch position of the user's finger F is ⁇ P, and the moving direction is D.
  • step S81 the touch panel control unit 30 determines whether or not the change amount ⁇ P of the moving speed of the touch position of the user's finger F is larger than the preset moving speed ⁇ P1 ( ⁇ P> ⁇ P1).
  • step S82 the touch panel control unit 30 determines whether or not the change amount ⁇ P of the moving speed of the touch position of the user's finger F is greater than a preset moving speed ⁇ P2 ( ⁇ P> ⁇ P2).
  • step # 82 the frame display control unit 40 displays the focus frame W of the first size on the display screen of the LCD 9.
  • the frame display control unit 40 selects the second size focus in step # 84. A frame W for use is displayed on the display screen of the LCD 9.
  • the frame display control unit 40 in step # 85, the focus frame W for the third size. Is displayed on the display screen of the LCD 9.
  • the user touches the periphery of the display screen of the LCD 9 with the finger F to display the focus frame W, and the focus frame W is the face of the person who is the subject.
  • the moving speed of the user's finger F is high at the start of movement, and decelerates as the face part S is approached.
  • the change amount ⁇ P of the movement speed of the user's finger F is, for example, ⁇ P> ⁇ P1 and then ⁇ P1> ⁇ P> ⁇ P2 at the beginning of the movement, and ⁇ P2> ⁇ P when trying to match the face S of the person.
  • the frame display control unit 40 first displays the focus frame W of the first size on the display screen of the LCD 9 and then displays the focus frame W of the second size on the display screen of the LCD 9. Then, the focus frame W of the third size is displayed on the display screen of the LCD 9.
  • step # 73 the frame display control unit 40 determines whether or not the change amount ⁇ P of the moving speed of the touch position of the user's finger F disappears and the movement of the focus frame W of the third size is finished. To do. As a result of the determination, when the movement of the focus frame W of the third size is completed, the focus control unit 41, on the image corresponding to the focus frame W of the third size, in step # 74. Auto focus (AF) is started on the subject. When the autofocus (AF) is finished, the imaging control unit 42 enlarges the through image of the moving image of the subject corresponding to the focus frame W of the third size in step # 75, and enlarges the through image K. Is displayed on the LCD 9 in live view. The imaging control unit 42 displays the enlarged through image K in the focus frame W of the third size in a region that does not overlap a person as a subject in the display screen of the LCD 9.
  • step # 76 when the release button 5 is switched from the 1nd release switch to the 2nd release switch, the imaging control unit 42 captures a still image by the imaging unit 100.
  • step # 77 the imaging control unit 42 records the image data acquired by imaging on the recording medium 22 via the interface 22a.
  • the system controller 26 enlarges and displays the still image acquired by the imaging of the imaging unit 100 on the display screen of the LCD 9.
  • the change amount ⁇ P of the moving speed of the touch position of the user's finger F is faster than the preset moving speed ⁇ P1 or the preset moving speeds ⁇ P1 and ⁇ P2. It is determined whether the current speed is slower than the moving speed ⁇ P2. As a result of this determination, when the amount of change ⁇ P of the moving speed of the touch position of the user's finger F is faster than the preset moving speed ⁇ P1, the focus frame W of the first size is displayed. When the change amount ⁇ P of the moving speed of the touch position of the user's finger F is between the preset moving speeds ⁇ P1 and ⁇ P2, the focus frame W of the second size is displayed. When the change amount ⁇ P of the moving speed of the touch position of the user's finger F is slower than the preset moving speed ⁇ P2, the third size focus frame W is displayed.
  • the focus frame W by displaying the focus frame W of the first size, it becomes easy to align with the face S of the person who is the subject.
  • the moving speed of the focus frame W decreases, and the display is switched from the second size to the focus frame W of the third size. It is possible to accurately align with the face S.
  • Imaging unit 11: lens, 12: aperture, 13: autofocus (AF) mechanism, 14: shutter, 15: imaging sensor, 16: imaging circuit, 17: A / D converter, 18: image processing device, 23: Finder image generation unit, 19: Buffer memory, 21: Compression / decompression unit, 22a: Interface, 22: Recording medium, 20: First liquid crystal control unit, 9: Liquid crystal display (LCD), 23: Image generation unit, 3: display device, 24: second liquid crystal control unit, 30: touch panel control unit, 31: touch panel, 31a: sensor, 26: system controller, 27: operation unit, 25: strobe control circuit, 5: release button, 6: Mode dial, 7: Cross key, 8: Confirm key, 25: Strobe control circuit, 4: Strobe, 40: Frame display control unit, 41: Focus control unit 42: the imaging control unit, 43: face detecting section, 44: a list display unit, 45: image reproduction unit.
  • AF autofocus
  • 14 shutter
  • 15 imaging sensor
  • 16 imaging circuit
  • 17 A

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

 モニタ上のタッチされる箇所に対応する画像が隠れずに確認しながら撮像を行うこと。 撮像装置は、表示部と、タッチパネルと、枠表示制御部と、撮像制御部とを含む。前記枠表示制御部は、前記タッチパネルに対して操作部位が近接しようとすると、前記表示部にフォーカス用の枠を表示すると共に、前記タッチパネルに近接しようとする前記操作部位の移動に追従して前記フォーカス用の枠を移動する。前記撮像制御部は、撮影指示を受けて前記フォーカス用の枠内の前記被写体に対してフォーカスを実行して撮像を行う。

Description

撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体
 本発明は、撮像により取得した画像を表示する表示部にタッチパネルを設け、タッチパネル上でのユーザの指等の操作部位の接触した部分に対応する画像を例えば拡大表示する撮像装置に関する。
 かかる撮像装置としては、例えば特許文献1に開示されている技術がある。この技術は、追尾対象にする特定の被写体を、容易な操作によって撮影時に選択可能にする。この技術による追尾対象とする被写体の選択は、モニタ上にタッチパネルを設け、このタッチパネルにタッチすると、当該タッチされた箇所に対応する特定部位を表示画像から抽出し、この特定部位と当該特定部位の抽出後に生成された映像信号により表される画像とを比較し、特定部位に該当する画像部分を映像信号から検出することにより行われる。
特開2006-101186号公報
 しかしながら、被写体の選択は、モニタ上に設けられたタッチパネルに対してタッチすることにより行われる。このため、タッチ動作のときに、例えばモニタ上のタッチされる箇所に対応する表示画像が隠されて見づらく、見られないことがある。
 本発明の目的は、モニタ上のタッチされる箇所に対応する画像が隠れずに確認しながら撮像ができる撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体を提供することにある。
 本発明の撮像装置は、動画像又は静止画像を表示する表示部と、前記表示部に設けられたタッチパネルと、前記タッチパネルに対して操作部位が近接しようとすると、前記表示部にフォーカス用の枠を表示すると共に、前記タッチパネルに近接しようとする前記操作部位の移動に追従して前記フォーカス用の枠を移動する枠表示制御部と、撮影指示を受けて前記フォーカス用の枠内の前記被写体に対してフォーカスを実行して撮像を行う撮像制御部とを具備する。
 本発明の撮像装置の撮像方法は、動画像又は静止画像を表示する表示部に設けられたタッチパネルに対して操作部位が近接しようとするかを検出し、前記操作部位が前記タッチパネルに対して近接しようとすると、前記表示部にフォーカス用の枠を表示すると共に、前記タッチパネルに近接しようとする前記操作部位の移動に追従して前記フォーカス用の枠を移動し、撮影指示を受けると、前記フォーカス用の枠内の前記被写体に対してフォーカスを実行し、被写体に対する撮像を行う。
 本発明のコンピュータにより処理可能な追尾プログラムを記憶する記憶媒体は、動画像又は静止画像を表示する表示部に設けられたタッチパネルに対して操作部位が近接しようとすることを検出させる検出機能と、前記操作部位が前記タッチパネルに対して近接しようとすると、前記表示部にフォーカス用の枠を表示すると共に、前記タッチパネルに近接しようとする前記操作部位の移動に追従して前記フォーカス用の枠を移動させる追従機能と、撮影指示を受けると、前記フォーカス用の枠内の前記被写体に対してフォーカスを実行し、被写体に対する撮像を行わせる撮像機能とを含む。
 本発明は、モニタ上のタッチされる箇所に対応する画像が隠れずに確認しながら撮像ができる撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体を提供できる。
図1は本発明に係る撮像装置の第1の実施の形態を示す構成図である。 図2は同装置におけるタッチパネルのセンサパターンを示す模式図である。 図3は同装置におけるタッチパネルに例えばユーザの指を近付けたときの状態を示す図である。 図4は同装置におけるタッチパネルとユーザの指Fとの間の静電容量変化を示す図である。 図5は同装置におけるタッチパネルに対してユーザの指が角度で接触しようとする場合を示す図である。 図6は同装置におけるタッチパネルに対してユーザの指が接触しようとするときの静電容量値の変化の経過を示す図。 図7は同装置における液晶ディスプレイの表示面に表示されるフォーカス用の枠を示す図である。 図8は同装置におけるユーザの指の移動に追従するフォーカス用の枠の移動を示す図である。 図9は同装置におけるユーザの指の移動する速度に応じたフォーカス用の枠のサイズを縮小・拡大を示す図である。 図10は同装置による第1の撮像動作における撮像動作フローチャートである。 図11は同装置による第1の撮像動作における撮影モードフローチャートである。 図12は同装置による第1の撮像動作における撮像動作タイミング図である。 図13は同装置におけるタッチパネルにユーザの指が接触しようとする状態の表示画像及びユーザの指の位置を示す図。 図14は同装置におけるタッチパネルに対いてユーザの指が第1の近接範囲内に入った状態の表示画像及びユーザの指の位置を示す図。 図15は同装置におけるタッチパネルに対いてユーザの指が第2の近接範囲内に入った状態の表示画像及びユーザの指の位置を示す図。 図16は同装置におけるタッチパネルに対いてユーザの指が接触した状態の表示画像及びユーザの指の位置を示す図。 図17は同装置による第2の撮像動作における撮影モードフローチャートである。 図18は同装置による第2の撮像動作における撮像動作タイミング図である。 図19は同装置におけるユーザの指の移動時のフォーカス用の枠の追従を説明するための図。 図20は同装置におけるユーザの指が一定時間だけ移動を停止している状態を示す図。 図21は同装置における撮像動作中の枠拡大縮小表示フローチャートである。 図22は同装置による第3の撮像動作における撮像動作タイミング図である。 図23は同装置におけるフォーカス用の枠のサイズを変更するときの各サイズ別範囲示す模式図である。 図24は同装置におけるタッチパネルにユーザの指が傾斜する方向で接近して接触しようとする状態の表示画像及びユーザの指の位置を示す図。 図25は同装置におけるタッチパネルに対いてユーザの指が傾斜する方向で接近して第1の近接範囲内に入った状態の表示画像及びユーザの指の位置を示す図。 図26は同装置におけるタッチパネルに対いてユーザの指が傾斜する方向で接近して第2の近接範囲内に入った状態の表示画像及びユーザの指の位置を示す図。 図27は同装置におけるタッチパネルに対いてユーザの指が接触した状態の表示画像及びユーザの指の位置を示す図。 図28は同装置による第4の撮像動作における撮像動作フローチャートである。 図29は同装置における液晶ディスプレイの表示画面上へのフォーカス用の枠の表示例を示す図。 図30は同装置におけるフォーカス用の枠の移動フローチャートである。
 以下、本発明の第1の実施の形態について図面を参照して説明する。 
 図1は撮像装置の構成図を示す。撮像部100は、被写体を撮像し、その撮像信号を出力する。撮像部100は、レンズ11と、絞り12と、オートフォーカス(AF)機構13と、シャッタ14と、撮像センサ15と、撮像回路16と、A/D変換器17とを含む。被写体からの光束は、レンズ11から絞り12、シャッタ14を通って撮像センサ15に入射する。撮像センサ15は、入射した光束を電気信号に変換する。撮像回路16は、撮像センサ15からの電気信号をアナログ撮像信号として出力する。A/D変換器17は、撮像回路16からのアナログ撮像信号を所定の形式のデジタル撮像信号に変換して画像処理装置18とファインダ画像生成部23とに送る。AF機構13は、レンズ11を光軸方向に移動し、被写体に対するAFを行う。
 画像処理装置18は、A/D変換部17によって変換されたデジタル撮像信号に対して所定の画像処理、例えば当該画像データによって表されるべき画像の色調補正、階調補正、γ(ガンマ)補正といった調整等を行い、これら調整等を行った画像信号をバッファメモリ19に一時記憶する。 
 圧縮伸長部21は、バッファメモリ19に一時記憶される画像信号に対して圧縮・伸長を行い、記録媒体22に記録するのに適する形式に成形して主画像データを生成し、この主画像データをインタフェース22aを介して記録媒体22に記録する。
 第1の液晶制御部20は、バッファメモリ19に一時記憶される画像信号を読み出し、この画像信号に対して液晶ディスプレイ(以下、LCDと称する)9に表示するのに適した形式のスルー画像を生成し、このスルー画像をLCD9に表示する、いわゆるライブビュー機能を備える。 
 第1の液晶制御部20は、記録媒体22に記録されている画像データをバッファメモリ19、圧縮伸長部21を通して読み出し、この画像データをLCD9に表示する。
 ファインダ画像生成部23は、A/D変換部17によって変換されたデジタル撮像信号からEVF等の表示装置3に表示するのに適した形式の動画のファインダ画像データを生成する。 
 第2の液晶制御部24は、ファインダ画像生成部23により生成された動画のファインダ画像データをEVF等の表示装置3に表示する。
 LCD9の表示画面上は、タッチパネル31が設けられている。タッチパネル31は、当該タッチパネル31に対してタッチする操作部位、例えばユーザの指によるタッチ(接触)を検出し、当該タッチ部位に対応する座標信号を出力する。 
 タッチパネル制御部30は、タッチパネル31の駆動を制御し、タッチパネル31から出力された座標信号を入力し、タッチパネル31上でのタッチ部位を判定する。タッチパネル制御部30は、タッチパネル31と例えばユーザの指との間の静電容量の変化に基づいてタッチパネル31に対して例えばユーザの指が近接又はタッチしたか否かを判定する。
 図2はタッチパネル31のセンサパターンの模式図を示す。タッチパネル31には、複数のセンサ31aがxy方向に一定間隔毎に配列されている。各センサ31aは、上記の通り、例えばユーザの指との間の静電容量の変化に基づいてユーザの指がタッチパネル31に対して次第に近付いてタッチしようといているのか、又はユーザの指がタッチパネル31にタッチしたか否かを判定する。なお、タッチパネル31は、表面に保護フィルム、保護ガラス、保護パネル等の保護層が形成されているので、ユーザの指のタッチは、保護層に対するタッチを含む。各センサ31aは、静電容量方式投影型であって、自己容量方式と相互容量方式とがある。自己容量方式は、各センサ31aと例えばユーザの指との間に生じる静電容量値をセンシングする。相互容量方式は、例えばユーザの指が各センサ31aに近付くことによって、隣接するセンサ31a間の電気容量変化をセンシングする。 
 図3は静電容量方式のタッチパネル31に例えばユーザの指Fを近付けた状態を示す。図4は静電容量方式のタッチパネル31にユーザの指Fを近付けたときのタッチパネル31とユーザの指Fとの間の静電容量変化を示す。ユーザの指Fは、例えばタッチパネル31の面上の座標(x,y,z)の上方に位置する。タッチパネル31とユーザの指Fとの間の静電容量は、ユーザの指Fをタッチパネル31に近付けるに従って2次関数的に増加する。従って、各センサ31aは、タッチパネル31とユーザの指Fとの間の静電容量の応じた信号、すなわちタッチパネル31とユーザの指Fとの間の距離D(以下、タッチ間距離と称する)に応じた信号を出力する。
 タッチパネル31に対するユーザの指Fの近接又はタッチを判定するために、複数のタッチ近接範囲E1~Enとタッチ直前範囲Tとが設定される。タッチパネル31では、例えば図4に示すように第1と第2のタッチ近接範囲E1、E2とタッチ直前範囲Tとが設定される。第1と第2のタッチ近接範囲E1、E2とタッチ直前範囲Tとは、タッチパネル31とユーザの指Fとのタッチ間距離DをD3、D2、D1(D3>D2>D1)としたときに、各距離D3-D2の間を第1のタッチ近接範囲E1と設定し、各距離D2-D3の間を第2のタッチ近接範囲E2と設定し、距離D3以内でかつタッチパネル31にユーザの指Fがタッチするまでの間をタッチ直前範囲Tと設定する。 
 第1と第2のタッチ近接範囲E1、E2とタッチ直前範囲Tとは、タッチパネル31とユーザの指Fとの間の静電容量値Th1、Th2、Th3により区切られる。各静電容量値Th1、Th2、Th3の大きさの関係は、Th1<Th2<Th3である。これにより、第1のタッチ近接範囲E1は、静電容量値Th1-Th2の間である。第2のタッチ近接範囲E2は、静電容量値Th2-Th3の間である。タッチ直前範囲Tは、静電容量値Th3を含む僅かな範囲である。
 従って、タッチパネル制御部30は、タッチAFモードの動作、すなわちタッチパネル31の各センサ31aにより検出される静電容量値の変化をモニタし、当該静電容量値の変化する領域をタッチしようとする座標位置として検出する。タッチパネル制御部30は、タッチパネル31における静電容量値の変化をモニタし、モニタされた静電容量値と各静電容量値Th1、Th2、Th3とを比較し、タッチパネル31に対してユーザの指Fが第1のタッチ近接範囲E1内、第2のタッチ近接範囲E2内、又はタッチ直前範囲T内に存在するか、さらにはタッチパネル31にタッチしたか否かを判定する。
 タッチパネル31にユーザの指Fがタッチしようとする場合、ユーザの指Fは、タッチパネル31に対して角度θでタッチしようとすることが多い。図5はタッチパネル31に対してユーザの指Fが角度θの傾斜する方向でタッチしようとする場合を示す。ここで、ユーザの指Fとタッチパネル31の表示面とのタッチ間距離をD(D1、D2、D3を含む)、タッチしようとするポイントPとユーザの指Fとの水平距離をx、タッチしようとするポイントPからの角度をθ(タッチパネル31の表示面の垂線を基準とする角度)とする。
 図6A、図6B、図6Cはタッチパネル31に対してユーザの指Fがタッチしようとするときの静電容量値の一定時間毎の変化の経過を示す。同図において各センサ31aには、静電容量値を模式的に示す各数値「1」「2」…「5」等を記載する。これら数値「1」「2」…「5」は、数値が大きい程、静電容量値が大きいことを示す。 
 ユーザの指Fがタッチパネル31に近付くに従ってタッチパネル31の静電容量値が大きくなる。ユーザの指Fとタッチパネル31の表示面とのタッチ間距離Dが遠い場合は、各センサ31aの静電容量の変化量が少ない。タッチパネル制御部30は、タッチパネル31上で静電容量の変化を検出した箇所、例えば図6Aに示すように数値「1」の表れた箇所を始点の座標位置ST1とする。
 始点とするユーザの指Fの座標位置ST1を検出した時刻t0から時間t1の後、ユーザの指Fがタッチパネル31の表示面に近付いてタッチ間距離Dが小さくなると、タッチパネル31上で静電容量値が大きくなる。図6Bでは各数値「3」「1」の表れる箇所が増えている。タッチパネル制御部30は、各数値「3」「1」のうち最も静電容量値の変化の大きい箇所、例えば数値「3」の箇所の座標位置ST2を検出し、この数値「3」の箇所の座標位置ST2と始点の位置座標ST1とから水平移動距離xとタッチ間距離Dとを求める。 
 続いて、時間t1から時間t2の後、ユーザの指Fがタッチパネル31の表示面に近付いてタッチ間距離Dがさらに小さくなると、タッチパネル31上で静電容量値がさらに大きくなる。図6Cでは各数値「5」「3」「1」等の表れる箇所が増えている。タッチパネル制御部30は、各数値「5」「3」「1」等のうち最も静電容量値の変化の大きい箇所、例えば数値「5」の箇所の座標位置ST3を検出し、この数値「5」の箇所の座標位置ST3と始点の座標位置ST1とから水平距離xとタッチ間距離Dとを求める。
 これ以降、タッチパネル制御部30は、一定時間毎に、最も静電容量値の変化の大きい箇所の座標位置STmを検出し、この座標位置STmと始点の座標位置ST1とから水平移動距離xとタッチ間距離Dとを求める。なお、タッチパネル制御部30は、一定時間毎に、最も静電容量値の変化の大きい箇所の座標位置STmと直前の座標位置STm-1とから一定時間毎に水平移動距離xとタッチ間距離Dとを求めてもよい。
 タッチパネル制御部30は、一定時間毎に求められる各水平移動距離xと各タッチ間距離Dとからユーザの指Fの移動方向Mを求め、この移動方向Mから角度θを求め、さらに水平移動距離xとタッチ間距離Dと角度θとからユーザの指Fがタッチしようとする候補ポイントPの座標位置を求める。
 候補ポイントPの座標位置の別の算出方法について説明すると、タッチパネル制御部30は、タッチパネル31の各センサ31aにより検出される静電容量値からユーザの指Fとタッチパネル31の表示面とのタッチ間距離Dを求める。タッチ間距離Dとユーザの指Fの角度θとは、三角関数D=r・cosθ、x=r・sinθの関係を有する。従って、タッチパネル制御部30は、タッチ間距離Dとユーザの指Fの角度θとを用いて三角関数D=r・cosθ、x=r・sinθを演算することにより水平距離xを求める。タッチパネル制御部30は、タッチ間距離Dと角度θと水平距離xからユーザの指Fがタッチしようとする候補ポイントPの座標位置を求める。
 なお、ユーザの指Fの角度θは、予め設定した角度、例えば45°に設定してもよい。ユーザの指Fの角度θ(=45°)は、ユーザの指Fがタッチパネル31にタッチするときに向かう一般的な角度である。
 システムコントローラ26は、被写体を撮像するときの一連の撮像動作を制御する。システムコントローラ26は、撮像部100と、画像処理装置18と、バッファメモリ19と、圧縮伸長部21と、インタフェース22aと、ファインダ画像生成部23と、タッチパネル制御部30と、第1の液晶制御部20と、第2の液晶制御部24とを制御する。システムコントローラ26には、操作部27と、ストロボ制御回路25とが接続されている。操作部27は、例えばレリーズボタン5と、モードダイヤル6と、十字キー7と、確定キー8とを有する。操作部27は、電源ボタンや終了ボタン等を含む。ストロボ制御回路25は、閃光を発するストロボ4を動作制御する。
 このシステムコントローラ26は、枠表示制御部40と、フォーカス制御部41と、撮像制御部42と、顔検出部43と、一覧表示部44と、画像再生部45とを含む。 
 枠表示制御部40は、ユーザの指Fがタッチパネル31にタッチしようとして近接すると、図7に示すようにLCD9の表示画面上に表示されている画像上におけるタッチしようとするタッチパネル31の部位に対応する画像領域にフォーカス用の枠Wを表示する。この場合、枠表示制御部40は、タッチパネル制御部30により求められた候補ポイントPの座標位置を中心としてフォーカス用の枠Wを表示する。
 枠表示制御部40は、ユーザの指Fが第2のタッチ近接範囲E2内に入ったときにフォーカス用の枠Wを表示する。フォーカス用の枠Wは、ユーザの指Fが第1のタッチ近接範囲E1に入ったときから表示するようにしてもよい。
 ユーザの指Fがタッチパネル31に対して近接しようとするときにフォーカス用の枠Wを表示すれば、ユーザの指Fがタッチパネル31にタッチする前に、ユーザの指Fのタッチしようとするタッチパネル31の部位がLCD9の表示画面上で確認できる。ユーザの指Fのタッチしようとする部位は、ユーザの指Fがタッチパネル31にタッチする前であるので、フォーカス用の枠Wがユーザの指Fにより隠れることなく確認できる。この確認で、ユーザの指Fのタッチする領域がユーザの要求する領域と異なれば、ユーザの指Fのタッチしようとする領域を変えることができる。
 ユーザの指Fのタッチしようとする候補ポイントPの座標位置がタッチパネル制御部30によって事前に求められるので、後述するフォーカス制御部41は、ユーザの指Fがタッチパネル31にタッチする前に、候補ポイントPの座標位置に対応する被写体にフォーカスを行うことができる。ユーザの指Fがタッチパネル31にタッチしてからフォーカスを行う場合よりも、フォーカスするまでの時間を短くできる。
 フォーカス用の枠Wは、例えばユーザの操作によって主要被写体としての人物の顔部Sに設定されている。フォーカス用の枠Wは、例えば正方形に形成されているが、これに限らず、円形、長方形、二重丸等に形成してもよい。
 枠表示制御部40は、ユーザの指Fがタッチパネル31に対して近接し、例えばユーザの指Fが第2のタッチ近接範囲E2内に入っている状態に、図8に示すようにユーザの指FがLCD9の表示画面上と同一平面内の方向に移動すると、ユーザの指Fの移動に追従してフォーカス用の枠WをLCD9の表示画面上で移動する。例えば人物が移動すると、フォーカス用の枠Wは、ユーザの指Fの移動に追従し、移動した人物の顔部Sに設定される。 
 枠表示制御部40は、ユーザの指Fの移動に追従してフォーカス用の枠Wを移動する場合、ユーザの指Fの移動する速度に応じた速度、例えばユーザの指Fの移動速度の増減に応じて増減した速度でフォーカス用の枠Wを移動する。枠表示制御部40は、ユーザの指Fの移動に追従してフォーカス用の枠Wを移動する場合、ユーザの指Fの移動する方向と同一方向でフォーカス用の枠Wを移動する。
 枠表示制御部40は、ユーザの指Fとタッチパネル31の表示面とのタッチ間距離Dに応じてフォーカス用の枠Wのサイズを縮小・拡大する。例えば、枠表示制御部40は、タッチ間距離Dが狭くなるに従ってフォーカス用の枠Wのサイズを図9に示すように矢印の方向に縮小し、タッチ間距離Dが広くなるに従ってフォーカス用の枠Wのサイズを拡大する。フォーカス用の枠Wのサイズを縮小すれば、ユーザの指Fのタッチしようとする候補ポイントPを狙って絞り込むような表示をすることができる。
 枠表示制御部40は、被写体に対する撮影方向や構図等を変化させずに予め設定された長時間だけ当該撮像装置の移動を停止すると、LCD9の表示画面中のフォーカス用の枠Wの表示状態をロックしてもよい。枠表示制御部40は、撮像装置が移動すると、フォーカス用の枠Wの表示状態のロックを解除する。
 フォーカス制御部41は、ユーザの指Fがタッチパネル31にタッチする前に、フォーカス用の枠W内の被写体上の候補ポイントPに対するフォーカス処理を実行する。
 フォーカス制御部41は、枠表示制御部40によるフォーカス用の枠Wの移動、すなわちLCD9の表示画面上と同一平面内の方向への移動中にフォーカスの実行を行わず、ユーザの指Fの移動が停止すると、フォーカス用の枠W内の被写体に対するフォーカスを実行する。
 フォーカス制御部41は、フォーカス用の枠Wが表示されてからフォーカスを実行するようにしてもよい。
 フォーカス制御部41は、ユーザの指Fが複数のタッチ近接範囲E1~Enのうち所定の近接範囲内、例えば第2のタッチ近接範囲E2内に接近すると、フォーカス用の枠W内の被写体に対するフォーカスを実行する。
 撮像制御部42は、ユーザの指Fのタッチパネル31に対するタッチを検出すると、当該タッチ検出時に撮像部100により撮像を行う。 
 顔検出部43は、画像データ中に被写体の顔部位Sが存在するか否か、又は画像データ中に表示されているフォーカス用の枠W内に被写体の顔部位Sが存在するか否かを検出する。顔検出部43は、画像データ中に存在する被写体の顔部位Sを検出する。 
 顔検出部43により被写体の顔部位Sが検出されると、枠表示制御部40は、当該被写体の顔部位Sに対してフォーカス用の枠Wを表示するようにしてもよい。フォーカス用の枠Wの表示の開始は、上記同様に、ユーザの指Fが第2のタッチ近接範囲E2内に入ったときである。被写体の顔部位Sを主要被写体として撮影する場合、枠表示制御部40により表示されるフォーカス用の枠Wの位置が主要被写体に対してずれたとしても、顔検出部43により検出された顔部位Sにフォーカス用の枠Wの表示位置を修正できる。
 一覧表示部44は、再生モード時に、複数の画像をLCD9の表示画面上に一覧表示する。一覧表示部44は、例えば記録媒体22に記録されている複数の画像データを読み出し、各画像データを第1の液晶制御部20を介してLCD9の表示画面上に一覧表示する。 
 画像再生部45は、一覧表示部44によりLCD9の表示画面上に一覧表示された複数の画像データのうちいずれか1つの画像データが選択されると、当該選択された画像データをLCD9の表示画面上に拡大表示する。
[第1の撮像動作]
 次に、上記の如く構成された装置の第1の撮像動作について図10に示す撮像動作フローチャートを参照して説明する。 
 システムコントローラ26は、ステップ#1において、タッチパネル31の電源をオン(ON)し、ステップ#2において、LCD9の電源をオン(ON)する。 
 システムコントローラ26は、ステップ#3において、例えばユーザのモードダイヤル6に対する操作によって選択されたモード、例えば撮影モード又は再生モードを受け付ける。 
 システムコントローラ26は、ステップ#4において、選択されたモードが撮影モード又は再生モードであるのかを判定する。この判定の結果、撮影モードであれば、システムコントローラ26は、ステップ#5に移り、撮影モードに設定する。
 以下、撮影モードにおける撮像動作について図11に示す撮影モードフローチャートに従って説明する。 
 図12は撮像動作タイミング図を示す。同図は、タッチパネル31と例えばユーザの指Fとの間に生じる静電容量値のセンシングの可能な期間と、LCD9の表示面に表示されるフォーカス用の枠Wの表示期間と、オートフォーカス(AF)を実行する期間と、撮影を実行する期間とを示す。
 撮影モードにおいて、システムコントローラ26は、撮像部100と、画像処理装置18と、バッファメモリ19と、圧縮伸長部21と、インタフェース22aと、ファインダ画像生成部23と、タッチパネル制御部30と、第1の液晶制御部20と、第2の液晶制御部24とを制御し、被写体を撮像するときの一連の撮像動作を制御する。 
 すなわち、被写体からの光束は、レンズ11から絞り12、シャッタ14を通って撮像センサ15に入射する。このとき、AF機構13は、レンズ11を光軸方向に移動し、被写体に対するAFを行う。撮像センサ15は、入射した光束を電気信号に変換する。撮像センサ15から出力された電気信号は、撮像回路16によりアナログ撮像信号として出力され、A/D変換器17により所定の形式のデジタル撮像信号に変換されて画像処理装置18とファインダ画像生成部23とに送られる。 
 画像処理装置18は、A/D変換部17によって変換されたデジタル撮像信号に対して所定の画像処理、例えば当該画像データによって表されるべき画像の色調補正、階調補正、γ(ガンマ)補正といった調整等を行い、これら調整等を行った画像信号をバッファメモリ19に一時記憶する。
 第1の液晶制御部20は、バッファメモリ19に一時記憶される画像信号を読み出し、この画像信号に対してLCD9に表示するのに適した形式のスルー画像を生成し、このスルー画像をLCD9にライブビュー表示する。 
 この撮影モードにおいて、システムコントローラ26は、ステップ#10において、タッチオートフォーカス(AF)モードに設定されているか否かを判定する。この判定の結果、タッチAFモードに設定されていると、タッチパネル制御部30は、タッチパネル31における静電容量値の変化をモニタし、静電容量値の変化する領域をタッチしようとする座標位置として検出する。タッチパネル制御部30は、モニタされた静電容量値と各静電容量値Th1、Th2、Th3とを比較し、タッチパネル31に対してユーザの指Fが第1のタッチ近接範囲E1内、第2のタッチ近接範囲E2内、又はタッチ直前範囲T内に存在するか、さらにはタッチパネル31にタッチしたか否かを判定する。
 具体的に、タッチパネル制御部30は、ステップ#11において、タッチパネル31における静電容量値の変化をモニタし、ユーザが指Fをタッチパネル31に近接してタッチしようとすることを判定する。ユーザの指Fがタッチしようとするところは、LCD9上で、被写体中のフォーカスを要求する画像、例えば人物の顔部Sに対応する部分のタッチパネル31上である。
 図13A、図13Bは、タッチパネル31にユーザの指Fがタッチしようとする状態を示す。図13Aは、同状態におけるLCD9に表示される画像を示す。図13Bは、同状態におけるタッチパネル31とユーザの指Fとのタッチ間距離Dを示す。 
 タッチパネル制御部30は、ステップ#12において、タッチパネル31における静電容量値の変化に基づいてユーザの指Fが図14Bに示すように第1のタッチ近接範囲E1(D3≧D>D2)内に存在するか否かを判定する。第1のタッチ近接範囲E1内は、タッチパネル31の表面から例えば30-20mm以内である。
 この判定の結果、ユーザの指Fが第1のタッチ近接範囲E1内であれば、タッチパネル制御部30は、タッチパネル31の各センサ31aによりタッチパネル31とユーザの指Fとの間に生じる静電容量値のセンシングが可能になり、ユーザの指Fがタッチパネル31にタッチしようとしていることを判定する。ユーザの指Fが第1のタッチ近接範囲E1内に入った時点からセンシングが可能になるので、ユーザの指Fが第1のタッチ近接範囲E1外にあるときには、センシングを行わず、無駄な電力を消費することがない。第1のタッチ近接範囲E1外にあるときには、タッチパネル制御部30は、センシングを抑制したり、ユーザの指Fとタッチパネル31との間隔を広げたときの動作をしたり、システムコントローラ26での回路動作や演算を制限したりして、無駄な電力を消費しなくても済むようにできる。
 なお、タッチパネル31とユーザの指Fとの間に生じる静電容量値の範囲を予め設定すれば、ユーザの指Fと異なる他の部材がタッチパネル31に接触しようとするときに生じる静電容量値との区別することができる。これにより、ユーザの指Fがタッチパネル31にタッチしようとしていることのみを判別することができ、他の部材がタッチパネル31に接触しようとすることの誤動作を防止できる。
 ユーザの指Fが図14Bに示すように第1のタッチ近接範囲E1内に入った後、タッチパネル制御部30は、ステップ#13において、タッチパネル31における静電容量値の変化に基づいてユーザの指Fが図15Bに示すように第2のタッチ近接範囲E2(D2≧D>D1)内に存在するか否かを判定する。
 この判定の結果、ユーザの指Fが第2のタッチ近接範囲E2内に存在すると、タッチパネル制御部30は、ステップ#14において、タッチパネル31上に投影されるユーザの指Fの座標位置を求める。すなわち、ユーザの指Fがタッチパネル31の表示面に近付いてタッチ間距離Dが小さくなると、図6Bに示すようにタッチパネル31上で静電容量値が大きくなり、例えば各数値「3」「1」の表れる箇所が増えている。タッチパネル制御部30は、各数値「3」「1」のうち最も静電容量値の変化の大きい箇所、例えば数値「3」の箇所を座標位置を検出し、この座標位置をユーザの指Fの座標位置を求める。
 これと共に、タッチパネル制御部30は、ステップ#15において、タッチパネル31における静電容量値からユーザの指Fが第2のタッチ近接範囲E2内に入ったことを判定し、その旨を枠表示制御部40に送る。
 枠表示制御部40は、ユーザの指Fが第2のタッチ近接範囲E2内に存在することの旨を受けると、図15Aに示すようにLCD9にフォーカス用の枠Wを表示する。ユーザの指Fがタッチパネル31にタッチする前にフォーカス用の枠Wを表示するので、フォーカス用の枠Wがユーザの指Fにより隠れることなく、ユーザの指Fのタッチしようとするタッチパネル31の部位がLCD9の表示画面上で確認できる。
 枠表示制御部40は、ユーザの指Fが第1のタッチ近接範囲E1内にあるときフォーカス用の枠Wを表示せずに、第2のタッチ近接範囲E2内にあるときフォーカス用の枠Wを表示している。ユーザの指Fが第1のタッチ近接範囲E1内にあるときは、ユーザの指Fとタッチパネル31との距離が広く、ユーザがタッチパネル31にタッチする意思があるかどうか決めかねるからである。これにより、不要なフォーカス用の枠Wの表示を防止できる。
 なお、ユーザの指Fとタッチパネル31とのタッチ間距離Dは、図4に示すタッチ間距離D2-D1間である。第2のタッチ近接範囲E2内は、タッチパネル31の表面から例えば20-10mm以内である。
 タッチパネル制御部30は、ステップ#16において、タッチパネル31における静電容量値の変化に基づいてユーザの指Fが図16Bに示すようにタッチ直前範囲T(D1≧D>D0)内に存在し、タッチパネル31にタッチされたか否かを判定する。
 この判定の結果、ユーザの指Fがタッチ直前範囲T内に存在し、タッチパネル31にタッチされると、フォーカス制御部41は、ステップ#17において、フォーカス用の枠W内の被写体に対するオートフォーカス(AF)を開始する。 
 フォーカス制御部41は、ステップ#18において、フォーカス用の枠W内の被写体に対するオートフォーカス(AF)が終了したか否かを判定する。この判定の結果、フォーカス用の枠W内の被写体に対するオートフォーカス(AF)が終了すると、フォーカス制御部41は、ステップ#19において、オートフォーカス(AF)をロック状態にする。
 タッチパネル制御部30は、ステップ#20において、フォーカス用の枠W内で、ユーザの指Fが図16Bに示すように被写体中のフォーカスを要求する例えば人物の顔部Sに対応するタッチパネル31上にタッチしたか否かを判定する。 
 この判定の結果、フォーカス用の枠W内で、ユーザの指Fが図16Bに示すように被写体中のフォーカスを要求する例えば人物の顔部Sに対応するタッチパネル31上にタッチすると、タッチパネル制御部30は、タッチパネル31における静電容量値からユーザの指Fがタッチパネル31にタッチしたことを判定し、その旨を撮像制御部42に送る。 
 撮像制御部42は、ステップ#21において、タッチパネル制御部30からのユーザの指Fがタッチパネル31にタッチしたことの旨を受けると、当該タッチ検出時に、撮像部100により静止画の撮像を行う。すなわち、被写体からの光束は、レンズ11から絞り12、シャッタ14を通って撮像センサ15に入射する。撮像センサ15は、入射した光束を電気信号に変換する。撮像センサ15から出力された電気信号は、撮像回路16によりアナログ撮像信号として出力され、A/D変換器17により所定の形式のデジタル撮像信号に変換されて画像処理装置18に送られる。画像処理装置18は、A/D変換部17によって変換されたデジタル撮像信号に対して所定の画像処理、例えば当該画像データによって表されるべき画像の色調補正、階調補正、γ(ガンマ)補正といった調整等を行い、これら調整等を行った画像信号をバッファメモリ19に一時記憶する。圧縮伸長部21は、バッファメモリ19に一時記憶される画像信号に対して圧縮・伸長を行い、記録媒体22に記録するのに適する形式に成形して図16Aに示すような静止画としての主画像データを生成し、この主画像データをインタフェース22aを介して記録媒体22に記録する。 
 この後、システムコントローラ26は、ステップ#22において、撮影モードを終了する。
 一方、上記ステップ#10での判定の結果、タッチオートフォーカス(AF)モードに設定されていなければ、システムコントローラ26は、ステップ#30に移り、継続してオートフォーカス(AF)を実行する否かを判定する。この判定の結果、被写体に対するフォーカスが継続すると、システムコントローラ26は、ステップ#31において、ユーザによって操作部27のレリーズボタン5が半押しされると、このレリーズボタン5の状態がオフ状態から1stレリーズスイッチのオン状態に移る。
 システムコントローラ26は、ステップ#34において、オートフォーカス(AF)を終了し、ステップ#35において、レリーズボタン5の状態が2ndレリーズスイッチのオン状態であるか否かを判定する。この判定の結果、2ndレリーズスイッチのオン状態であれば、撮像制御部42は、ステップ#36において、撮像部100に対して被写体の静止画の撮像動作を行わせる。システムコントローラ26は、撮像制御部42の撮像により取得された静止画をLCD9の表示画面上に拡大表示する。
 上記継続してオートフォーカス(AF)を実行する否かの判定の結果、被写体に対するフォーカスが終了すれば、システムコントローラ26は、ステップ#32に移り、ユーザによって操作部27のレリーズボタン5が半押しされると、このレリーズボタン5の状態がオフ状態から1stレリーズスイッチのオン状態に移る。システムコントローラ26は、ステップ#33において、AFを開始し、ステップ#34において、オートフォーカス(AF)を終了し、ステップ#35、#36、#23に移る。
 システムコントローラ26は、図10に示す撮像動作フローチャートに戻り、ステップ#6において、操作部27におけるモードダイヤル6や終了ボタン等の状態を読み取る。システムコントローラ26は、続けて撮影モードに設定されていれば、ステップ#3に戻り、終了ボタンが操作されると、ステップ#7に移って電源をオフ(OFF)する。
 一方、システムコントローラ26は、ステップ#4における判定の結果、再生モードに設定されていると、ステップ#8に移り、再生モードの動作を行う。例えば、一覧表示部44は、当該再生モード時に、例えば記録媒体22に記録されている複数の画像データを読み出し、これら画像データを第1の液晶制御部20を介してLCD9の表示画面上に一覧表示する。 
 画像再生部45は、ステップ#9において、一覧表示部44によりLCD9の表示画面上に一覧表示された複数の画像データのうちいずれか1つの画像データが選択されると、当該選択された画像データのみをLCD9の表示画面上に拡大表示する。
 このように上記第1の撮像動作によれば、タッチパネル31に対してユーザの指Fが近接すると、当該近接する画像部分に対応するLCD9の表示画面上にフォーカス用の枠Wを表示し、フォーカス用の枠W内の被写体に対してオートフォーカス(AF)を行い、ユーザの指Fがフォーカス用の枠W内に対応するタッチパネル31にタッチすると、撮像動作を行う。
 このような上記第1の撮像動作であれば、オートフォーカス(AF)を行う画像部分にフォーカス用の枠Wを表示することによって、LCD9の表示画面上のタッチパネル31にユーザの指Fをタッチするときに、ユーザの指Fがタッチするに対応する画像を認識し易くなり、オートフォーカス(AF)を行う部分の画像を確認しながら撮像ができる。
 ユーザの指Fがタッチパネル31に対して近接しようとするときにフォーカス用の枠Wを表示すれば、ユーザの指Fがタッチパネル31にタッチする前に、ユーザの指Fのタッチしようとするタッチパネル31の部位がユーザの指Fにより隠れることなくLCD9の表示画面上で確認できる。この確認で、ユーザの指Fのタッチする領域がユーザの要求する領域と異なれば、ユーザの指Fのタッチしようとする領域を変えることができる。
 ユーザの指Fがタッチパネル31にタッチする前に、候補ポイントPの座標位置に対応する被写体にフォーカスを行うことができるので、ユーザの指Fがタッチパネル31にタッチしてからフォーカスを行う場合よりも、フォーカスするまでの時間を短くできる。
[第2の撮像動作] 
 次に、第2の撮像動作について図17に示す撮像動作フローチャートに従って説明する。図18は撮像動作タイミング図を示す。同図は、上記図12と同様に、タッチパネル31と例えばユーザの指Fとの間に生じる静電容量値のセンシングの可能な期間と、LCD9の表示面に表示されるフォーカス用の枠Wの表示期間と、オートフォーカス(AF)を実行する期間と、撮影を実行する期間とを示す。なお、上記第1の撮像動作と同一部分には同一符号を付してその詳しい説明は省略する。 
 第2の撮像動作は、ユーザの指Fがタッチパネル31に対して近接した状態、例えばユーザの指Fがタッチパネル31に対して第2のタッチ近接範囲E2内に存在している状態に水平方向、すなわちLCD9の表示面と平行な平面方向に移動した場合である。
 この第2の撮像動作であれば、タッチパネル制御部30は、ステップ#20において、フォーカス用の枠W内で、ユーザの指Fが図16Bに示すように被写体中のフォーカスを要求する例えば人物の顔部Sに対応するタッチパネル31上にタッチしたか否かを判定する。 
 この判定の結果、ユーザの指Fがタッチパネル31上にタッチしていないと判定すると、枠表示制御部40は、ステップ#40に移り、ユーザの指Fがタッチパネル31に対して近接している状態、すなわちユーザの指Fが図4に示す第2のタッチ近接範囲E2内に存在している状態に、上記図8に示すようにユーザの指FがLCD9の表示面と平行な平面方向に移動したか否かを判定する。ユーザの指Fが第2のタッチ近接範囲E2内に存在している状態は、上記の通り、タッチパネル制御部30によってタッチパネル31の静電容量値から判定する。
 ユーザの指Fの移動の判定では、ユーザの指Fがタッチパネル31の表示面に近付いて第2のタッチ近接範囲E2内に入ると、上記図6Cに示すようにタッチパネル31上で静電容量値が大きくなり、例えば各数値「5」「3」「1」等の表れる箇所が増える。タッチパネル制御部30は、各数値「5」「3」「1」等のうち最も静電容量値の変化の大きい箇所、例えば数値「5」の箇所をユーザの指Fの座標位置として求める。
 ユーザの指Fが図19Aに示すようにタッチパネル31の上方で、当該タッチパネル31の表示面と平行な平面方向に移動すると、タッチパネル31上での静電容量値の大きくなる部分がユーザの指Fの移動に追従して移動する。タッチパネル制御部30は、最も静電容量値の変化の大きい箇所となるユーザの指Fの座標位置の移動を追跡する。この追跡によりタッチパネル制御部30は、ユーザの指Fの移動に追従し、ユーザの指Fの移動する各座標位置を逐次枠表示制御部40に送る。フォーカス用の枠Wの移動は、LCD9の表示画面上に表示される画像中の人物の顔部Sが移動することにより、人物の顔部Sの移動を追うようにユーザの指Fが移動することにより行われる。
 枠表示制御部40は、タッチパネル制御部30により求められたユーザの指Fの移動する各座標位置を逐次受け取り、各座標位置からユーザの指Fが所定の移動距離M、例えば10mm以上移動したか否かを判定する。 
 この判定の結果、ユーザの指Fの移動距離が例えば10mm以上であると判定すると、枠表示制御部40は、ステップ#41において、タッチパネル制御部30から逐次受け取るユーザの指Fの移動する各座標位置に基づいてユーザの指Fの移動する方向を判定し、図19A、図19Bに示すように所定の移動距離Mの例えば2倍の移動距離2M、例えば20mmだけユーザの指Fの移動方向に例えば図8に示すようにフォーカス用の枠WをLCD9の表示画面上で移動する。
 枠表示制御部40は、ユーザの指Fの移動に追従してフォーカス用の枠WをLCD9の表示画面上で移動する場合、ユーザの指Fの移動する速度に比例した速度でフォーカス用の枠Wを移動する。 
 フォーカス用の枠Wの移動中、フォーカス制御部41は、被検体に対するフォーカスの実行を行わず、同フォーカスの実行を停止する。
 枠表示制御部40は、ステップ#42において、図20A、図20B、図20Cに示すようにユーザの指Fが移動を停止して1箇所に止まり、当該停止の状態が一定時間続いているか否かを判定する。この判定の結果、ユーザの指Fが移動していれば、枠表示制御部40は、ステップ#41に戻り、ユーザの指Fの移動する各座標位置に従ってフォーカス用の枠WをLCD9の表示画面上で移動する。 
 ユーザの指Fの移動が一定時間停止すると、枠表示制御部40は、当該ユーザの指Fの移動が停止した旨をフォーカス制御部41に送る。フォーカス制御部41は、ユーザの指Fの移動が停止した旨を受けて、フォーカス用の枠W内の被写体に対するオートフォーカス(AF)を開始する。
 タッチパネル制御部30は、再び、ステップ#20において、フォーカス用の枠W内で、ユーザの指Fが図16Bに示すように被写体中のフォーカスを要求する例えば人物の顔部Sに対応するタッチパネル31上にタッチしたか否かを判定する。この判定の結果、フォーカス用の枠W内でユーザの指Fがタッチパネル31上にタッチすると、タッチパネル制御部30は、タッチパネル31における静電容量値からユーザの指Fがタッチパネル31にタッチしたことを判定し、その旨を撮像制御部42に送る。撮像制御部42は、ステップ#21において、タッチパネル制御部30からのユーザの指Fがタッチパネル31にタッチしたことの旨を受けると、当該タッチ検出時に、撮像部100により静止画の撮像を行う。システムコントローラ26は、撮像部100の撮像により取得された静止画をLCD9の表示画面上に拡大表示する。
 このように上記第2の撮像動作によれば、ユーザの指Fがタッチパネル31に対して近接した状態、例えばユーザの指Fがタッチパネル31に対して第2のタッチ近接範囲E2内に入っている状態に水平方向に移動すると、ユーザの指Fの移動に追従してフォーカス用の枠Wを移動し、この後、ユーザの指Fが一定時間だけ移動を停止すると、フォーカス用の枠W内の被写体に対するオートフォーカス(AF)を再開し、タッチパネル31へのユーザの指Fのタッチにより撮像を行う。
 これにより、上記第1の撮像動作と同様の効果を奏することができるに加えて、ユーザの指Fが移動しても、ユーザの指Fの移動に追従してフォーカス用の枠Wを移動することができる。例えば、LCD9の表示画面上で人物の顔部Sが移動したとしても、顔部Sの移動を追跡するようにユーザの指Fを移動すれば、人物の顔部Sの移動に追従してフォーカス用の枠Wを移動することができる。この後、フォーカス用の枠W内の人物の顔部Sにオートフォーカスして撮像を行うことができる。フォーカス用の枠Wの移動中は、フォーカス用の枠W内の人物の顔部Sに対するオートフォーカス(AF)を行うことがないので、フォーカスを必要としないときに当該オートフォーカス(AF)を行うことがなく、無駄な動作を行うことがない。又、主要被写体である人物の顔部Sを別の人物の顔部Sに変更する場合でも、ユーザの指Fを移動して別の人物の顔部Sに対応する部分のタッチパネル31に近接してタッチしようとすれば、当該タッチしようとする画像部分にフォーカス用の枠Wを表示することができる。
[第3の撮像動作]
 次に、第3の撮像動作について図17に示す撮像動作フローチャートを援用し、かつ図21に示す撮像動作中の枠拡大縮小表示フローチャートに従って説明する。図22は撮像動作タイミング図を示す。同図は、上記図12と同様に、タッチパネル31と例えばユーザの指Fとの間に生じる静電容量値のセンシングの可能な期間と、LCD9の表示面に表示されるフォーカス用の枠Wの表示期間と、オートフォーカス(AF)を実行する期間と、撮影を実行する期間とを示す。なお、上記第2の撮像動作と同一部分には同一符号を付してその詳しい説明は省略する。
 第3の撮像動作では、ユーザは指Fをタッチパネル31に対して傾斜する方向から近接する。タッチパネル制御部30は、図5に示すようにタッチパネル31に対して接近するユーザの指Fの位置を傾斜の角度θに基づいて求め、ユーザの指Fの位置に対応するLCD9の表示画面上にフォーカス用の枠Wを表示する。 
 枠表示制御部40は、ユーザの指Fがタッチパネル31に接近する毎に、フォーカス用の枠Wのサイズを順次縮小する。枠表示制御部40は、例えばフォーカス用の枠Wのサイズとして複数のサイズ、例えば特大サイズWE、大型サイズWL、中型サイズWM、小型サイズWSを含む。枠表示制御部40は、例えば第2のタッチ近接範囲E2内を例えば4つのサイズ別範囲に分割し、タッチパネル31に遠いサイズ別範囲の順にフォーカス用の枠Wのサイズを特大サイズWE、大型サイズWL、中型サイズWM、小型サイズWSに設定する。
 図23はフォーカス用の枠Wのサイズを変更するときの各サイズ別範囲の模式図を示す。第2のタッチ近接範囲E2内は、複数のサイズ別範囲、例えば第1乃至第4のサイズ別範囲E10~E13に区切られている。第1乃至第4のサイズ別範囲E10~E13は、それぞれタッチパネル31とユーザの指Fとの間の静電容量値Tha、Thb、Thcにより区切られる。各静電容量値Tha、Thb、Thc大きさの関係は、Tha<Thb<Thcである。第1のサイズ別範囲E10は、静電容量値Th2-Thaの間である。第2のサイズ別範囲E11は、静電容量値Tha-Thbの間である。第3のサイズ別範囲E12は、静電容量値Thb-Thcの間である。第4のサイズ別範囲E13は、静電容量値Thc-Th3の間である。
 従って、枠表示制御部40は、ユーザの指Fがタッチパネル31に接近して第2のタッチ近接範囲E2の第1乃至第4のサイズ別範囲E10~E13内に順次入ると、特大サイズWE、大型サイズWL、中型サイズWM、小型サイズWSの順にフォーカス用の枠Wのサイズを変更する。このサイズ変更によりフォーカス用の枠Wのサイズは、順次縮小する。 
 ユーザの指Fがタッチパネル31から離れ、例えばユーザの指Fが第4乃至第1のサイズ別範囲E13~E10内に入ると、枠表示制御部40は、小型サイズWS、中型サイズWM、大型サイズWL、特大サイズWEの順にフォーカス用の枠Wのサイズを変更する。このサイズ変更によりフォーカス用の枠Wのサイズは、順次拡大する。
 この第3の撮像動作であれば、撮影モードにおいて、ユーザの指Fがタッチパネル31に対して傾斜する方向で接近しタッチしようとする。 
 図24A、図24Bは、タッチパネル31にユーザの指Fが傾斜する方向でタッチしようとする状態を示すもので、図24Aは同状態におけるLCD9に表示される画像を示し、図24Bは同状態における傾斜する方向でタッチしようとするユーザの指Fを模式的に示す。
 ユーザの指Fが図24B、図25Bに示すように傾斜する方向で移動し、第1のタッチ近接範囲E1を通って第2のタッチ近接範囲E2内に入ると、タッチパネル制御部30は、ステップ#14において、上記図5に示すようにタッチパネル31上に投影されるユーザの指Fの座標位置を求める。これと共に、タッチパネル制御部30は、ステップ#16において、ユーザの指Fが第2のタッチ近接範囲E2内に入ったことの旨を枠表示制御部40に送る。枠表示制御部40は、ユーザの指Fが第2のタッチ近接範囲E2内に存在することの旨を受けると、図26Aに示すようにLCD9にフォーカス用の枠Wを表示する。
 このときからユーザの指Fがタッチパネル31に接近する毎に、枠表示制御部40は、図21に示す枠拡大縮小表示フローチャートに従ってフォーカス用の枠Wのサイズを順次縮小する。すなわち、枠表示制御部40は、図23に示すようにユーザの指Fが第1のタッチ近接範囲E2内に入ると、ステップ#50において、ユーザの指Fが第1のサイズ別範囲E10内に入っているか否かを判定する。この判定は、タッチパネル31とユーザの指Fとの間の静電容量値がTh2-Thaの間にあるか否かによって判定される。 
 この判定の結果、タッチパネル31とユーザの指Fとの間の静電容量値がTh2-Thaの間にあれば、枠表示制御部40は、ステップ#51において、特大サイズWEのフォーカス用の枠WをLCD9に表示する。
 枠表示制御部40は、ステップ#52において、ユーザの指Fが第2のサイズ別範囲E11内に入っているか否かを判定する。この判定は、タッチパネル31とユーザの指Fとの間の静電容量値がTha-Thbの間にあるか否かによって判定される。 
 この判定の結果、タッチパネル31とユーザの指Fとの間の静電容量値がTha-Thbの間にあれば、枠表示制御部40は、ステップ#53において、大型サイズWLのフォーカス用の枠WをLCD9に表示する。
 枠表示制御部40は、ステップ#54において、ユーザの指Fが第3のサイズ別範囲E12内に入っているか否かを判定する。この判定は、タッチパネル31とユーザの指Fとの間の静電容量値がThb-Thcの間にあるか否かによって判定される。 
 この判定の結果、タッチパネル31とユーザの指Fとの間の静電容量値がThb-Thcの間にあれば、枠表示制御部40は、ステップ#55において、中型サイズWMのフォーカス用の枠WをLCD9に表示する。
 枠表示制御部40は、ステップ#56において、ユーザの指Fが第4のサイズ別範囲E13内に入っているか否かを判定する。この判定は、タッチパネル31とユーザの指Fとの間の静電容量値がThc-Th3の間にあるか否かによって判定される。 
 この判定の結果、タッチパネル31とユーザの指Fとの間の静電容量値がThc-Th3の間にあれば、枠表示制御部40は、ステップ#57において、小型サイズWSのフォーカス用の枠WをLCD9に表示する。 
 従って、枠表示制御部40は、ユーザの指Fがタッチパネル31に接近して第2のタッチ近接範囲E2の第1乃至第4のサイズ別範囲E10~E13内に順次入ると、特大サイズWE、大型サイズWL、中型サイズWM、小型サイズWSの順にフォーカス用の枠Wのサイズを縮小するように変更する。
 以下、タッチパネル制御部30は、上記同様に、ステップ#17に移る。
 このように上記第3の撮像動作によれば、ユーザの指Fをタッチパネル31に対して傾斜する方向から近接する場合、タッチパネル31に対して接近するユーザの指Fの位置を傾斜の角度θに基づいて求め、ユーザの指Fの位置に対応するLCD9の表示画面上にフォーカス用の枠Wを表示する。これにより、ユーザの指Fをタッチパネル31に対して傾斜する方向から近接することができることによって、フォーカス用の枠Wがユーザ自身の指Fにより隠れることが無く、フォーカス用の枠Wの表示位置を確実に認識しながら当該フォーカス用の枠W内にタッチすることができ、オートフォーカス(AF)を行う部分の画像を確認しながら撮像ができる。 
 ユーザの指Fがタッチパネル31に接近する毎に、フォーカス用の枠Wのサイズを例えば特大サイズWE、大型サイズWL、中型サイズWM、小型サイズWSの順次縮小するので、ユーザの指Fがタッチパネル31に接近するに伴ってユーザの指Fがタッチパネル31にタッチする前に、ユーザの指Fのタッチしようとするタッチパネル31の部位をLCD9の表示画面上で確認できる。又、ユーザの指Fをフォーカス用の枠W内にタッチするときの操作がし易くなり、ユーザの指Fがタッチパネル31にタッチするタンミングが掴み易くなり、撮像時の操作性を向上できる。
[第4の撮像動作]
 第4の撮像動作においてタッチパネル制御部30は、タッチパネル31に対するユーザの指Fのタッチ位置の移動する速度の変化量ΔPを判定するために、予め第1の移動速度ΔP1と第2の移動速度ΔP2とが設定されている。第1と第2の移動速度ΔP1、ΔP2は、ΔP1>ΔP2の関係に設定されている。 
 タッチパネル制御部30は、ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP1よりも速いか、予め設定された移動速度ΔP1とΔP2との間であるか、又は移動速度ΔP2よりも遅いかのいずれであるのかを判定する。 
 タッチパネル制御部30は、タッチパネル31に対するユーザの指Fのタッチ位置の移動する速度の変化量ΔPを判定するのに限らず、上記図4及び図5に示すようにユーザの指Fが第1と第2のタッチ近接範囲E1、E2に近接している状態でのユーザの指Fの移動の速度の変化量ΔPを判定してもよい。
 枠表示制御部40は、ユーザの指Fのタッチ位置の移動する速度の変化量ΔPに応じた複数のサイズのフォーカス用の枠Wを含む。例えば、フォーカス用の枠Wは、LCD9の表示画面を9分割したときの1つの分割領域に相当する第1のサイズと、LCD9の表示画面を18分割したときの1つの分割領域に相当する第2のサイズと、LCD9の表示画面を27分割したときの1つの分割領域に相当する第3のサイズとを含む。各フォーカス用の枠Wの各サイズの関係は、第1のサイズが最も大きく、次に第2のサイズが大きく、次に第3のサイズが大きい。フォーカス用の枠Wのサイズは、第1乃至第3のサイズに限らず、他のサイズを設定したり、サイズの種類を増加する等の変更をしてもよい。
 枠表示制御部40は、ユーザの指Fのタッチ位置の移動する速度の変化量ΔP、例えばユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP1よりも速いとき、第1のサイズのフォーカス用の枠WをLCD9の表示画面上に表示する。 
 枠表示制御部40は、ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP1とΔP2との間であるとき、第2のサイズのフォーカス用の枠WをLCD9の表示画面上に表示する。 
 枠表示制御部40は、ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP2よりも遅いとき、第3のサイズのフォーカス用の枠WをLCD9の表示画面上に表示する。
 次に、第4の撮像動作について図28に示す撮像動作フローチャートに従って説明する。
 システムコントローラ26は、ステップ#60において、例えばユーザのモードダイヤル6に対する操作によって選択されたモードが撮影モードであるか否かを判定する。この判定の結果、撮影モードであれば、システムコントローラ26は、ステップ#61において、撮影動作を開始し、上記同様に、被写体を撮像するときの一連の撮像動作の制御を行い、ステップ#62において、スルー画像をLCD9にライブビュー表示する。 
 タッチパネル制御部30は、ステップ#63において、タッチパネル31における静電容量値の変化をモニタする。タッチパネル制御部30は、モニタした静電容量値がタッチ直前範囲Tとなり、タッチパネル31に対してユーザの指Fがタッチしたか否かを判定する。これと共に、タッチパネル制御部30は、ユーザの指Fがタッチパネル31にタッチすると、当該タッチした領域の座標位置を検出し、この座標位置がLCD9の表示画面上における周辺部であるか否かを判定する。LCD9の表示画面上の周辺部は、その座標位置が予め設定されている。 
 判定の結果、ユーザの指Fのタッチの座標位置がLCD9の表示画面上における周辺部でなければ、タッチパネル制御部30は、ステップ#64において、ユーザの指Fのタッチの座標位置がLCD9の表示画面上の周辺部以外であるのか否かを判定する。 
 この判定の結果、LCD9の表示画面上の周辺部以外であれば、フォーカス制御部41は、ステップ#65において、ユーザの指Fがタッチした座標位置に対応する画像上の被写体に対してオートフォーカス(AF)を開始する。 
 オートフォーカス(AF)が終了し、レリーズボタン5が1ndレリーズスイッチから2ndレリーズスイッチのオン状態になると、撮像制御部42は、ステップ#66において、撮像部100により静止画の撮像を行う。撮像制御部42は、撮像により取得された主画像データをインタフェース22aを介して記録媒体22に記録する。
 上記ステップ#64での判定の結果、ユーザの指Fのタッチの座標位置がLCD9の表示画面上の周辺部以外でなければ、撮像制御部42は、ステップ#67において、レリーズボタン5が1ndレリーズスイッチから2ndレリーズスイッチのオン状態になり、撮像動作を行うか否かを判定する。この判定の結果、撮像動作を行うのであれば、撮像制御部42は、ステップ#68において、顔検出部43に対して顔検出の指示を送る。顔検出部43は、画像データ中に存在する被写体の顔部位Sを検出する。
 被写体の顔部位Sが検出され、レリーズボタン5が1ndレリーズスイッチから2ndレリーズスイッチのオン状態になると、撮像制御部42は、ステップ#69において、撮像部100により静止画の撮像を行い、この撮像により取得された主画像データをインタフェース22aを介して記録媒体22に記録する。
 一方、上記ステップ#63での判定の結果、ユーザの指Fによりタッチした座標位置がLCD9の表示画面上における周辺部でなければ、タッチパネル制御部30は、ユーザの指Fによりタッチした座標位置がLCD9の表示画面上における周辺部でない旨とユーザの指Fのタッチした座標位置とを枠表示制御部40に送る。 
 枠表示制御部40は、ステップ#70において、図29Aに示すようにLCD9の表示画面上における周辺部で、かつユーザの指Fのタッチした座標位置に対応する位置にLCD9にフォーカス用の枠Wを表示する。LCD9の表示画面上の周辺部にフォーカス用の枠Wを表示するのは、例えば被写体として人物を撮像する場合、LCD9の表示画面の中央部に人物を配置することが一般的であり、同表示画面の周辺部であれば、フォーカス用の枠Wを表示しても、被写体を撮像するときの構図に影響を与えないからである。
 ここで、ユーザは、LCD9の表示画面上でフォーカス用の枠Wにタッチした状態で同表示画面上を移動し、フォーカス用の枠Wを被写体の顔部S上に設定する。 
 枠表示制御部40は、ステップ#71において、図29Bに示すようにユーザの指Fが移動したか否かを判定する。この判定の結果、ユーザの指Fが移動すると、枠表示制御部40は、ステップ#72において、ユーザの指Fの移動に追従してフォーカス用の枠WをLCD9の表示画面上で移動する。枠表示制御部40は、ユーザの指Fの移動に追従してフォーカス用の枠Wを移動する場合、ユーザの指Fの移動する速度及び方向に応じた速度及び方向でフォーカス用の枠Wを移動する。 
 枠表示制御部40は、ステップ#73において、ユーザの指Fの移動が終了したか否かを判定し、終了しなければ、ユーザの指Fの移動に追従してのフォーカス用の枠Wの表示を続ける。
 図30はフォーカス用の枠Wの枠表示移動フローチャートを示す。 
 タッチパネル制御部30は、ステップ#80において、ユーザの指Fがタッチした座標位置の変化を判定する。すなわち、タッチパネル制御部30は、タッチパネル31上における静電容量値の変化の大きい箇所の座標位置を検出し、時間経過と共に移動する静電容量値の変化の大きい箇所の座標位置を順次検出し、各座標位置からユーザの指Fがタッチするタッチパネル31上の座標位置の移動を検出する。枠表示制御部40は、ユーザの指Fがタッチするタッチパネル31上の移動に追従してフォーカス用の枠Wを移動する場合、ユーザの指Fのタッチ位置の移動する速度及び方向に応じた速度及び方向でフォーカス用の枠Wを移動する。ここで、ユーザの指Fのタッチ位置の移動する速度の変化量をΔPとし、移動する方向をDとする。
 タッチパネル制御部30は、ステップS81において、ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP1よりも大きいか否か(ΔP>ΔP1)を判定する。タッチパネル制御部30は、ステップS82において、ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP2よりも大きいか否か(ΔP>ΔP2)を判定する。
 各判定の結果、ユーザの指Fのタッチ位置の移動する速度の変化量ΔP、例えばユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP1よりも速いとき、枠表示制御部40は、ステップ#82において、第1のサイズのフォーカス用の枠WをLCD9の表示画面上に表示する。 
 ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP1とΔP2との間であるとき、枠表示制御部40は、ステップ#84において、第2のサイズのフォーカス用の枠WをLCD9の表示画面上に表示する。 
 ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP2よりも遅いとき、枠表示制御部40は、ステップ#85において、第3のサイズのフォーカス用の枠WをLCD9の表示画面上に表示する。
 図29A、図29B、図29Cに示すようにユーザが指FをLCD9の表示画面上における周辺部にタッチしてフォーカス用の枠Wを表示し、フォーカス用の枠Wを被写体である人物の顔部Sに合わせる場合、ユーザの指Fの移動速度は、移動の開始時に速く、顔部Sに近づくに従って減速する。ユーザの指Fの移動速度の変化量ΔPは、例えば移動開始の当初でΔP>ΔP1、次にΔP1>ΔP>ΔP2となり、人物の顔部Sに合わせようとするときにΔP2>ΔPとなる。 
 枠表示制御部40は、先ず、第1のサイズのフォーカス用の枠WをLCD9の表示画面上に表示し、次に、第2のサイズのフォーカス用の枠WをLCD9の表示画面上に表示し、次に、第3のサイズのフォーカス用の枠WをLCD9の表示画面上に表示する。
 枠表示制御部40は、ステップ#73において、ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが無くなり、第3のサイズのフォーカス用の枠Wの移動が終了したか否かを判定する。 
 この判定の結果、第3のサイズのフォーカス用の枠Wの移動が終了すれば、フォーカス制御部41は、ステップ#74において、第3のサイズのフォーカス用の枠W内に対応する画像上の被写体に対してオートフォーカス(AF)を開始する。 
 オートフォーカス(AF)が終了すると、撮像制御部42は、ステップ#75において、第3のサイズのフォーカス用の枠W内に対応する被写体の動画のスルー画像を拡大し、拡大されたスルー画像KをLCD9にライブビュー表示する。撮像制御部42は、第3のサイズのフォーカス用の枠W内の拡大されたスルー画像Kを、LCD9の表示画面中の例えば被写体として人物に重ならない領域に表示する。
 撮像制御部42は、ステップ#76において、レリーズボタン5が1ndレリーズスイッチから2ndレリーズスイッチのオン状態になると、撮像部100により静止画の撮像を行う。撮像制御部42は、ステップ#77において、撮像により取得された画像データをインタフェース22aを介して記録媒体22に記録する。システムコントローラ26は、撮像部100の撮像により取得された静止画をLCD9の表示画面上に拡大表示する。
 このように上記第4の撮像動作によれば、ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP1よりも速いか、予め設定された移動速度ΔP1とΔP2との間であるか、又は移動速度ΔP2よりも遅いかのいずれであるのかを判定する。この判定の結果、ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP1よりも速いとき、第1のサイズのフォーカス用の枠Wが表示される。ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP1とΔP2との間であるとき、第2のサイズのフォーカス用の枠Wが表示される。ユーザの指Fのタッチ位置の移動する速度の変化量ΔPが予め設定された移動速度ΔP2よりも遅いとき、第3のサイズのフォーカス用の枠Wが表示される。
 これにより、フォーカス用の枠Wの移動の当初、第1のサイズのフォーカス用の枠Wを表示することによって被写体である人物の顔部Sに対して位置合わせがし易くなる。フォーカス用の枠Wが顔部Sに近付くに従ってフォーカス用の枠Wの移動速度が減少し、第2のサイズから第3のサイズのフォーカス用の枠Wの表示に切り替わり、フォーカス用の枠Wを顔部Sに合わせて正確に位置合わせすることができる。
 100:撮像部、11:レンズ、12:絞り、13:オートフォーカス(AF)機構、14:シャッタ、15:撮像センサ、16:撮像回路、17:A/D変換器、18:画像処理装置、23:ファインダ画像生成部、19:バッファメモリ、21:圧縮伸長部、22a:インタフェース、22:記録媒体、20:第1の液晶制御部、9:液晶ディスプレイ(LCD)、23:画像生成部、3:表示装置、24:第2の液晶制御部、30:タッチパネル制御部、31:タッチパネル、31a:センサ、26:シンテムコントローラ、27:操作部、25:ストロボ制御回路、5:レリーズボタン、6:モードダイヤル、7:十字キー、8:確定キー、25:ストロボ制御回路、4:ストロボ、40:枠表示制御部、41:フォーカス制御部、42:撮像制御部、43:顔検出部、44:一覧表示部、45:画像再生部。

Claims (25)

  1.  動画像又は静止画像を表示する表示部と、
     前記表示部に設けられたタッチパネルと、
     前記タッチパネルに対して操作部位が近接しようとすると、前記表示部にフォーカス用の枠を表示すると共に、前記タッチパネルに近接しようとする前記操作部位の移動に追従して前記フォーカス用の枠を移動する枠表示制御部と、
     撮影指示を受けて前記フォーカス用の枠内の前記被写体に対してフォーカスを実行して撮像を行う撮像制御部と、
    を具備することを特徴とする撮像装置。
  2.  被写体を撮像する撮像部と、
     前記タッチパネルに対して操作部位が近接しようとする又は接触したか否かを判定するタッチパネル制御部と、
     前記フォーカス用の枠内の前記被写体に対してフォーカスを実行するフォーカス制御部と、
    を具備し、
     前記表示部は、前記撮像部により撮像された前記動画像又は前記静止画像を表示し、
     前記枠表示制御部は、前記操作部位が前記タッチパネルに前記近接しようとする状態で、前記表示部にフォーカス用の枠を表示し、かつ前記操作部位の移動に追従して前記フォーカス用の枠を移動し、
     前記撮像制御部は、前記撮像部により撮像を行う、
    ことを特徴とする請求項1記載の撮像装置。
  3.  前記表示部は、表示画面を含み、
     前記タッチパネルは、前記表示画面上に設けられ、
     前記枠表示制御部は、前記表示部の前記表示画面上における前記タッチパネルに対して前記操作部位が近接しようとする部位に対応する座標位置に前記フォーカス用の枠を表示する、
    ことを特徴とする請求項1記載の撮像装置。
  4.  前記操作部位が前記タッチパネルに対して傾斜する方向から近接して接触する場合、
     前記タッチパネル制御部は、前記傾斜の角度に基づいて前記操作部位が前記タッチパネルに接触しようとする部位の位置を求め、この部位の位置に対応する前記表示画面上に前記フォーカス用の枠を表示する、
    ことを特徴とする請求項3記載の撮像装置。
  5.  前記枠表示制御部は、前記近接の状態にある前記操作部位の移動に追従して前記フォーカス用の枠を前記表示部の前記表示画面上で移動することを特徴とする請求項1記載の撮像装置。
  6.  前記枠表示制御部は、前記操作部位の移動速度に応じた速度及び移動方向に応じた方向で前記フォーカス用の枠を移動することを特徴とする請求項5記載の撮像装置。
  7.  前記枠表示制御部は、前記操作部位と前記タッチパネルとの距離に応じて前記フォーカス用の枠のサイズを縮小・拡大することを特徴とする請求項6記載の撮像装置。
  8.  前記枠表示制御部は、前記操作部位と前記タッチパネルと距離が短くなるに従って前記フォーカス用の枠のサイズを縮小することを特徴とする請求項7記載の撮像装置。
  9.  前記フォーカス制御部は、前記枠表示制御部により前記フォーカス用の枠の移動中に前記フォーカスの実行を行わず、前記操作部位が停止すると、前記被写体に対するフォーカスを実行することを特徴とする請求項1記載の撮像装置。
  10.  前記撮像制御部は、前記操作部位の前記タッチパネルに対する接触を検出すると、当該接触の検出時に前記撮像部により前記被写体の撮像動作を行うことを特徴とする請求項1記載の撮像装置。
  11.  前記フォーカス用の枠内に前記被写体の顔部位が存在するか否かを検出する顔検出部を含み、
     前記枠表示制御部は、前記顔検出部により検出された前記顔部位に前記フォーカス用の枠の表示位置を修正する、
    ことを特徴とする請求項1記載の撮像装置。
  12.  前記タッチパネル制御部は、前記タッチパネルに対して前記操作部位が近接する距離に応じた複数のタッチ近接範囲を予め設定し、前記操作部位が前記複数のタッチ近接範囲のうちいずれの前記タッチ近接範囲に入っているのかを判定し、
     前記枠表示制御部は、前記タッチパネル制御部の判定の結果、前記操作部位が前記タッチパネルに対して前記複数のタッチ近接範囲のうち前記タッチパネルから遠い側の前記タッチ近接範囲内に入ると、前記フォーカス用の枠を前記表示部の表示画面上に表示する、
    ことを特徴とする請求項1記載の撮像装置。
  13.  前記フォーカス制御部は、前記操作部位が前記タッチパネルに対して前記複数のタッチ近接範囲のうち前記タッチパネルに近い側の前記タッチ近接範囲内に入ると、前記被写体に対するフォーカスを実行することを特徴とする請求項1記載の撮像装置。
  14.  前記操作部位が前記タッチパネルに対して垂直方向又は傾斜する方向から近接して接触する場合、
     前記タッチパネル制御部は、前記タッチパネルに対する前記操作部位の距離が遠い順に第1と第2のタッチ近接範囲と、タッチ直前範囲とを設定し、
     前記枠表示制御部は、前記操作部位が前記第2のタッチ近接範囲内に入ると、前記フォーカス用の枠を前記表示部の表示画面に表示し、
     前記フォーカス制御部は、前記操作部位が前記タッチ直前範囲内に入ると、前記被写体に対するフォーカスを実行し、
     前記撮像制御部は、前記操作部位が前記タッチパネルに前記接触すると、前記撮像部により撮像動作を行う、
    ことを特徴とする請求項12記載の撮像装置。
  15.  前記枠表示制御部は、前記操作部位が前記第2のタッチ近接範囲内に入り、前記操作部位が前記タッチパネルに接近する毎に、前記フォーカス用の枠のサイズを順次縮小することを特徴とする請求項14記載の撮像装置。
  16.  前記フォーカス制御部は、前記操作部位が前記第2のタッチ近接範囲内に入って前記フォーカスを実行中に、前記操作部位が移動すると、前記フォーカスの実行を中断し、再び、前記操作部位が停止すると、前記被写体に対するフォーカスの実行を再開することを特徴とする請求項14記載の撮像装置。
  17.  前記撮像制御部は、前記撮像部の撮像により取得した前記被写体の画像を前記表示部の表示画面上に拡大表示することを特徴とする請求項14記載の撮像装置。
  18.  再生モード時に、複数の画像を前記表示部の表示画面に表示する一覧表示部と、
     前記複数の画像のうちいずれか1つの画像が選択されると、当該選択された画像を前記表示部に拡大表示する画像再生部と、
    を含み、
     前記枠表示制御部は、前記タッチパネル制御部により前記操作部位が前記近接又は接触している状態で、前記表示部にフォーカス用の枠を表示し、かつ前記操作部位の移動に追従して前記フォーカス用の枠を前記選択する画像に移動する、
    ことを特徴とする請求項1記載の撮像装置。
  19.  動画像又は静止画像を表示する表示部に設けられたタッチパネルに対して操作部位が近接しようとするのかを検出し、
     前記操作部位が前記タッチパネルに対して近接しようとすると、前記表示部にフォーカス用の枠を表示すると共に、前記タッチパネルに近接しようとする前記操作部位の移動に追従して前記フォーカス用の枠を移動し、
     撮影指示を受けると、前記フォーカス用の枠内の前記被写体に対してフォーカスを実行し、被写体に対する撮像を行う、
    ことを特徴とする撮像装置の撮像方法。
  20.  前記操作部位が前記タッチパネルに対して傾斜する方向から近接しようとする場合、
     前記タッチパネルに対して接近しようとする前記操作部位の位置を前記傾斜に基づいて求め、この操作部位の位置に対応する前記表示部上に前記フォーカス用の枠を表示する。
    ことを特徴とする請求項19記載の撮像装置の撮像方法。
  21.  前記フォーカス用の枠の移動は、前記近接の状態にある前記操作部位の移動に追従することを特徴とする請求項19記載の撮像装置の撮像方法。
  22.  前記フォーカス用の枠は、前記操作部位と前記タッチパネルとの距離に応じて前記フォーカス用の枠のサイズを縮小・拡大することを特徴とする請求項21記載の撮像装置の撮像方法。
  23.  前記フォーカス用の枠は、前記操作部位と前記タッチパネルと距離が短くなるに従って前記フォーカス用の枠のサイズを縮小することを特徴とする請求項22記載の撮像装置の撮像方法。
  24.  前記フォーカスは、前記フォーカス用の枠の移動中に前記フォーカスを実行せず、前記操作部位が停止すると、前記被写体に対して実行することを特徴とする請求項19記載の撮像装置の撮像方法。
  25.  動画像又は静止画像を表示する表示部に設けられたタッチパネルに対して操作部位が近接又は接触したかを検出させる検出機能と、
     前記操作部位が前記タッチパネルに対して近接しようとすると、前記表示部にフォーカス用の枠を表示すると共に、前記タッチパネルに近接しようとする前記操作部位の移動に追従して前記フォーカス用の枠を移動させる追従機能と、
     撮影指示を受けると、前記フォーカス用の枠内の前記被写体に対してフォーカスを実行し、被写体に対する撮像を行わせる撮像機能と、
    を含むコンピュータにより処理可能な追尾プログラムを記憶する記憶媒体。
PCT/JP2012/082364 2011-12-16 2012-12-13 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体 WO2013089190A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013516885A JP5373229B1 (ja) 2011-12-16 2012-12-13 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体
EP12858021.4A EP2782328A4 (en) 2011-12-16 2012-12-13 IMAGING DEVICE AND IMAGING METHOD, AND STORAGE MEDIUM FOR STORING A TRACKING PROGRAM THAT CAN BE PROCESSED BY A COMPUTER
KR1020147017340A KR101585488B1 (ko) 2011-12-16 2012-12-13 촬상 장치 및 그 촬상 방법, 컴퓨터에 의해 처리 가능한 추종 프로그램이 기억된 기억 매체
CN201280062133.0A CN104012073B (zh) 2011-12-16 2012-12-13 拍摄装置及其拍摄方法、存储能够由计算机来处理的追踪程序的存储介质
US14/305,301 US9113073B2 (en) 2011-12-16 2014-06-16 Imaging apparatus and imaging method of the same, and storage medium to store computer-processible tracking program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011275924 2011-12-16
JP2011-275924 2011-12-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/305,301 Continuation US9113073B2 (en) 2011-12-16 2014-06-16 Imaging apparatus and imaging method of the same, and storage medium to store computer-processible tracking program

Publications (1)

Publication Number Publication Date
WO2013089190A1 true WO2013089190A1 (ja) 2013-06-20

Family

ID=48612631

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/082364 WO2013089190A1 (ja) 2011-12-16 2012-12-13 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体

Country Status (6)

Country Link
US (1) US9113073B2 (ja)
EP (1) EP2782328A4 (ja)
JP (1) JP5373229B1 (ja)
KR (1) KR101585488B1 (ja)
CN (2) CN104012073B (ja)
WO (1) WO2013089190A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175787A1 (ja) * 2012-05-24 2013-11-28 パナソニック株式会社 撮影装置
JP2014123109A (ja) * 2012-11-23 2014-07-03 Canon Inc 撮像装置
CN104065878A (zh) * 2014-06-03 2014-09-24 小米科技有限责任公司 拍摄控制方法、装置及终端
EP2799971A2 (en) * 2013-05-03 2014-11-05 Samsung Electronics Co., Ltd. Method of operating touch screen and electronic device thereof
JP2015049880A (ja) * 2013-09-05 2015-03-16 コニカミノルタ株式会社 タッチパネル入力装置、タッチパネル入力装置の制御方法、およびタッチパネル入力装置の制御プログラム
US9584725B2 (en) 2014-06-03 2017-02-28 Xiaomi Inc. Method and terminal device for shooting control
KR20170123688A (ko) * 2015-03-13 2017-11-08 후아웨이 테크놀러지 컴퍼니 리미티드 전자 장치, 사진 촬영 방법, 및 사진 촬영 장치
WO2018042824A1 (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 撮像制御装置、表示制御装置及びそれらの制御方法
JP7517710B2 (ja) 2022-03-11 2024-07-17 Necプラットフォームズ株式会社 非接触型入力装置、非接触型入力方法及び非接触型入力プログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235278B1 (en) * 2014-07-24 2016-01-12 Amazon Technologies, Inc. Machine-learning based tap detection
CN104270573A (zh) * 2014-10-27 2015-01-07 上海斐讯数据通信技术有限公司 多点触控对焦成像系统和方法及适用的移动终端
CN107465877B (zh) * 2014-11-20 2019-07-09 Oppo广东移动通信有限公司 跟踪对焦方法及装置和相关介质产品
CN104506765B (zh) * 2014-11-21 2018-05-11 惠州Tcl移动通信有限公司 一种移动终端及其基于触摸手势的对焦方法
JP6222148B2 (ja) * 2015-03-19 2017-11-01 カシオ計算機株式会社 撮像装置、画像再生方法及びプログラム
KR102429427B1 (ko) * 2015-07-20 2022-08-04 삼성전자주식회사 촬영 장치 및 그 동작 방법
CN105681657B (zh) * 2016-01-15 2017-11-14 广东欧珀移动通信有限公司 一种拍摄对焦的方法及终端设备
US11221707B2 (en) * 2016-01-28 2022-01-11 Maxell, Ltd. Imaging device
US11106315B2 (en) * 2018-11-29 2021-08-31 International Business Machines Corporation Touch screen device facilitating estimation of entity orientation and identity
US11523060B2 (en) 2018-11-29 2022-12-06 Ricoh Company, Ltd. Display device, imaging device, object moving method, and recording medium
US10798292B1 (en) * 2019-05-31 2020-10-06 Microsoft Technology Licensing, Llc Techniques to set focus in camera in a mixed-reality environment with hand gesture interaction
CN110908558B (zh) * 2019-10-30 2022-10-18 维沃移动通信(杭州)有限公司 一种图像显示方法及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101186A (ja) 2004-09-29 2006-04-13 Nikon Corp カメラ
JP2006319903A (ja) * 2005-05-16 2006-11-24 Fujifilm Holdings Corp 情報表示画面を備えた携帯機器
JP2009239733A (ja) * 2008-03-27 2009-10-15 Sony Corp 撮像装置、撮像方法及びプログラム
JP2011009846A (ja) * 2009-06-23 2011-01-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0213215D0 (en) * 2002-06-08 2002-07-17 Lipman Robert M Computer navigation
JP4929630B2 (ja) * 2005-07-06 2012-05-09 ソニー株式会社 撮像装置、制御方法、およびプログラム
GB0617400D0 (en) * 2006-09-06 2006-10-18 Sharan Santosh Computer display magnification for efficient data entry
US8913176B2 (en) * 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
KR101505681B1 (ko) * 2008-09-05 2015-03-30 엘지전자 주식회사 터치 스크린을 구비한 이동 단말기 및 이를 이용한 이미지 촬상 방법
JP2011028560A (ja) * 2009-07-27 2011-02-10 Sony Corp 情報処理装置、表示方法及び表示プログラム
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
US20110084962A1 (en) * 2009-10-12 2011-04-14 Jong Hwan Kim Mobile terminal and image processing method therein
US8826184B2 (en) * 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
JP5848561B2 (ja) * 2011-09-20 2016-01-27 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101186A (ja) 2004-09-29 2006-04-13 Nikon Corp カメラ
JP2006319903A (ja) * 2005-05-16 2006-11-24 Fujifilm Holdings Corp 情報表示画面を備えた携帯機器
JP2009239733A (ja) * 2008-03-27 2009-10-15 Sony Corp 撮像装置、撮像方法及びプログラム
JP2011009846A (ja) * 2009-06-23 2011-01-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2782328A4

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175787A1 (ja) * 2012-05-24 2013-11-28 パナソニック株式会社 撮影装置
JP5523635B2 (ja) * 2012-05-24 2014-06-18 パナソニック株式会社 撮影装置
US9219862B2 (en) 2012-05-24 2015-12-22 Panasonic Intellectual Property Corporation Of America Imaging device
JP2014123109A (ja) * 2012-11-23 2014-07-03 Canon Inc 撮像装置
US9652056B2 (en) 2013-05-03 2017-05-16 Samsung Electronics Co., Ltd. Touch-enable cursor control method and electronic device thereof
EP2799971A2 (en) * 2013-05-03 2014-11-05 Samsung Electronics Co., Ltd. Method of operating touch screen and electronic device thereof
EP2799971A3 (en) * 2013-05-03 2014-11-12 Samsung Electronics Co., Ltd. Method of operating touch screen and electronic device thereof
JP2015049880A (ja) * 2013-09-05 2015-03-16 コニカミノルタ株式会社 タッチパネル入力装置、タッチパネル入力装置の制御方法、およびタッチパネル入力装置の制御プログラム
US9584725B2 (en) 2014-06-03 2017-02-28 Xiaomi Inc. Method and terminal device for shooting control
CN104065878A (zh) * 2014-06-03 2014-09-24 小米科技有限责任公司 拍摄控制方法、装置及终端
KR20170123688A (ko) * 2015-03-13 2017-11-08 후아웨이 테크놀러지 컴퍼니 리미티드 전자 장치, 사진 촬영 방법, 및 사진 촬영 장치
JP2018513466A (ja) * 2015-03-13 2018-05-24 華為技術有限公司Huawei Technologies Co.,Ltd. 電子デバイス、撮影方法、および撮影装置
KR102024330B1 (ko) * 2015-03-13 2019-09-23 후아웨이 테크놀러지 컴퍼니 리미티드 전자 장치, 사진 촬영 방법, 및 사진 촬영 장치
WO2018042824A1 (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 撮像制御装置、表示制御装置及びそれらの制御方法
CN109644239A (zh) * 2016-08-31 2019-04-16 佳能株式会社 摄像控制设备、显示控制设备及其控制方法
CN109644239B (zh) * 2016-08-31 2020-12-15 佳能株式会社 摄像控制设备、显示控制设备及其控制方法和存储介质
US10992853B2 (en) 2016-08-31 2021-04-27 Canon Kabushiki Kaisha Image capture control apparatus, display control apparatus, and control method for tracking a tracking target in a live view image
US11272093B2 (en) 2016-08-31 2022-03-08 Canon Kabushiki Kaisha Image capture control apparatus, display control apparatus, and control method therefor to track a target and to determine an autofocus position
JP7517710B2 (ja) 2022-03-11 2024-07-17 Necプラットフォームズ株式会社 非接触型入力装置、非接触型入力方法及び非接触型入力プログラム

Also Published As

Publication number Publication date
EP2782328A1 (en) 2014-09-24
CN104012073B (zh) 2017-06-09
KR101585488B1 (ko) 2016-01-14
CN104012073A (zh) 2014-08-27
KR20140101816A (ko) 2014-08-20
EP2782328A4 (en) 2015-03-11
US20140293086A1 (en) 2014-10-02
JP5373229B1 (ja) 2013-12-18
CN107197141A (zh) 2017-09-22
US9113073B2 (en) 2015-08-18
CN107197141B (zh) 2020-11-03
JPWO2013089190A1 (ja) 2015-04-27

Similar Documents

Publication Publication Date Title
JP5373229B1 (ja) 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体
US10205869B2 (en) Video processing apparatus, control method, and recording medium
US10055081B2 (en) Enabling visual recognition of an enlarged image
US9344634B2 (en) Imaging apparatus having subject detection function, method for controlling the imaging apparatus, and storage medium
US8659681B2 (en) Method and apparatus for controlling zoom using touch screen
US8643740B2 (en) Image processing device and image processing method
JP5760324B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム並びにこの画像処理プログラムが記録された記録媒体
US20120113056A1 (en) Input device, input method, and computer readable storage device
US20110013072A1 (en) Method and apparatus for manual focusing in portable terminal
CN103716533A (zh) 摄像装置以及摄像装置的控制方法
TW201320730A (zh) 攝像裝置、攝像方法及記憶媒體
JP5594157B2 (ja) 撮像装置および撮像方法
US11082620B2 (en) Zoomed in region of interest
US10652442B2 (en) Image capturing apparatus with operation members provided on different sides, control method of the same, and storage medium
US11106113B2 (en) Image capturing apparatus controlling manual focus operation amounts before and after autofocus, control method thereof, and storage medium
US20200387294A1 (en) Electronic apparatus for enlarging or reducing display object, method of controlling electronic apparatus, and non-transitory computer readable medium
JP2018085570A (ja) 撮像装置、撮像方法及びプログラム
JP2018026683A (ja) 撮像装置、その制御方法およびプログラム
US11838629B2 (en) Image processing apparatus and control method thereof, imaging apparatus, and storage medium
US20230185370A1 (en) Electronic apparatus, method for controlling electronic apparatus, and storage medium
JP2019212966A (ja) 撮像装置及びその制御方法、プログラム
JP5840256B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
JP5206226B2 (ja) 撮像装置及びプログラム
JP2017175306A (ja) 撮像装置
JP2010212940A (ja) 撮像装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013516885

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12858021

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012858021

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20147017340

Country of ref document: KR

Kind code of ref document: A