WO2020003862A1 - 撮像装置、撮像方法、及びプログラム - Google Patents

撮像装置、撮像方法、及びプログラム Download PDF

Info

Publication number
WO2020003862A1
WO2020003862A1 PCT/JP2019/021101 JP2019021101W WO2020003862A1 WO 2020003862 A1 WO2020003862 A1 WO 2020003862A1 JP 2019021101 W JP2019021101 W JP 2019021101W WO 2020003862 A1 WO2020003862 A1 WO 2020003862A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensitivity
index
touch panel
area
swipe operation
Prior art date
Application number
PCT/JP2019/021101
Other languages
English (en)
French (fr)
Inventor
祐樹 杉原
小林 潤
一樹 石田
真彦 宮田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201980042597.7A priority Critical patent/CN112352418B/zh
Priority to JP2020527303A priority patent/JP6880326B2/ja
Publication of WO2020003862A1 publication Critical patent/WO2020003862A1/ja
Priority to US17/106,490 priority patent/US11216118B2/en
Priority to US17/504,040 priority patent/US11635856B2/en
Priority to US18/182,755 priority patent/US11954290B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • the present invention relates to an imaging device, an imaging method, and a program, and more particularly, to a technology of an imaging device including a touch panel.
  • a touch panel may be installed on the back monitor of the body of a digital camera (imaging device).
  • the user can operate various digital cameras by touching the rear monitor with a finger.
  • Patent Literature 1 when a user is looking into a finder, the display position of an AF (Auto @ Focus) target frame (focus area) on the finder monitor is moved in accordance with the movement of the user's finger detected on the touch panel of the rear monitor.
  • the technique to make it work is described.
  • Patent Literature 1 discloses a technique for changing a moving speed of a moving display of an AF target frame according to a moving speed of a user's finger movement. Specifically, when the moving speed of the user's finger is higher than a predetermined speed, the moving display is moved at a high speed in accordance with the moving direction of the finger (the moving width of the moving display position per unit time is increased. If the moving speed of the user's finger is not higher than the predetermined speed, the moving display is moved at a low speed in accordance with the moving direction of the finger (the moving width of the moving display position per unit time is reduced).
  • Patent Literature 2 describes a technique for easily moving a long distance of an AF target frame while a user is looking into a finder. Specifically, according to the technique described in Patent Document 2, when a double tap operation (an operation that does not include the movement of the touch position) is performed, the display unit does not display the moving process of the AF target frame, and instead performs a double tap operation. The AF target frame is displayed at the position where the tap operation has been performed.
  • the moving speed of the index is desired to be controlled.
  • the movement of the subject and the position of the digital camera are switched. Accordingly, it is desired to move the focus area quickly and accurately.
  • Patent Document 1 describes a technique for changing the moving speed of the moving display of the AF target frame according to the moving speed of the movement of the finger of the user.
  • the user in order to control the level of the moving speed of the AF target, the user must accurately control the moving speed of the finger, and the user can accurately and simply use the AF target. It is difficult to control the moving speed of the vehicle.
  • Patent Document 2 does not mention changing the moving speed of the AF target frame.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to adjust the moving sensitivity of an index displayed on a finder monitor to a desired sensitivity of a user by using a touch panel installed on a rear monitor. It is an object of the present invention to provide an imaging device, an imaging method, and a program that can be controlled accurately and easily.
  • An image pickup apparatus for achieving the above object is a finder that displays a live view image and an index superimposed and displayed on the live view image, and an image pickup condition according to a position that is superimposed and displayed.
  • a finder that displays an index indicating an image processing condition, a touch panel that accepts a swipe operation for moving the index, and a first sensitivity for coarsely moving the index by the swipe operation or a second sensitivity for finely moving the index by the swipe operation
  • a movement control unit that moves the index based on the swipe operation on the touch panel and the sensitivity set by the sensitivity setting unit.
  • the first sensitivity or the second sensitivity is set according to the touch operation on the touch panel, and the index is moved along the swipe operation based on the set sensitivity.
  • the user can accurately and easily move the index with the first sensitivity or the second sensitivity by changing the contact operation on the touch panel.
  • the touch panel has a first area and a second area
  • the sensitivity setting unit sets the first sensitivity when the touch operation is performed in the first area, and the touch operation is performed when the touch operation is performed in the first area. If performed in the second area, the second sensitivity is set.
  • the user performs a contact operation in the first area when moving the index with the first sensitivity, and performs the second operation when moving the index with the second sensitivity.
  • the contact operation is performed in the area.
  • the user can accurately and easily move the index with the first sensitivity or the second sensitivity by selecting a region in which the contact operation is performed.
  • the imaging device further includes a posture sensor that detects a posture of the imaging device, and an area setting unit that sets the first region and the second region based on a detection result of the posture sensor.
  • the user can easily select the area in which the contact operation is performed according to the attitude of the imaging apparatus. Can be.
  • the touch panel further includes a third area that is a dead area where a swipe operation is not detected.
  • the area in which the user unintentionally touches the touch panel as the third area, which is a dead area where the swipe operation is not detected, erroneous operation unintended by the user is suppressed and accurate
  • the movement of the index can be controlled.
  • the sensitivity setting unit sets the first sensitivity when the contact operation is performed by the first pressing, and sets the second sensitivity when the contact operation is performed by the second pressing. Set to.
  • the user when the user wants to move the index with the first sensitivity, the user performs the contact operation with the first pressing, and when the user wants to move the index with the second sensitivity, the user moves the index with the second sensitivity.
  • the contact operation is performed by pressing.
  • the user can move the index with the first sensitivity or the second sensitivity accurately and easily by selecting the pressing of the contact operation.
  • the sensitivity setting unit sets the first sensitivity when the contact operation is performed on the first contact area, and sets the second sensitivity when the contact operation is performed on the second contact area. Set the sensitivity to.
  • the user when the user wants to move the index with the first sensitivity, the user performs a contact operation with the first contact area, and when the user wants to move the index with the second sensitivity, the user moves the index with the second sensitivity.
  • the contact operation is performed with the contact area of.
  • the sensitivity setting unit sets the first sensitivity when the contact operation is performed with the number of first fingers, and sets the sensitivity when the contact operation is performed with the number of second fingers. Set to the second sensitivity.
  • the user when the user wants to move the index with the first sensitivity, the user performs the contact operation with the number of first fingers, and when the user wants to move the index with the second sensitivity, the user moves the index with the second sensitivity.
  • the contact operation is performed with the number of 2 fingers.
  • the imaging device further includes a sensitivity compulsory setting unit that forcibly sets the sensitivity, the touch panel detects a start point and an end point of the swipe operation, and the compulsory sensitivity setting unit determines a start point and an end point. If the distance between them is equal to or less than the threshold, the reception setting of the first sensitivity and the reception setting of the second sensitivity are forcibly switched.
  • a sensitivity compulsory setting unit that forcibly sets the sensitivity
  • the touch panel detects a start point and an end point of the swipe operation
  • the compulsory sensitivity setting unit determines a start point and an end point. If the distance between them is equal to or less than the threshold, the reception setting of the first sensitivity and the reception setting of the second sensitivity are forcibly switched.
  • the forcible sensitivity setting unit when the distance between the start point and the end point is equal to or smaller than the threshold, the forcible sensitivity setting unit forcibly sets the reception setting of the first sensitivity and the reception setting of the second sensitivity. Switch to Accordingly, in the present embodiment, when the index is moved with the sensitivity not intended by the user, the sensitivity can be easily switched.
  • the sensitivity compulsory setting unit switches to the second sensitivity when the distance between the start point and the end point is less than or equal to the first threshold in the movement of the index at the first sensitivity.
  • the sensitivity is forcibly switched to the first sensitivity.
  • the predetermined threshold is set for the distance between the start point and the end point according to the sensitivity set for the index, and the sensitivity compulsory setting unit switches the sensitivity based on the threshold. . This makes it possible to switch the sensitivity appropriately in accordance with the sensitivity at which the index moves.
  • the index indicates the position of the focus area.
  • the user can move the position of the focus area according to the intended sensitivity.
  • the index indicates a correction amount of the white balance.
  • the user can change the correction amount of the white balance according to the intended sensitivity.
  • An imaging method is a finder that displays a live view image and an index superimposed on the live view image, and instructs an imaging condition or an image processing condition according to a position where the image is superimposed.
  • An imaging method for an imaging apparatus comprising: a finder for displaying an index; and a touch panel for receiving a swipe operation for moving the index, wherein a first sensitivity for coarsely moving the index by the swipe operation or a second sensitivity for finely moving the index.
  • a program according to another aspect of the present invention is a finder that displays a live view image and an index superimposed on the live view image, and an index that indicates an imaging condition or an image processing condition according to a position superimposed and displayed.
  • a program that causes a computer to execute an imaging step of an imaging device including: a finder that displays an image; and a touch panel that accepts a swipe operation for moving the index, wherein the first sensitivity or the index for coarsely moving the index by the swipe operation is finely adjusted.
  • Causing the computer to execute the imaging step including the control step
  • the first sensitivity or the second sensitivity is set according to the touch operation on the touch panel, and the index is moved along the swipe operation based on the set sensitivity.
  • the user can accurately and easily move the index with the first sensitivity or the second sensitivity by changing the touch operation on the touch panel.
  • FIG. 1 is a perspective view illustrating an example of an imaging device.
  • FIG. 2 is a rear view illustrating an example of the imaging apparatus.
  • FIG. 3 is a block diagram illustrating an embodiment of the internal configuration of the imaging apparatus.
  • FIG. 4 is a block diagram illustrating a main functional configuration example of a CPU.
  • FIG. 5 is a diagram illustrating an example of area division of the touch panel.
  • FIG. 6 is a diagram illustrating a swipe operation on the touch panel.
  • FIG. 7 is a diagram showing the movement of the focus area on the finder monitor.
  • FIG. 8 is a diagram illustrating a swipe operation on the touch panel.
  • FIG. 9 is a diagram showing the movement of the focus area on the finder monitor.
  • FIG. 10 is a flowchart illustrating an operation flow of the imaging apparatus.
  • FIG. 10 is a flowchart illustrating an operation flow of the imaging apparatus.
  • FIG. 11 is a diagram illustrating an area set on the touch panel.
  • FIG. 12 is a block diagram illustrating a main functional configuration example of a CPU.
  • FIG. 13 is a diagram illustrating an example of area setting when the imaging device is in the vertical position.
  • FIG. 14 is a diagram illustrating an example of area setting when the imaging device is in the vertical position.
  • FIG. 15 is a flowchart showing a flow of setting the coarse movement start area, the fine movement start area, and the insensitive area according to the vertical position and the horizontal position of the imaging apparatus.
  • FIG. 16 is a block diagram illustrating a main functional configuration example of a CPU.
  • FIG. 17 is a diagram illustrating a swipe operation on the touch panel.
  • FIG. 18 is a diagram showing the movement of the focus area on the finder monitor.
  • FIG. 19 is a flowchart illustrating a flow of detecting a return operation and changing a reception setting.
  • FIG. 20 is a diagram showing that a white balance shift image is displayed
  • Imaging device 1 and 2 are a perspective view and a rear view, respectively, showing an example of an imaging device (digital camera).
  • the imaging apparatus 10 is a digital camera that receives light passing through a lens by an imaging element, converts the light into a digital signal, and records the digital signal on a recording medium as still or moving image data.
  • the imaging device 10 is provided with a photographic lens 12, a strobe 1 and the like on the front thereof, and a shutter button 2, a power / mode switch 3, a mode dial 4 and the like on its upper surface.
  • a back monitor 30 composed of a liquid crystal monitor (LCD: Liquid Crystal Display), a zoom button 5, a cross button 6, a MENU / OK button 7, a playback button 8, a BACK button A button 9, a viewfinder 11, a viewfinder monitor 13 composed of a liquid crystal monitor, an eye sensor 17, and the like are provided.
  • LCD Liquid Crystal Display
  • the photographing lens 12 is a retractable zoom lens, and is extended from the camera body by setting the operation mode of the camera to the photographing mode by the power / mode switch 3.
  • the strobe 1 irradiates a main subject with strobe light.
  • the shutter button 2 is constituted by a two-stage stroke type switch composed of a so-called “half-press” and “full-press”, and functions as a photographing preparation instructing unit and also as an image recording instructing unit.
  • the imaging apparatus 10 When the still image shooting mode is selected as the shooting mode and the shutter button 2 is “half-pressed”, the imaging apparatus 10 performs a shooting preparation operation for performing AF (Autofocus) / AE (Auto Exposure) control and performs the shutter button 2 Is pressed fully, the still image is captured and recorded.
  • AF Autofocus
  • AE Automatic Exposure
  • the image capturing apparatus 10 starts recording a moving image. To stop and enter the standby state.
  • the power / mode switch 3 has both a function as a power switch for turning on / off the power of the imaging apparatus 10 and a function as a mode switch for setting the mode of the imaging apparatus 10, and includes “OFF position” and “playback”.
  • the position is slidably provided between the “position” and the “photographing position”.
  • the imaging apparatus 10 is turned on by sliding the power / mode switch 3 to the “reproduction position” or “shooting position”, and is turned off by adjusting the power / mode switch 3 to the “OFF position”. Then, the power / mode switch 3 is slid and set to the “reproduction position” by setting it to the “reproduction position”, and set to the “photographing mode” by setting it to the “photographing position”.
  • the mode dial 4 functions as a mode switching unit that sets a shooting mode of the imaging device 10, and the shooting mode of the imaging device 10 is set to various modes depending on the setting position of the mode dial 4. For example, there are a “still image shooting mode” for shooting still images, a “moving image shooting mode” for shooting moving images, and the like.
  • the rear monitor 30 and the viewfinder monitor 13 display a live view image in a shooting mode, display a still image or a moving image in a playback mode, and display a menu screen, etc., thereby forming a part of a graphical user interface.
  • a touch panel 31 (FIG. 3) is integrally provided on the rear monitor 30.
  • the zoom button 5 functions as zoom instructing means for instructing zooming, and includes a tele button 5T for instructing zooming to the telephoto side and a wide button 5W for instructing zooming to the wide angle side.
  • a tele button 5T for instructing zooming to the telephoto side
  • a wide button 5W for instructing zooming to the wide angle side.
  • the imaging device 10 when the tele button 5T and the wide button 5W are operated in the imaging mode, the focal length of the imaging lens 12 changes.
  • the tele button 5T and the wide button 5W are operated in the reproduction mode, the image being reproduced is enlarged or reduced.
  • the cross button 6 is an operation unit for inputting instructions in four directions of up, down, left and right, and is a button (cursor moving operation means) for selecting an item from a menu screen or instructing selection of various setting items from each menu.
  • the left / right keys function as a frame feed (forward / reverse feed) button in the playback mode.
  • the MENU / OK button 7 is an operation having both a function as a menu button for issuing a command to display a menu on the screen of the rear monitor 30 and a function as an OK button for instructing selection and execution of the selected contents. Button.
  • the play button 8 is a button for switching to a playback mode in which a still image or a moving image that has been captured and recorded is displayed on the rear monitor 30.
  • the BACK button 9 functions as a button for instructing to cancel the input operation or return to the previous operation state.
  • buttons / switches are provided, the functions of the buttons / switches can be realized by operating the touch panel 31.
  • FIG. 3 is a block diagram illustrating an embodiment of the internal configuration of the imaging device 10.
  • the imaging device 10 records a captured image on a memory card 54, and the operation of the entire device is totally controlled by a central processing unit (CPU) 40.
  • CPU central processing unit
  • the imaging device 10 includes operation units 38 such as a shutter button 2, a power / mode switch 3, a mode dial 4, a tele button 5T, a wide button 5W, a cross button 6, a MENU / OK button 7, a playback button 8, and a BACK button 9. Is provided.
  • the signal from the operation unit 38 is input to the CPU 40, and the CPU 40 controls each circuit of the imaging device 10 based on the input signal.
  • driving control of the imaging device (image sensor) 16 by the sensor driving unit 32 shutter driving In addition to controlling driving of a mechanical shutter (mechanical shutter) 15 by a unit 33, driving of the diaphragm 14 by a diaphragm driving unit 34, and driving of the photographing lens 12 by a lens driving unit 36, photographing operation control, image processing control, and image processing. It performs data recording / reproduction control, display control of the finder monitor 13 and the rear monitor 30, and the like.
  • the light flux that has passed through the imaging lens 12, the aperture 14, the mechanical shutter (mechanical shutter) 15, and the like is imaged on the imaging element 16 which is a CMOS (Complementary Metal-Oxide Semiconductor) type color image sensor.
  • the image sensor 16 is not limited to the CMOS type, but may be an XY address type or a CCD (Charge Coupled Device) type color image sensor.
  • the image sensor 16 has a large number of light receiving elements (photodiodes) arranged two-dimensionally, and the subject image formed on the light receiving surface of each photodiode has a signal voltage (or charge) of an amount corresponding to the amount of incident light. Is converted into a digital signal via an A / D (Analog / Digital) converter in the image sensor 16 and output.
  • a / D Analog / Digital
  • An image signal (image data) read from the image sensor 16 at the time of shooting a moving image or a still image is temporarily stored in a memory (SDRAM (Synchronous Dynamic Random Access Memory)) 48 via the image input controller 22, or
  • SDRAM Serial Dynamic Random Access Memory
  • the CPU 40 generally controls each unit of the imaging device 10 based on an operation on the operation unit 38. During the shooting (display) of the live view image and the shooting (recording) of the moving image, the AF 40 and the AE operation are always performed. Do.
  • the AF processing unit 42 is a unit that performs a contrast AF process or a phase difference AF process.
  • a contrast AF process When performing the contrast AF process, a high-frequency component of an image in an AF area in a continuously captured image is extracted, and an AF evaluation value indicating a focus state is calculated by integrating the high-frequency component.
  • the CPU 40 performs AF control (contrast AF) by moving the focus lens in the photographing lens 12 to a lens position at which the AF evaluation value is maximized based on the AF evaluation value calculated by the AF processing unit 42.
  • the AF processing unit 42 determines the phase difference data (for example, a pair of phase difference pixels) based on each output data of a pair of phase difference pixels in the AF area. Of the respective output data), and based on the calculated phase difference data, the amount of defocus (the defocus amount) between the focus position of the photographing lens 12 and the imaging surface of the image sensor 16 in the optical axis direction. ) Is calculated.
  • the CPU 40 performs AF control (phase difference AF) by moving the focus lens in the photographing lens 12 to a lens position where the defocus amount becomes zero based on the defocus amount calculated by the AF processing unit 42.
  • the AE detection unit 44 integrates image data (for example, pixel values of G pixels of the entire screen) obtained via the image input controller 22 or sets different weights in the center and the periphery of the screen. (The pixel value of the G pixel), and outputs the integrated value to the CPU 40.
  • the CPU 40 calculates the brightness of the subject (imaging Ev value (exposure value)) from the integrated value input from the AE detection unit 44.
  • the shooting mode is the still image shooting mode
  • the CPU 40 performs the above-described AF control again, and if the shutter button 2 is fully pressed,
  • the brightness of the subject (photographing Ev value) is calculated, the F value of the aperture 14 and the exposure time (shutter speed) of the mechanical shutter 15 are determined based on the calculated photographing Ev value in accordance with the program diagram, and a still image is photographed ( Exposure control).
  • the shooting mode is the moving image shooting mode
  • the shutter button 2 when the shutter button 2 is fully pressed, the CPU 40 starts shooting and recording (recording) of a moving image.
  • the mechanical shutter 15 is opened, image data is continuously read from the image pickup device 16 (for example, 30 frames / second and 60 frames / second as a frame rate), and the phase difference AF is performed continuously.
  • the brightness of the subject is calculated, and the shutter speed (charge storage time by the rolling shutter) and / or the aperture 14 by the aperture drive unit 34 are controlled by the shutter drive unit 33.
  • the CPU 40 moves the zoom lens in the optical axis direction via the lens driving unit 36 in response to a zoom command from the zoom button 5 to change the focal length.
  • the ROM 47 is a ROM (Read Only Memory) storing various parameters and tables used for camera control programs, defect information of the image sensor 16, image processing, and the like, or an EEPROM (Electrically Erasable Programmable Read-Only Memory). It is.
  • the image processing unit 24 reads out unprocessed image data (RAW data) acquired via the image input controller 22 at the time of shooting a moving image or a still image and temporarily stored in the memory 48.
  • the image processing unit 24 performs offset processing, pixel interpolation processing (interpolation processing of phase difference detection pixels, flawed pixels, and the like) on the read RAW data, gain control processing including white balance correction and sensitivity correction, gamma correction processing, It performs synchronization processing (also referred to as “demosaic processing”), luminance and color difference signal generation processing, contour enhancement processing, color correction, and the like.
  • VRAM Video RAM random access memory
  • the VRAM 50 includes an area A and an area B for recording image data each representing an image of one frame.
  • image data representing an image for one frame is rewritten alternately between the A region and the B region.
  • the written image data is read from an area other than the area in which the image data is rewritten among the A area and the B area of the VRAM 50.
  • the image data read from the VRAM 50 is encoded by the video encoder 28 and output to the viewfinder monitor 13 and the rear monitor 30 provided on the back of the camera.
  • a live view image showing the subject image is displayed on the finder monitor 13 and the rear monitor 30.
  • the display of the live view image on the finder monitor 13 or the rear monitor 30 is controlled by detection of the eye sensor 17.
  • a live view image is displayed on the viewfinder monitor 13 and when it is detected that the user is not looking through the viewfinder monitor 13, Then, the live view image is displayed on the rear monitor 30.
  • the eye sensor 17 is a sensor that detects whether or not the user is looking into the viewfinder monitor 13.
  • the eye sensor 17 is configured by, for example, an infrared sensor.
  • the touch panel 31 is provided integrally with the rear monitor 30.
  • the touch panel 31 detects contact of the user's finger 120 as an operation from the user.
  • the touch panel 31 detects contact by various methods such as a resistance film method and a capacitance method.
  • the touch sensor input unit 49 analyzes a touch position of the user's finger 120 and a movement of the finger 120 on the touch panel 31 from a signal from the touch panel 31, and outputs an analysis result.
  • the image data (the luminance data (Y) and the color difference data (Cb), (Cr)), which are image data processed by the image processing unit 24 and processed as a recording still image or a moving image, are stored in the memory 48 again. It is memorized.
  • the compression / decompression processing unit 26 performs a compression process on the luminance data (Y) and the color difference data (Cb) and (Cr) that are processed by the image processing unit 24 and stored in the memory 48 when recording a still image or a moving image. Apply. In the case of a still image, it is compressed in, for example, a JPEG (Joint Photographic coding Experts Group) format, and in the case of a moving image, it is compressed, for example, in H.264 format.
  • the compressed image data compressed by the compression / decompression processing unit 26 is recorded on the memory card 54 via the media controller 52.
  • the compression / decompression processing unit 26 performs decompression processing on the compressed image data obtained from the memory card 54 via the media controller 52 in the reproduction mode.
  • the media controller 52 performs recording and reading of compressed image data on the memory card 54, and the like.
  • the attitude sensor 51 is a sensor that detects the attitude of the imaging device 10, and is configured by, for example, a gyro sensor.
  • the posture sensor 51 detects whether the imaging device 10 is in the horizontal position or the vertical position according to the shooting posture of the user. When the imaging device 10 is in the vertical position, the attitude sensor 51 determines whether the finder 13 is in the vertical position on the right side with respect to the imaging direction or the finder 13 is in the vertical position on the left side with respect to the imaging direction. Can be detected.
  • FIG. 4 is a block diagram illustrating a main functional configuration example of the CPU 40 of the present embodiment.
  • the CPU 40 has a sensitivity setting unit 101 and a movement control unit 103.
  • the sensitivity setting unit 101 sets the sensitivity for moving the index.
  • the sensitivity setting unit 101 sets the sensitivity of an index that moves in response to a swipe operation received on the touch panel 31.
  • the sensitivity is a moving distance of an index corresponding to a moving distance of a swipe operation received on the touch panel 31.
  • the index is a mark or the like superimposed and displayed on the live view image, and can instruct an imaging condition or an image processing condition according to the position where the image is superimposed and displayed.
  • a focus area is indicated by an index.
  • an index indicates the shift amount of the white balance shift.
  • the moving distance of the index is set longer than the moving distance of the swipe operation, and the moving speed of the index is increased (coarse movement).
  • the moving distance of the index is set to be shorter than the moving distance of the swipe operation, and the moving speed of the index becomes slow (slight movement).
  • the movement control unit 103 moves the index based on the swipe operation on the touch panel 31 and the sensitivity set by the sensitivity setting unit 101. Specifically, the movement control unit 103 moves the index displayed on the finder monitor 13 in conjunction with the swipe operation, based on the sensitivity determined by the contact operation.
  • the index is moved by the first sensitivity in conjunction with the subsequent swipe operation.
  • the index is moved by the second sensitivity in conjunction with the subsequent swipe operation.
  • FIG. 5 is a diagram showing an example of area division of the touch panel 31.
  • the touch panel 31 includes a coarse movement start area (first area) W1 and a fine movement start area (second area) W2.
  • the coarse movement start area W1 and the fine movement start area W2 are provided so as to bisect the short side L2 of the touch panel 31.
  • the index is moved by the coarse movement sensitivity. Further, when the contact operation is performed on the fine movement start area W2, the index is moved by the fine movement sensitivity.
  • the contact operation is a first touch-down operation on the touch panel 31 in the swipe operation, and the swipe operation is performed after the finger 120 touches the touch panel 31 after the contact operation of the finger 120 on the touch panel 31 is performed. It is to move in the state.
  • the sensitivity setting unit 101 sets the coarse movement sensitivity and the fine movement sensitivity by detecting the contact operation (the first touch-down operation on the touch panel 31). Therefore, the sensitivity setting unit 101 determines whether the finger 120 contacts a different area during the swipe operation. Even if there is, the sensitivity is fixed by the initially set sensitivity so that the sensitivity does not change during the movement of the index.
  • FIG. 6 and FIG. 7 are diagrams illustrating an example in which the index is moved based on the coarse movement sensitivity.
  • FIG. 6 is a diagram showing a swipe operation on the touch panel 31.
  • FIG. 7 is a diagram showing the movement of the focus area F on the finder monitor 13 in conjunction with the swipe operation shown in FIG. In FIG. 7, candidates for the focus area F on the finder monitor 13 are displayed. However, the focus area F candidates may not be displayed on the actual finder monitor 13.
  • the user performs a swipe operation on touch panel 31 using finger 120. Specifically, a contact operation of finger 120 is performed in coarse movement start region W1. Then, the finger 120 performs a swipe operation along the arrow 122. In conjunction with this swipe operation, as shown in FIG. 7, in the finder monitor 13, the position of the focus area F, which is an example of an index, moves from F1 to F2 along the arrow 124. The movement of the focus area F is performed with coarse movement sensitivity. When the focus area F can be moved with the coarse movement sensitivity in this way, even if the cat 126, which is the subject, moves quickly, the position of the focus area F can be moved quickly according to the movement. .
  • FIG. 8 is a diagram showing a swipe operation on the touch panel 31.
  • FIG. 9 is a view showing the movement of the focus area F on the finder monitor 13 in conjunction with the swipe operation shown in FIG.
  • the user performs a swipe operation on the touch panel 31 using the finger 120. Specifically, a contact operation of finger 120 is performed in fine movement start region W2 of touch panel 31. Then, a swipe operation is performed on the finger 120 along the arrow 122. In conjunction with this swipe operation, the position of the focus area F moves along the arrow 124 from F3 to F4 on the finder monitor 13 as shown in FIG. The movement of the focus area F is performed with fine movement sensitivity. When the index is moved by the fine movement sensitivity in this manner, the user can easily and accurately adjust the position of the focus area F when accurately adjusting the position of the focus area F to the face of the cat 126 as the subject. .
  • FIG. 10 is a flowchart showing an operation flow of the imaging device 10.
  • the touch operation of the user's finger 120 is detected by the touch panel 31 of the imaging device 10, and an area where the touch operation is performed on the touch panel 31 is detected via the touch sensor input unit 49 (step S ⁇ b> 10). Then, the sensitivity setting unit 101 determines whether the area where the touch panel 31 has detected the contact operation is the coarse movement start area W1 or the fine movement start area W2 (step S11). When the contact operation is detected in the coarse movement start area W1, the sensitivity setting unit 101 sets the sensitivity to the coarse movement (step S12: sensitivity setting step). On the other hand, when the contact operation is detected in the fine movement start area W2, the sensitivity setting unit 101 sets the sensitivity to the fine movement (step S13: sensitivity setting step). Thereafter, the movement control unit 103 detects a swipe operation on the touch panel (Step S14), and moves the index with the set sensitivity in conjunction with the swipe operation (Step S15: movement control step).
  • the hardware structure of the processing unit (processing unit) that executes various types of processing is the following various types of processors.
  • the circuit configuration can be changed after manufacturing such as CPU (Central Processing Unit) and FPGA (Field Programmable Gate Array), which are general-purpose processors that function as various processing units by executing software (programs).
  • Special-purpose electrical circuit which is a processor having a circuit design specifically designed to execute a specific process such as a programmable logic device (Programmable Logic Device: PLD) and an ASIC (Application Specific Integrated Circuit). It is.
  • PLD programmable logic device
  • ASIC Application Specific Integrated Circuit
  • One processing unit may be configured with one of these various processors, or configured with two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which a processor functions as a plurality of processing units.
  • SoC system-on-chip
  • a form using a processor that realizes the functions of the entire system including a plurality of processing units by one IC (Integrated Circuit) chip is used.
  • the various processing units are configured using one or more of the various processors described above as a hardware structure.
  • circuitry in which circuit elements such as semiconductor elements are combined.
  • FIG. 11 is a diagram showing an area set on the touch panel 31.
  • the parts already described in FIG. 5 are denoted by the same reference numerals, and description thereof will be omitted.
  • the touch panel 31 is provided with a coarse movement start area W1, a fine movement start area W2, and a dead area W3.
  • the dead area W3 is an area where a swipe operation is not detected.
  • FIG. 11 shows an arrangement of the dead area W3 suitable for the case where the user looks into the finder 11 with the right eye.
  • an area where a part of the face may come into contact when the user looks into the finder 11 with the right eye is defined as a dead area W3.
  • the coarse movement start area W1, the fine movement start area W2, and the insensitive area W3 are set based on the attitude of the imaging device 10.
  • FIG. 12 is a block diagram illustrating a main functional configuration example of the CPU 40 of the present embodiment.
  • the parts already described in FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted.
  • the area setting unit 105 sets the coarse movement start area W1 and the fine movement start area W2 on the touch panel 31 based on the detection result of the attitude sensor 51. Specifically, the posture sensor 51 detects whether the imaging device 10 is in the horizontal position or the vertical position, and the region setting unit 105 determines whether the coarse movement start region W1 is in the horizontal position or the vertical position. And the arrangement of the fine movement start area W2 is changed. The area setting unit 105 also changes the arrangement of the insensitive area W3 in accordance with the arrangement of the coarse movement start area W1 and the fine movement start area W2.
  • FIG. 13 is a diagram illustrating an example of area setting when the imaging device 10 is in the vertical position.
  • the example shown in FIG. 13 is an example in which the imaging device 10 is in the vertical position and the finder 11 is on the left side in the imaging direction.
  • the coarse movement start area W1 and the fine movement start area W2 are set in such a manner that the long side L1 of the touch panel 31 is bisected.
  • FIG. 14 is a diagram illustrating an example of area setting when the imaging device 10 is in the vertical position.
  • the example shown in FIG. 14 is an example in which the imaging device 10 is in the vertical position and the finder 11 is on the right side in the imaging direction.
  • the coarse movement start area W1 and the fine movement start area W2 are divided in such a manner that the short side L2 of the touch panel 31 is bisected and the L2 is bisected along the long side L1 in the imaging direction.
  • a dead area W3 is set on the right side (viewfinder side) obtained by bisecting the short side L2.
  • FIG. 15 is a flowchart showing a flow of setting the coarse movement start area W1, the fine movement start area W2, and the insensitive area W3 according to the vertical position and the horizontal position of the imaging device 10.
  • the position of the imaging device 10 is detected by the posture sensor 51 (step S20). Then, the region setting unit 105 determines whether or not the imaging device 10 is in the horizontal position (Step S21). When the imaging device 10 is in the horizontal position, the coarse movement start region W1 and the fine movement start region W2 for the horizontal position are set (step S22). Examples of the area setting for the horizontal position include the examples shown in FIGS. 5 and 11.
  • the region setting unit 105 determines whether the finder 11 is in the vertical position on the left side in the imaging direction based on the detection result of the posture sensor 51. It is determined whether or not it is (step S23).
  • the area setting unit 105 sets the coarse movement start area W1 and the fine movement start area W2 for the vertical position (the finder 11 is on the left side) (step S24).
  • the area setting of the coarse movement start area W1 and the fine movement start area W2 for the vertical position there is an example shown in FIG.
  • the area setting unit 105 sets the coarse movement start area W1 and the fine movement start area W2 for the vertical position (the finder 11 is on the right side) (step S25).
  • the area setting of the coarse movement start area W1 and the fine movement start area W2 for the vertical position (the finder 11 is on the right side) there is an example shown in FIG.
  • the user can easily touch the touch panel 31.
  • a swipe operation can be performed.
  • FIG. 16 is a block diagram illustrating a main functional configuration example of the CPU 40 of the present embodiment.
  • the parts already described in FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted.
  • the CPU 40 includes a sensitivity setting unit 101, a movement control unit 103, and a sensitivity compulsory setting unit 107.
  • the same reference numerals are given to the parts already described in FIG. 4 and the description is omitted.
  • the forced sensitivity setting unit 107 forcibly sets the sensitivity.
  • to forcibly set the sensitivity means to forcibly switch the preset setting of the coarse movement sensitivity and the fine movement sensitivity.
  • the sensitivity compulsory setting unit 107 forcibly switches the preset setting of coarse motion sensitivity and fine motion sensitivity by exchanging the coarse motion start area W1 and the fine motion start area W2.
  • Switching of the reception setting is, for example, exchanging the areas of the coarse movement start area W1 and the fine movement start area W2.
  • the sensitivity sensitivity setting unit 107 sets the first sensitivity reception setting and the second sensitivity. Forcibly switch between the reception setting and. This is because if the distance between the start point and the end point is equal to or smaller than the threshold, the sensitivity compulsory setting unit 107 determines that the user has performed the return operation.
  • the start point and the end point of the swipe operation are detected by the touch panel 31.
  • the sensitivity compulsory setting unit 107 may change the threshold for determining the return operation according to the sensitivity. For example, the sensitivity compulsory setting unit 107 switches to the fine movement sensitivity when the distance between the start point and the end point is equal to or less than the first threshold when the index is moving at the coarse movement sensitivity. Further, for example, when the index is moving with the fine movement sensitivity, the sensitivity compulsory setting unit 107 forcibly sets the coarse movement sensitivity when the distance between the start point and the end point is equal to or less than the second threshold. Switch. Note that the first threshold is set larger than the second threshold. This is because in the case of coarse movement sensitivity, the index often moves over a long distance, and in the case of fine movement sensitivity, the index often moves over a short distance.
  • FIGS. 17 and 18 are diagrams showing examples of the return operation.
  • FIG. 17 is a diagram illustrating a swipe operation on the touch panel 31.
  • FIG. 18 is a diagram showing the movement of the focus area F on the finder monitor 13 in conjunction with the swipe operation shown in FIG.
  • the start point (start coordinate) T1 in the contact operation is started in the fine movement start area W2, the finger 120 performs the swipe operation along the arrow 122, and the swipe operation ends at the end point (end coordinate) T2.
  • the position of the focus area F which is an example of the index, moves along the arrow 124 on the finder monitor 13 as shown in FIG.
  • the sensitivity compulsory setting unit 107 determines that the return operation has been performed. Then, sensitivity compulsory setting section 107 changes the areas of coarse movement start area W1 and fine movement start area W2 shown in FIG. That is, after the return operation is performed, the index moves due to the coarse movement sensitivity.
  • FIG. 19 is a flowchart showing a flow of detecting a return operation and changing a reception setting.
  • the touch panel 31 detects a contact operation that is the start of a swipe operation (step S30).
  • the touch panel 31 acquires a start coordinate T1 of the contact operation (step S31).
  • the touch panel 31 detects the end of the swipe operation (Step S32).
  • the end coordinates T2 of the swipe operation are obtained (step S33).
  • the sensitivity compulsory setting unit 107 determines whether or not the start coordinate T1 is in the coarse movement start area W1 (Step S34).
  • the sensitivity compulsory setting unit 107 determines whether the distance between the start coordinate T1 and the end coordinate T2 is equal to or less than a first threshold. Is performed (step S35). If the distance between the start coordinates T1 and the end coordinates T2 is equal to or smaller than the first threshold, the sensitivity compulsory setting unit 107 changes the area so that the start coordinates T1 fall within the fine movement start area (step S36). ). When the distance between the start coordinate T1 and the end coordinate T2 is larger than the first threshold, the sensitivity compulsory setting unit 107 does not change the area.
  • the sensitivity compulsory setting unit 107 determines whether the distance between the start coordinate T1 and the end coordinate T2 is equal to or less than a second threshold. Is performed (step S37). If the distance between the start coordinate T1 and the end coordinate T2 is equal to or smaller than the second threshold, the sensitivity compulsory setting unit 107 changes the area so that the start coordinate T1 of the swipe operation falls within the coarse movement start area. Perform (step S38). If the distance between the start coordinate T1 and the end coordinate T2 is larger than the second threshold, the compulsory sensitivity setting unit 107 does not change the area.
  • the sensitivity compulsory setting unit 107 determines the return operation using the threshold value and forcibly changes the sensitivity, the user can easily move the index with different sensitivities.
  • the sensitivity setting unit 101 can set the coarse sensitivity and the fine sensitivity in other modes.
  • the sensitivity setting unit 101 may set the moving sensitivity of the index by pressing the contact operation.
  • the sensitivity setting unit 101 sets the first sensitivity when the contact operation is performed by the first pressing, and sets the second sensitivity when the contact operation is performed by the second pressing. I do.
  • the sensitivity setting unit 101 may set the moving sensitivity of the index based on the contact area.
  • the sensitivity setting unit 101 sets the first sensitivity when the contact operation is performed on the first contact area, and sets the second sensitivity when the contact operation is performed on the second contact area. Set to.
  • the sensitivity setting unit 101 may set the sensitivity based on the number of fingers 120 touching the touch panel 31.
  • the sensitivity setting unit 101 sets the first sensitivity when the contact operation is performed with the number of the first fingers 120, and sets the sensitivity to the first sensitivity when the contact operation is performed with the number of the second fingers 120. Set to the second sensitivity.
  • the index has been described with reference to the index of the focus area F, but is not limited to this.
  • the index is not particularly limited as long as it indicates an imaging condition or an image processing condition according to the position where the display is superimposed.
  • the present invention is also applied to an index indicating a correction amount of white balance.
  • FIG. 20 is a view showing that a white balance shift image is displayed so as to be superimposed on the live view image displayed on the viewfinder monitor 13.
  • a white balance shift image (WB shift image) 131 superimposed on a live view image, a red axis (R), a blue axis (B), a green axis (G), and a yellow axis (Y) are shown, respectively.
  • the white balance shift amount is adjusted by moving the index S. Specifically, by moving the index S, the white balance shift amount is adjusted, and the white balance shift amount is reflected on the live view image, so that the user can adjust the intended white balance.
  • the WB shift image by moving the index with the fine movement sensitivity and the coarse movement sensitivity as intended by the user, the index can be quickly and accurately moved on the WB shift image.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Viewfinders (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ファインダ用モニタに表示される指標の移動感度を、背面モニタに設置されるタッチパネルを使用して、ユーザの所望の感度に、正確に且つ簡便に制御することができる撮像装置、撮像方法、及びプログラムを提供する。撮像装置(10)は、ファインダ用モニタ(13)を備えるファインダと、指標を移動させるスワイプ操作を受け付けるタッチパネル(31)と、画像処理部(24)を有する。画像処理部(24)は、スワイプ操作により指標を粗動させる第1の感度又は指標を微動させる第2の感度を、スワイプ操作におけるタッチパネルへの接触動作を検出することにより設定する感度設定部と、タッチパネルでのスワイプ操作及び感度設定部により設定された感度に基づいて、指標を移動させる移動制御部と、を備える。

Description

撮像装置、撮像方法、及びプログラム
 本発明は、撮像装置、撮像方法、及びプログラムに関し、特に、タッチパネルを備える撮像装置の技術に関する。
 近年、デジタルカメラ(撮像装置)のボディの背面モニタにタッチパネルが設置される場合がある。ユーザは背面モニタを指でタッチすることにより、様々なデジタルカメラの操作を行うことができる。
 例えば特許文献1では、ユーザがファインダを覗き込んでいる際に、背面モニタのタッチパネルで検出したユーザの指の動きに従って、ファインダモニタにおけるAF(Auto Focus)ターゲット枠(フォーカスエリア)の表示位置を移動させる技術が記載されている。又、特許文献1では、ユーザの指の動きの移動速度に応じて、AFターゲット枠の移動中表示の移動速度を変更する技術が記載されている。具体的には、ユーザの指の移動速度が所定速度よりも高速である場合に、指の移動方向に従って移動中表示を高速で移動させ(単位時間当たりの移動中表示の位置の移動幅を大きくする)、ユーザの指の移動速度が所定速度よりも高速でない場合に、指の移動方向に従って移動中表示を低速で移動させる(単位時間当たりの移動中表示の位置の移動幅を小さくする)。
 又、例えば特許文献2では、ユーザがファインダを覗き込んでいる際に、AFターゲット枠の長い距離の移動を、簡便に行うための技術が記載されている。具体的には、特許文献2に記載された技術では、ダブルタップ操作(タッチ位置の移動を含まない操作)が成されると、表示部にAFターゲット枠の移動過程を表示せずに、ダブルタップ操作が行われた位置にAFターゲット枠を表示させている。
特開2012-203143号公報 特開2018-013745号公報
 ここで、背面モニタのタッチパネルへのタッチと連動してファインダに表示される指標を移動させる場合に、速い速度で指標を移動させたり、遅い速度で指標を移動させたりして、指標の移動速度を制御することが望まれている。
 例えば、被写体がファインダ内で上下左右に素早く動く場合、又はデジタルカメラの向きを横位置から縦位置(又は縦位置から横位置)に切り替える場合には、被写体の動き及びデジタルカメラの位置の切り替えに応じて、フォーカスエリアを素早く且つ正確に移動させることが望まれている。
 又例えば、様々な色温度のミックス光源の環境下においてテンポよく撮影するためには、被写体の位置によってホワイトバランスシフトの位置を素早く且つ正確に移動させることが望まれている。
 特許文献1には、ユーザの指の動きの移動速度に応じて、AFターゲット枠の移動中表示の移動速度を変える技術が記載されている。しかし、この特許文献1に記載された技術では、AFターゲットの移動速度の高低を制御するためには、ユーザは指の移動速度を正確に制御しなければならず、正確に且つ簡便にAFターゲットの移動速度の制御を行うことは困難である。
 又、特許文献2には、AFターゲット枠の移動の速さを変更することは言及されていない。
 本発明はこのような事情に鑑みてなされたもので、その目的は、ファインダ用モニタに表示される指標の移動感度を、背面モニタに設置されるタッチパネルを使用して、ユーザの所望の感度に、正確に且つ簡便に制御することができる撮像装置、撮像方法、及びプログラムを提供することである。
 上記目的を達成するための本発明の一の態様である撮像装置は、ライブビュー画像及びライブビュー画像に重畳表示される指標を表示するファインダであって、重畳表示される位置に応じて撮像条件又は画像処理条件を指示する指標を表示するファインダと、指標を移動させるスワイプ操作を受け付けるタッチパネルと、スワイプ操作により指標を粗動させる第1の感度又は指標を微動させる第2の感度を、スワイプ操作におけるタッチパネルへの接触動作を検出することにより設定する感度設定部と、タッチパネルでのスワイプ操作及び感度設定部により設定された感度に基づいて、指標を移動させる移動制御部と、を備える。
 本態様によれば、タッチパネルへの接触動作に応じて、第1の感度又は第2の感度が設定されて、その設定された感度に基づいて、スワイプ操作に沿って指標が移動させられる。これにより、ユーザは、タッチパネルへの接触動作を変えることにより、正確に且つ簡便に第1の感度又は第2の感度で指標を移動させることができる。
 好ましくは、タッチパネルは、第1の領域及び第2の領域を有し、感度設定部は、接触動作が第1の領域で行われた場合には、第1の感度に設定し、接触動作が第2の領域で行われた場合には、第2の感度に設定する。
 本態様によれば、ユーザは、第1の感度で指標を移動させたい場合には、第1の領域で接触動作を行い、第2の感度で指標を移動させたい場合には、第2の領域で接触動作を行う。これにより、ユーザは、接触動作を行う領域を選択することにより、正確に且つ簡便に第1の感度又は第2の感度で指標を移動させることができる。
 好ましくは、撮像装置は、撮像装置の姿勢を検出する姿勢センサと、姿勢センサの検出結果に基づいて、第1の領域及び第2の領域を設定する領域設定部と、を更に備える。
 本態様によれば、撮像装置の姿勢に基づいて、第1の領域及び第2の領域が設定されるので、ユーザは撮像装置の姿勢に応じて、接触動作を行う領域を容易に選択することができる。
 好ましくは、タッチパネルは、スワイプ操作を検出しない不感領域である第3の領域を更に有する。
 本態様によれば、ユーザが意図せずにタッチパネルに接触してしまう領域を、スワイプ操作を検出しない不感領域である第3の領域とすることで、ユーザが意図しない誤操作を抑制し、正確な指標の移動制御を行うことができる。
 好ましくは、感度設定部は、接触動作が第1の押圧で行われた場合には、第1の感度に設定し、接触動作が第2の押圧で行われた場合には、第2の感度に設定する。
 本態様によれば、ユーザは、第1の感度で指標を移動させたい場合には、第1の押圧で接触動作を行い、第2の感度で指標を移動させたい場合には、第2の押圧で接触動作を行う。これにより、ユーザは、接触動作の押圧を選択することにより、正確且つ簡便に第1の感度又は第2の感度で指標を移動させることができる。
 好ましくは、感度設定部は、接触動作が第1の接触面積で行われた場合には、第1の感度に設定し、接触動作が第2の接触面積で行われた場合には、第2の感度に設定する。
 本態様によれば、ユーザは、第1の感度で指標を移動させたい場合には、第1の接触面積で接触動作を行い、第2の感度で指標を移動させたい場合には、第2の接触面積で接触動作を行う。これにより、ユーザは、接触動作の接触面積を選択することにより、正確且つ簡便に第1の感度又は第2の感度で指標を移動させることができる。
 好ましくは、感度設定部は、接触動作が第1の指の本数で行われた場合には、第1の感度に設定し、接触動作が第2の指の本数で行われた場合には、第2の感度に設定する。
 本態様によれば、ユーザは、第1の感度で指標を移動させたい場合には、第1の指の本数で接触動作を行い、第2の感度で指標を移動させたい場合には、第2の指の本数で接触動作を行う。これにより、ユーザは、接触動作の指の選択することにより、正確且つ簡便に第1の感度又は第2の感度で指標を移動させることができる。
 好ましくは、撮像装置は、感度を強制的に設定する感度強制設定部を更に備え、タッチパネルは、スワイプ操作の開始地点及び終了地点を検出し、感度強制設定部は、開始地点と終了地点との間の距離が閾値以下である場合には、第1の感度の受付設定と第2の感度の受付設定とを強制的に切り替える。
 本態様によれば、感度強制設定部は、開始地点と終了地点との間の距離が閾値以下である場合には、第1の感度の受付設定と第2の感度の受付設定とを強制的に切り替える。これにより、本態様は、ユーザが意図しない感度で指標の移動が行われた場合には、簡便に感度の切り替えを行うことができる。
 好ましくは、感度強制設定部は、第1の感度での指標の移動において、開始地点と終了地点との間の距離が第1の閾値以下である場合には第2の感度に切り替え、第2の感度での指標の移動において、開始地点と終了地点との間の距離が第2の閾値以下である場合には第1の感度に強制的に切り替える。
 本態様によれば、指標の設定された感度に応じて、開始地点と終了地点との間の距離に所定の閾値が設定され、この閾値に基づいて、感度強制設定部は感度の切り替えを行う。これにより、指標の移動する感度に応じて適切な感度の切り替えを行うことができる。
 好ましくは、指標は、フォーカスエリアの位置を示す。
 本態様によれば、ユーザは意図する感度により、フォーカスエリアの位置を移動させることができる。
 好ましくは、指標は、ホワイトバランスの補正量を示す。
 本態様によれば、ユーザは意図する感度により、ホワイトバランスの補正量を変更することができる。
 本発明の他の態様である撮像方法は、ライブビュー画像及びライブビュー画像に重畳表示される指標を表示するファインダであって、重畳表示される位置に応じて撮像条件又は画像処理条件を指示する指標を表示するファインダと、指標を移動させるスワイプ操作を受け付けるタッチパネルと、を備える撮像装置の撮像方法であって、スワイプ操作により指標を粗動させる第1の感度又は指標を微動させる第2の感度を、スワイプ操作におけるタッチパネルへの接触動作を検出することにより設定する感度設定ステップと、タッチパネルでのスワイプ操作及び感度設定ステップにより設定された感度に基づいて、指標を移動させる移動制御ステップと、を含む。
 本発明の他の態様であるプログラムは、ライブビュー画像及びライブビュー画像に重畳表示される指標を表示するファインダであって、重畳表示される位置に応じて撮像条件又は画像処理条件を指示する指標を表示するファインダと、指標を移動させるスワイプ操作を受け付けるタッチパネルと、を備える撮像装置の撮像工程をコンピュータに実行させるプログラムであって、スワイプ操作により指標を粗動させる第1の感度又は指標を微動させる第2の感度を、スワイプ操作におけるタッチパネルへの接触動作を検出することにより設定する感度設定ステップと、タッチパネルでのスワイプ操作及び感度設定ステップにより設定された感度に基づいて、指標を移動させる移動制御ステップと、を含む撮像工程をコンピュータに実行させる。
 本発明によれば、タッチパネルへの接触動作に応じて、第1の感度又は第2の感度が設定されて、その設定された感度に基づいて、スワイプ操作に沿って指標が移動させられるので、ユーザは、タッチパネルへの接触動作を変えることにより、正確に且つ簡便に第1の感度又は第2の感度で指標を移動させることができる。
図1は、撮像装置の一例を示す斜視図である。 図2は、撮像装置の一例を示す背面図である。 図3は、撮像装置の内部構成の実施形態を示すブロック図である。 図4は、CPUの主な機能構成例を示すブロック図である。 図5は、タッチパネルの領域分割の一例を示す図である。 図6は、タッチパネルにおけるスワイプ操作を示す図である。 図7は、ファインダ用モニタでのフォーカスエリアの移動を示す図である。 図8は、タッチパネルにおけるスワイプ操作を示す図である。 図9は、ファインダ用モニタでのフォーカスエリアの移動を示す図である。 図10は、撮像装置の動作フローを示すフローチャートである。 図11は、タッチパネルに設定された領域を示す図である。 図12は、CPUの主な機能構成例を示すブロック図である。 図13は、撮像装置が縦位置である場合の領域設定の例を示す図である。 図14は、撮像装置が縦位置である場合の領域設定の例を示す図である。 図15は、撮像装置の縦位置及び横位置に応じて、粗動開始領域、微動開始領域、及び不感領域の領域設定の流れを示すフローチャートである。 図16は、CPUの主な機能構成例を示すブロック図である。 図17は、タッチパネルにおけるスワイプ操作を示す図である。 図18は、ファインダ用モニタでのフォーカスエリアの移動を示す図である。 図19は、戻し操作の検出及び受付設定の変更の流れを示すフローチャートである。 図20は、ファインダ用モニタに、ホワイトバランスシフト画像が表示されていることを示す図である。
 以下、添付図面に従って本発明にかかる撮像装置、撮像方法、及びプログラムの好ましい実施の形態について説明する。
 [撮像装置]
 図1及び図2は、それぞれ撮像装置の一例(デジタルカメラ)を示す斜視図及び背面図である。この撮像装置10は、レンズを通った光を撮像素子で受け、デジタル信号に変換して静止画又は動画の画像データとして記録メディアに記録するデジタルカメラである。
 図1に示すように撮像装置10は、その正面に撮影レンズ12、ストロボ1等が配設され、上面にはシャッタボタン2、電源/モードスイッチ3、モードダイヤル4等が配設されている。一方、図2に示すように、カメラ背面には、液晶モニタ(LCD:Liquid Crystal Display)で構成される背面モニタ30、ズームボタン5、十字ボタン6、MENU/OKボタン7、再生ボタン8、BACKボタン9、ファインダ11、液晶モニタで構成されるファインダ用モニタ13、アイセンサ17等が配設されている。
 撮影レンズ12は、沈胴式のズームレンズで構成されており、電源/モードスイッチ3によってカメラの作動モードを撮影モードに設定することにより、カメラ本体から繰り出される。ストロボ1は、主要被写体にストロボ光を照射するものである。
 シャッタボタン2は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成され、撮影準備指示部として機能するとともに、画像の記録指示部として機能する。
 撮像装置10は、撮影モードとして静止画撮影モードが選択され、シャッタボタン2が「半押し」されると、AF(Autofocus)/AE(Auto Exposure)制御を行う撮影準備動作を行い、シャッタボタン2が「全押し」されると、静止画の撮像及び記録を行う。
 又、撮像装置10は、撮影モードとして動画撮影モードが選択され、シャッタボタン2が「全押し」されると、動画の録画を開始し、シャッタボタン2が再度「全押し」されると、録画を停止して待機状態になる。
 電源/モードスイッチ3は、撮像装置10の電源をON/OFFする電源スイッチとしての機能と、撮像装置10のモードを設定するモードスイッチとしての機能とを併せ持っており、「OFF位置」と「再生位置」と「撮影位置」との間をスライド自在に配設されている。撮像装置10は、電源/モードスイッチ3をスライドさせて、「再生位置」又は「撮影位置」に合わせることにより、電源がONになり、「OFF位置」に合わせることにより、電源がOFFになる。そして、電源/モードスイッチ3をスライドさせて、「再生位置」に合わせることにより、「再生モード」に設定され、「撮影位置」に合わせることにより、「撮影モード」に設定される。
 モードダイヤル4は、撮像装置10の撮影モードを設定するモード切替部として機能し、このモードダイヤル4の設定位置により、撮像装置10の撮影モードが様々なモードに設定される。例えば、静止画撮影を行う「静止画撮影モード」、動画撮影を行う「動画撮影モード」等である。
 背面モニタ30及びファインダ用モニタ13は、撮影モード時のライブビュー画像の表示、再生モード時の静止画又は動画の表示を行うとともに、メニュー画面の表示等を行うことでグラフィカルユーザーインターフェースの一部として機能する。又、背面モニタ30にはタッチパネル31(図3)が一体的に設置されている。
 ズームボタン5は、ズームを指示するズーム指示手段として機能し、望遠側へのズームを指示するテレボタン5Tと、広角側へのズームを指示するワイドボタン5Wとからなる。撮像装置10は、撮影モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、撮影レンズ12の焦点距離が変化する。又、再生モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、再生中の画像が拡大、縮小する。
 十字ボタン6は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。
 MENU/OKボタン7は、背面モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作ボタンである。
 再生ボタン8は、撮影記録した静止画又は動画を背面モニタ30に表示させる再生モードに切り替えるためのボタンである。
 BACKボタン9は、入力操作のキャンセルや一つ前の操作状態に戻すことを指示するボタンとして機能する。
 尚、上述したボタン/スイッチ類に対して固有の部材が設けられているが、タッチパネル31を操作することでそれらボタン/スイッチ類の機能を実現することもできる。
 [撮像装置の内部構成]
 図3は撮像装置10の内部構成の実施形態を示すブロック図である。この撮像装置10は、撮像した画像をメモリカード54に記録するもので、装置全体の動作は、中央処理装置(CPU:Central Processing Unit)40によって統括制御される。
 撮像装置10には、シャッタボタン2、電源/モードスイッチ3、モードダイヤル4、テレボタン5T、ワイドボタン5W、十字ボタン6、MENU/OKボタン7、再生ボタン8、BACKボタン9等の操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいて撮像装置10の各回路を制御し、例えば、センサ駆動部32による撮像素子(イメージセンサ)16の駆動制御、シャッタ駆動部33によるメカシャッタ(機械的シャッタ)15の駆動制御、絞り駆動部34による絞り14の駆動制御、及びレンズ駆動部36により撮影レンズ12の駆動制御を司る他、撮影動作制御、画像処理制御、画像データの記録/再生制御、ファインダ用モニタ13、及び背面モニタ30の表示制御などを行う。
 電源/モードスイッチ3により撮像装置10の電源がONされると、図示しない電源部から各ブロックへ給電され、撮像装置10の駆動が開始される。
 撮影レンズ12、絞り14、メカシャッタ(機械的シャッタ)15等を通過した光束は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサである撮像素子16に結像される。尚、撮像素子16は、CMOS型に限らず、XYアドレス型、又はCCD(Charge Coupled Device)型のカラーイメージセンサでもよい。
 撮像素子16は、多数の受光素子(フォトダイオード)が2次元配列されており、各フォトダイオードの受光面に結像された被写体像は、その入射光量に応じた量の信号電圧(又は電荷)に変換され、撮像素子16内のA/D(Analog/Digital)変換器を介してデジタル信号に変換されて出力される。
 動画又は静止画の撮影時に撮像素子16から読み出された画像信号(画像データ)は、画像入力コントローラ22を介してメモリ(SDRAM(Synchronous Dynamic Random Access Memory))48に一時的に記憶され、あるいはAF処理部42、AE検出部44等に取り込まれる。
 CPU40は、操作部38での操作に基づいて撮像装置10の各部を統括制御するが、ライブビュー画像の撮影(表示)、及び動画の撮影(記録)中には、常時AF動作及びAE動作を行う。
 AF処理部42は、コントラストAF処理又は位相差AF処理を行う部分である。コントラストAF処理を行う場合には、連続して撮像された画像中のAF領域内の画像の高周波成分を抽出し、この高周波成分を積分することにより合焦状態を示すAF評価値を算出する。CPU40は、AF処理部42により算出されたAF評価値に基づいて、AF評価値が極大となるレンズ位置に撮影レンズ12内のフォーカスレンズを移動させることによりAF制御(コントラストAF)を行う。
 又、撮像素子16が位相差画素を有する場合、AF処理部42は、例えば、AF領域の一対の複数の位相差画素の各出力データに基づいて、位相差データ(例えば、一対の位相差画素の各出力データの差分絶対値の積算値)を算出し、算出した位相差データに基づいて撮影レンズ12によるピント位置と撮像素子16の結像面との光軸方向のずれ量(デフォーカス量)を算出する。CPU40は、AF処理部42により算出されたデフォーカス量に基づいて、デフォーカス量がゼロになるレンズ位置に撮影レンズ12内のフォーカスレンズを移動させることによりAF制御(位相差AF)を行う。
 AE検出部44は、画像入力コントローラ22を介して取得される画像データ(例えば、画面全体のG画素の画素値)を積算し、又は画面中央部と周辺部とで異なる重みづけをした画像データ(G画素の画素値)を積算し、その積算値をCPU40に出力する。CPU40は、AE検出部44から入力される積算値より被写体の明るさ(撮影Ev値(exposure value))を算出する。撮影モードが静止画撮影モードの場合には、シャッタボタン2の第1段階の押下(半押し)があると、CPU40は、前述のAF制御を再度行い、シャッタボタン2の全押しがあると、被写体の明るさ(撮影Ev値)を算出し、算出した撮影Ev値に基づいて絞り14のF値及びメカシャッタ15による露光時間(シャッタ速度)をプログラム線図にしたがって決定し、静止画の撮影(露出制御)を行う。
 一方、撮影モードが動画撮影モードの場合には、シャッタボタン2の全押しがあると、CPU40は、動画の撮影及び記録(録画)を開始させる。尚、動画撮影時には、メカシャッタ15を開放し、撮像素子16から画像データを連続的に読み出し(例えば、フレームレートとして30フレーム/秒、60フレーム/秒)、連続的に位相差AFを行うとともに、被写体の明るさを算出し、シャッタ駆動部33によりシャッタ速度(ローリングシャッタによる電荷蓄積時間)及び/又は絞り駆動部34による絞り14を制御する。
 CPU40は、ズームボタン5からのズーム指令に応じてレンズ駆動部36を介してズームレンズを光軸方向に進退動作させ、焦点距離を変更させる。
 又、ROM47は、カメラ制御プログラム、撮像素子16の欠陥情報、画像処理等に使用する各種のパラメータやテーブルが記憶されているROM(Read Only Memory)、又はEEPROM(Electrically Erasable Programmable Read-Only Memory)である。
 画像処理部24は、動画又は静止画の撮影時に画像入力コントローラ22を介して取得され、メモリ48に一時的に記憶された未処理の画像データ(RAWデータ)を読み出す。画像処理部24は、読み出したRAWデータに対してオフセット処理、画素補間処理(位相差検出用画素、傷画素等の補間処理)、ホワイトバランス補正、感度補正を含むゲインコントロール処理、ガンマ補正処理、同時化処理(「デモザイク処理」ともいう)、輝度及び色差信号生成処理、輪郭強調処理、及び色補正等を行う。
 画像処理部24により処理された画像データであって、ライブビュー画像として処理された画像データは、VRAM(Video RAM Random access memory)50に入力される。
 VRAM50には、それぞれが1コマ分の画像を表す画像データを記録するA領域とB領域とが含まれている。VRAM50において1コマ分の画像を表す画像データがA領域とB領域とで交互に書き換えられる。VRAM50のA領域及びB領域のうち、画像データが書き換えられている方の領域以外の領域から、書き込まれている画像データが読み出される。
 VRAM50から読み出された画像データは、ビデオエンコーダ28においてエンコーディングされ、カメラ背面に設けられているファインダ用モニタ13及び背面モニタ30に出力される。これにより、被写体像を示すライブビュー画像がファインダ用モニタ13及び背面モニタ30に表示される。尚ライブビュー画像のファインダ用モニタ13又は背面モニタ30への表示は、アイセンサ17の検出により制御される。アイセンサ17によりユーザがファインダ用モニタ13を覗いていると検出された場合には、ファインダ用モニタ13にライブビュー画像を表示し、ユーザがファインダ用モニタ13を覗いていないと検出された場合には、背面モニタ30にライブビュー画像を表示する。
 アイセンサ17は、ユーザがファインダ用モニタ13を覗いているか否かを検出するセンサである。アイセンサ17は、例えば赤外線センサにより構成されている。
 タッチパネル31は、背面モニタ30と一体的に設けられている。タッチパネル31は、ユーザの指120の接触をユーザからの操作として検出する。ここで、タッチパネル31は、抵抗膜方式や静電容量方式等、各種の方式により接触を検出する。
 タッチセンサ入力部49は、タッチパネル31からの信号から、タッチパネル31上におけるユーザの指120のタッチ位置や指120の動きを解析し、解析した結果を出力する。
 画像処理部24により処理された画像データであって、記録用の静止画又は動画として処理された画像データ(輝度データ(Y)及び色差データ(Cb),(Cr))は、再びメモリ48に記憶される。
 圧縮伸張処理部26は、静止画又は動画の記録時に、画像処理部24により処理され、メモリ48に格納された輝度データ(Y)及び色差データ(Cb),(Cr)に対して圧縮処理を施す。静止画の場合には、例えばJPEG(Joint Photographic coding Experts Group)形式で圧縮し、動画の場合には、例えばH.264形式で圧縮する。圧縮伸張処理部26により圧縮された圧縮画像データは、メディアコントローラ52を介してメモリカード54に記録される。
 又、圧縮伸張処理部26は、再生モード時にメディアコントローラ52を介してメモリカード54から得た圧縮画像データに対して伸張処理を施す。メディアコントローラ52は、メモリカード54に対する圧縮画像データの記録及び読み出しなどを行う。
 姿勢センサ51は、撮像装置10の姿勢を検出センサであり、例えばジャイロセンサで構成される。姿勢センサ51は、ユーザの撮影姿勢に応じて撮像装置10が横位置であるのか、縦位置であるのかを検出する。又、姿勢センサ51は、撮像装置10が縦位置である場合には、ファインダ13が撮像方向に対して右側にある縦位置であるのか、ファインダ13が撮像方向に対して左側にある縦位置であるのかを検出することができる。
 <第1の実施形態>
 図4は、本実施形態のCPU40の主な機能構成例を示すブロック図である。
 本実施形態のCPU40は、感度設定部101及び移動制御部103を有する。
 感度設定部101は、指標を移動させる場合の感度を設定する。感度設定部101は、タッチパネル31で受け付けられたスワイプ操作に応じて移動する指標の感度を設定する。ここで感度とは、タッチパネル31で受け付けられたスワイプ操作の移動距離に応じた指標の移動距離のことである。又、指標とは、ライブビュー画像に重畳表示されるマーク等であり、重畳表示される位置に応じて撮像条件又は画像処理条件を指示することができる。例えば指標によりフォーカスエリアが示される。又、例えば指標により、ホワイトバランスシフトのシフト量が示される。
 感度が高い場合(第1の感度)には、スワイプ操作の移動距離に対して、指標の移動距離は長めに設定され、指標の移動速度は速くなる(粗動)。一方、感度が低い場合(第2の感度)には、スワイプ操作の移動距離に対して、指標の移動距離は短めに設定され、指標の移動速度は遅くなる(微動)。
 移動制御部103は、タッチパネル31でのスワイプ操作及び感度設定部101により設定された感度に基づいて、指標を移動させる。具体的には、移動制御部103は、接触動作により決定された感度により、スワイプ操作と連動して、ファインダ用モニタ13に表示されている指標を移動させる。接触動作により第1の感度が設定された場合には、その後のスワイプ操作に連動させて、第1の感度により指標を移動させる。又、接触動作により第2の感度が設定された場合には、その後のスワイプ操作に連動させて、第2の感度により指標を移動させる。
 タッチパネル31への接触動作の一例に関して説明する。本例ではタッチパネル31に領域が設けられ、接触動作が行われた領域に応じて感度が設定される。
 図5は、タッチパネル31の領域分割の一例を示す図である。
 タッチパネル31は、粗動開始領域(第1の領域)W1と微動開始領域(第2の領域)W2とで構成されている。粗動開始領域W1及び微動開始領域W2は、タッチパネル31の短辺L2を二等分するように設けられている。
 粗動開始領域W1に接触動作が行われた場合には、粗動感度により、指標が移動される。又、微動開始領域W2に接触動作が行われた場合には、微動感度により、指標が移動される。接触動作とは、スワイプ操作における最初のタッチパネル31へのタッチダウンの動作のことであり、スワイプ操作は、タッチパネル31へ指120の接触動作が行われたのちに、指120がタッチパネル31へ接触した状態のまま移動させることである。感度設定部101は、接触動作(最初のタッチパネル31へのタッチダウン)を検出することにより、粗動感度及び微動感度を設定するので、スワイプ操作の途中で指120が異なる領域に接触した場合であっても、最初に設定された感度により固定して、指標の移動の途中で感度の変化が発生しないようにする。
 <指標の粗動感度>
 図6及び図7は、粗動感度により指標を移動させる場合の例を示す図である。
 図6は、タッチパネル31におけるスワイプ操作を示す図である。又、図7は、図6に示したスワイプ操作に連動して、ファインダ用モニタ13でのフォーカスエリアFの移動を示す図である。尚図7では、ファインダ用モニタ13でのフォーカスエリアFの候補が表示されているが、実際のファインダ用モニタ13ではこのフォーカスエリアFの候補は表示されていない場合がある。
 図6に示すように、ユーザは指120を使用して、タッチパネル31に対してスワイプ操作を行う。具体的には、粗動開始領域W1において、指120の接触動作が行われる。そして、指120は矢印122に沿ってスワイプ操作を行う。このスワイプ操作に連動して、図7に示すようにファインダ用モニタ13では、指標の一例であるフォーカスエリアFの位置がF1からF2に矢印124に沿って移動する。このフォーカスエリアFの移動は、粗動感度により行われる。このように粗動感度でフォーカスエリアFを移動させることができると、被写体である猫126が素早く動く場合であっても、その動きに応じてフォーカスエリアFの位置を素早く、移動させることができる。
 <指標の微動の動き>
 図8及び図9は、微動感度により指標が移動する場合の例を示す図である。
 図8は、タッチパネル31におけるスワイプ操作を示す図である。又、図9は、図8に示したスワイプ操作に連動して、ファインダ用モニタ13でのフォーカスエリアFの移動を示す図である。
 図8に示すように、ユーザは指120を使用して、タッチパネル31に対してスワイプ操作を行う。具体的には、タッチパネル31の微動開始領域W2において、指120の接触動作が行われる。そして、指120は矢印122に沿ってスワイプ操作が行われる。このスワイプ操作に連動して、図9に示すようにファインダ用モニタ13では、フォーカスエリアFの位置がF3からF4に矢印124に沿って移動する。このフォーカスエリアFの移動は、微動感度により行われる。このように微動感度により指標の移動が行われると、被写体である猫126の顔に正確にフォーカスエリアFの位置を合わせる場合に、ユーザは簡便にフォーカスエリアFの位置を正確に合わせることができる。
 次に、撮像装置10を使用した撮像方法(撮像工程)を説明する。
 図10は、撮像装置10の動作フローを示すフローチャートである。
 先ず、撮像装置10のタッチパネル31により、ユーザの指120の接触動作を検出し、タッチセンサ入力部49を介して、タッチパネル31における接触動作が行われた領域が検出される(ステップS10)。そして、感度設定部101は、タッチパネル31が接触動作を検出した領域が粗動開始領域W1であるか微動開始領域W2であるかを判定する(ステップS11)。接触動作が粗動開始領域W1で検出された場合には、感度設定部101は感度を粗動に設定する(ステップS12:感度設定ステップ)。一方、接触動作が微動開始領域W2で検出された場合には、感度設定部101は感度を微動に設定する(ステップS13:感度設定ステップ)。その後、移動制御部103はタッチパネル上でのスワイプ操作を検出し(ステップS14)、指標を設定された感度によりスワイプ操作に連動させて移動させる(ステップS15:移動制御ステップ)。
 上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。又、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
 <第2の実施形態>
 次に、第2の実施形態に関して説明する。本実施形態では、タッチパネル31において、粗動開始領域W1及び微動開始領域W2に加えて、不感領域(第3の領域)W3が設けられている。
 図11は、タッチパネル31に設定された領域を示す図である。尚、図5で既に説明を行った箇所は同じ符号を付し説明は省略する。
 タッチパネル31には、粗動開始領域W1、微動開始領域W2、及び不感領域W3が設けられている。不感領域W3は、スワイプ操作を検出しない領域である。不感領域W3を設けることにより、ユーザが意図せずにタッチパネル31に接触した場合であっても、指標が誤って移動することを抑制することができる。
 図11では、ユーザが右目によりファインダ11を覗き込む場合に適する不感領域W3の配置を示す。図11では、ユーザが右目によりファインダ11を覗き込んだ場合に、顔の一部が接触する可能性のある領域を不感領域W3としている。これにより、ユーザが右目によりファインダ11を覗き込んだ場合に、意図せずに顔の一部がタッチパネル31に触れてしまった場合であっても、指標が誤って移動することが抑制される。
 <第3の実施形態>
 次に第3の実施形態に関して説明する。本実施形態では、撮像装置10の姿勢に基づいて、粗動開始領域W1、微動開始領域W2、不感領域W3が設定される。
 図12は、本実施形態のCPU40の主な機能構成例を示すブロック図である。尚、図4で既に説明を行った箇所は、同じ符号を付し説明は省略する。
 領域設定部105は、姿勢センサ51の検出結果に基づいて、タッチパネル31において粗動開始領域W1及び微動開始領域W2を設定する。具体的には、姿勢センサ51により撮像装置10が横位置であるか縦位置であるかが検出され、領域設定部105は、横位置であるか縦位置であるかで、粗動開始領域W1及び微動開始領域W2の配置を変える。又、領域設定部105は、粗動開始領域W1及び微動開始領域W2の配置を変えるのに合わせて、不感領域W3の配置も変える。
 図13は、撮像装置10が縦位置である場合の領域設定の例を示す図である。
 図13に示す例は、撮像装置10が縦位置でファインダ11が撮像方向に向かって左側に存在する例である。この場合には、タッチパネル31の長辺L1を二等分する形で粗動開始領域W1と微動開始領域W2とを設定する。このように粗動開始領域W1と微動開始領域W2とを設定することにより、撮像装置10が縦位置になったとしても、ユーザが粗動開始領域W1及び微動開始領域W2において、接触動作及びスワイプ操作を容易に行うことができる。
 図14は、撮像装置10が縦位置である場合の領域設定の例を示す図である。
 図14に示す例は、撮像装置10が縦位置でファインダ11が撮像方向に向かって右側に存在する例である。この場合には、タッチパネル31の短辺L2を二等分して撮像方向に向かって左側の長辺L1に沿ってL2を二等分する形で粗動開始領域W1と微動開始領域W2とを設定する。又、短辺L2を二等分した右側(ファインダ側)には、不感領域W3を設定する。このように粗動開始領域W1、微動開始領域W2、及び不感領域W3を設定することにより、撮像装置10が縦位置になったとしても、ユーザが粗動開始領域W1及び微動開始領域W2において、スワイプ操作を容易に行うことができる。又、不感領域W3を図示した位置に設けることにより、ユーザがファインダ11を覗き込んだ際に顔の一部がタッチパネル31に触れて、指標が誤って移動することを抑制することができる。
 図15は、撮像装置10の縦位置及び横位置に応じて、粗動開始領域W1、微動開始領域W2、及び不感領域W3の領域設定の流れを示すフローチャートである。
 先ず姿勢センサ51により撮像装置10の位置を検出する(ステップS20)。そして、領域設定部105は、撮像装置10が横位置であるか否かを判定する(ステップS21)。撮像装置10が横位置である場合には、横位置用の粗動開始領域W1と微動開始領域W2の領域設定を行う(ステップS22)。横位置用の領域設定の例としては、図5及び図11で示した例が挙げられる。
 一方、撮像装置10が横位置でなく縦位置である場合には、領域設定部105は、姿勢センサ51の検出結果に基づいて、ファインダ11が撮像方向に向かって左側にある縦位置であるか否かを判定する(ステップS23)。領域設定部105は、ファインダ11が左側にあると判定した場合には、縦位置(ファインダ11が左側)用の粗動開始領域W1と微動開始領域W2の領域設定を行う(ステップS24)。尚、縦位置(ファインダ11が左側)用の粗動開始領域W1と微動開始領域W2の領域設定の例としては、図13で示した例が挙げられる。又領域設定部105は、ファインダ11が右側にあると判定した場合には、縦位置(ファインダ11が右側)用の粗動開始領域W1と微動開始領域W2の領域設定を行う(ステップS25)。尚、縦位置(ファインダ11が右側)用の粗動開始領域W1と微動開始領域W2の領域設定の例としては、図14で示した例が挙げられる。
 以上のように、姿勢センサ51の検出結果に基づいて、粗動開始領域W1、微動開始領域W2の領域設定、及び不感領域W3の領域設定を行うことにより、ユーザは無理なくタッチパネル31に対してスワイプ操作を行うことができる。
 <第4の実施形態>
 次に第4の実施形態に関して説明する。本実施形態では、ユーザがスワイプ操作で戻し操作を行った場合には、領域の設定が変更される。
 図16は、本実施形態のCPU40の主な機能構成例を示すブロック図である。尚、図4で既に説明を行った箇所は、同じ符号を付し説明は省略する。
 本実施形態のCPU40は、感度設定部101、移動制御部103、及び感度強制設定部107を備える。尚、図4で既に説明を行った箇所は同じ符号を付し説明は省略する。
 感度強制設定部107は、感度を強制的に設定する。ここで、感度を強制的に設定するとは、予め設定されていた粗動感度と微動感度との受付設定を強制的に切り替える。例えば、感度強制設定部107は、粗動開始領域W1と微動開始領域W2とを入れ替えることにより、予め設定されていた粗動感度と微動感度との受付設定を強制的に切り替える。受付設定の切り替えとは、例えば粗動開始領域W1と微動開始領域W2との領域を入れ替えることである。
 感度強制設定部107は、スワイプ操作の開始地点(接触動作の地点)と、スワイプ操作の終了地点との間の距離が閾値以下である場合に、第1の感度の受付設定と第2の感度の受付設定とを強制的に切り替える。これは開始地点と終了地点との間の距離が閾値以下である場合には、感度強制設定部107はユーザが戻し操作を行ったと判定するからである。尚、スワイプ操作の開始地点及び終了地点は、タッチパネル31により検出される。
 又、感度強制設定部107は、感度に応じて戻し操作を判定する閾値を変えてもよい。例えば感度強制設定部107は、粗動感度で指標が移動している場合には、開始地点と終了地点との間の距離が第1の閾値以下である場合には微動感度に切り替える。又例えば感度強制設定部107は、微動感度で指標が移動している場合には、開始地点と終了地点との間の距離が第2の閾値以下である場合には粗動感度に強制的に切り替える。尚、第1の閾値は第2の閾値よりも大きく設定されている。これは粗動感度の場合には、指標は長い距離を移動することが多く、微動感度の場合は短い距離を移動することが多いからである。
 図17及び図18は、戻し操作の例を示す図である。図17は、タッチパネル31におけるスワイプ操作を示す図である。又、図18は、図17に示したスワイプ操作に連動して、ファインダ用モニタ13でのフォーカスエリアFの移動を示す図である。尚、接触動作における開始地点(開始座標)T1は、微動開始領域W2において開始され、指120は矢印122に沿ってスワイプ操作を行い、終了地点(終了座標)T2においてスワイプ操作が終了する。この戻し操作に連動して、図18に示すようにファインダ用モニタ13では、指標の一例であるフォーカスエリアFの位置が矢印124に沿って移動する。感度強制設定部107は、開始地点T1と終了地点T2との間の距離が閾値以下であるので、戻し操作が行われたと判定する。そして、感度強制設定部107は、図17に示す粗動開始領域W1と微動開始領域W2との領域を変更する。すなわち、戻し操作が行われた後は、指標は粗動感度により移動する。
 次に、戻し操作の検出及び受付設定の変更の流れを説明する。
 図19は、戻し操作の検出及び受付設定の変更の流れを示すフローチャートである。
 先ず、タッチパネル31がスワイプ操作の開始である接触動作を検出する(ステップS30)。タッチパネル31が接触動作を検出すると、タッチパネル31は接触動作の開始座標T1を取得する(ステップS31)。その後、タッチパネル31はスワイプ操作の終了を検出する(ステップS32)。そして、スワイプ操作の終了座標T2を取得する(ステップS33)。
 その後、感度強制設定部107は開始座標T1が粗動開始領域W1であるか否かを判定する(ステップS34)。そして、スワイプ操作の開始座標T1が粗動開始領域W1である場合には、感度強制設定部107により、開始座標T1と終了座標T2との距離が第1の閾値以下であるか否かが判定される(ステップS35)。開始座標T1と終了座標T2との距離が第1の閾値以下である場合には、感度強制設定部107は、開始座標T1が微動開始領域内となるように、領域の変更を行う(ステップS36)。開始座標T1と終了座標T2との距離が第1の閾値より大きい場合には、感度強制設定部107は領域の変更を行わない。
 一方、スワイプ操作の開始座標T1が粗動開始領域W1である場合には、感度強制設定部107により、開始座標T1と終了座標T2との距離が第2の閾値以下であるか否かが判定される(ステップS37)。開始座標T1と終了座標T2との距離が第2の閾値以下である場合には、感度強制設定部107は、スワイプ操作の開始座標T1が粗動開始領域内となるように、領域の変更を行う(ステップS38)。開始座標T1と終了座標T2との距離が第2の閾値より大きい場合には、感度強制設定部107は領域の変更を行わない。
 このように、感度強制設定部107は、戻し操作の判定を閾値を使用して行い、感度を強制的に変更するので、ユーザは簡便に異なる感度により指標を移動させることができる。
 <その他>
 以上の説明では、タッチパネル31の領域において、粗動開始領域W1と微動開始領域W2とを設ける例について説明した。しかし、感度設定部101は、他の態様によっても粗動感度と微動感度とを設定することができる。
 感度設定部101は、接触動作の押圧により、指標の移動感度を設定してもよい。感度設定部101は、接触動作が第1の押圧で行われた場合には、第1の感度に設定し、接触動作が第2の押圧で行われた場合には、第2の感度に設定する。
 又、感度設定部101は、接触面積により、指標の移動感度を設定してもよい。感度設定部101は、接触動作が第1の接触面積で行われた場合には、第1の感度に設定し、接触動作が第2の接触面積で行われた場合には、第2の感度に設定する。
 また、感度設定部101は、タッチパネル31への接触の指120の本数により、感度を設定してもよい。感度設定部101は、接触動作が第1の指120の本数で行われた場合には、第1の感度に設定し、接触動作が第2の指120の本数で行われた場合には、第2の感度に設定する。
 又以上の説明では、指標はフォーカスエリアFの指標に関して説明したが、これに限定されるものではない。指標は、重畳表示される位置に応じて撮像条件又は画像処理条件を指示するもであれば特に限定されない。例えばホワイトバランスの補正量を示す指標に関しても、本発明は適用される。
 図20は、ファインダ用モニタ13に表示されるライブビュー画像に、重畳してホワイトバランスシフト画像が表示されていることを示す図である。
 ライブビュー画像に重畳的に表示されるホワイトバランスシフト画像(WBシフト画像)131では、赤軸(R)、青軸(B)、緑軸(G)、及び黄色軸(Y)がそれぞれ示されており、指標Sを移動させることによりホワイトバランスシフト量を調整する。具体的には、指標Sを移動させることにより、ホワイトバランスシフト量を調整し、そのホワイトバランスシフト量がライブビュー画像に反映されるので、ユーザは意図するホワイトバランスの調整を行うことができる。この場合に、WBシフト画像において、ユーザが意図するように指標を微動感度及び粗動感度で指標を動かすことにより、素早く且つ正確にWBシフト画像上で指標を移動させることができる。
 以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1   :ストロボ
2   :シャッタボタン
3   :電源/モードスイッチ
4   :モードダイヤル
5   :ズームボタン
5T  :テレボタン
5W  :ワイドボタン
6   :十字ボタン
7   :MENU/OKボタン
8   :再生ボタン
9   :BACKボタン
10  :撮像装置
11  :ファインダ
12  :撮影レンズ
13  :ファインダ用モニタ
14  :絞り
15  :メカシャッタ
16  :撮像素子
17  :アイセンサ
22  :画像入力コントローラ
24  :画像処理部
26  :圧縮伸張処理部
28  :ビデオエンコーダ
30  :背面モニタ
31  :タッチパネル
32  :センサ駆動部
33  :シャッタ駆動部
34  :絞り駆動部
36  :レンズ駆動部
38  :操作部
40  :CPU
42  :AF処理部
44  :AE検出部
47  :ROM
48  :メモリ
49  :タッチセンサ入力部
51  :姿勢センサ
52  :メディアコントローラ
54  :メモリカード
101 :感度設定部
103 :移動制御部
105 :領域設定部
107 :感度強制設定部
ステップS10-S15:撮像方法の工程
ステップS20-S25:領域設定の工程
ステップS30-S38:戻し操作の検出及び受付設定の変更の工程

Claims (14)

  1.  ライブビュー画像及び前記ライブビュー画像に重畳表示される指標を表示するファインダであって、重畳表示される位置に応じて撮像条件又は画像処理条件を指示する前記指標を表示するファインダと、
     前記指標を移動させるスワイプ操作を受け付けるタッチパネルと、
     前記スワイプ操作により前記指標を粗動させる第1の感度又は前記指標を微動させる第2の感度を、前記スワイプ操作における前記タッチパネルへの接触動作を検出することにより設定する感度設定部と、
     前記タッチパネルでの前記スワイプ操作及び前記感度設定部により設定された感度に基づいて、前記指標を移動させる移動制御部と、
     を備える撮像装置。
  2.  前記タッチパネルは、第1の領域及び第2の領域を有し、
     前記感度設定部は、前記接触動作が前記第1の領域で行われた場合には、前記第1の感度に設定し、前記接触動作が前記第2の領域で行われた場合には、前記第2の感度に設定する請求項1に記載の撮像装置。
  3.  撮像装置の姿勢を検出する姿勢センサと、
     前記姿勢センサの検出結果に基づいて、前記第1の領域及び前記第2の領域を設定する領域設定部と、
     を更に備える請求項2に記載の撮像装置。
  4.  前記タッチパネルは、前記スワイプ操作を検出しない不感領域である第3の領域を更に有する請求項2又は3に記載の撮像装置。
  5.  前記感度設定部は、前記接触動作が第1の押圧で行われた場合には、前記第1の感度に設定し、前記接触動作が第2の押圧で行われた場合には、前記第2の感度に設定する請求項1に記載の撮像装置。
  6.  前記感度設定部は、前記接触動作が第1の接触面積で行われた場合には、前記第1の感度に設定し、前記接触動作が第2の接触面積で行われた場合には、前記第2の感度に設定する請求項1に記載の撮像装置。
  7.  前記感度設定部は、前記接触動作が第1の指の本数で行われた場合には、前記第1の感度に設定し、前記接触動作が第2の指の本数で行われた場合には、前記第2の感度に設定する請求項1に記載の撮像装置。
  8.  前記感度を強制的に設定する感度強制設定部を備え、
     前記タッチパネルは、前記スワイプ操作の開始地点及び終了地点を検出し、
     前記感度強制設定部は、前記開始地点と前記終了地点との間の距離が閾値以下である場合には、前記第1の感度の受付設定と前記第2の感度の受付設定とを強制的に切り替える請求項1から7のいずれか1項に記載の撮像装置。
  9.  前記感度強制設定部は、前記第1の感度での前記指標の移動において、前記開始地点と前記終了地点との間の距離が第1の閾値以下である場合には前記第2の感度に切り替え、前記第2の感度での前記指標の移動において、前記開始地点と前記終了地点との間の距離が第2の閾値以下である場合には前記第1の感度に強制的に切り替える請求項8に記載の撮像装置。
  10.  前記指標は、フォーカスエリアの位置を示す請求項1から9のいずれか1項に記載の撮像装置。
  11.  前記指標は、ホワイトバランスの補正量を示す請求項1から10のいずれか1項に記載の撮像装置。
  12.  ライブビュー画像及び前記ライブビュー画像に重畳表示される指標を表示するファインダであって、重畳表示される位置に応じて撮像条件又は画像処理条件を指示する前記指標を表示するファインダと、前記指標を移動させるスワイプ操作を受け付けるタッチパネルと、を備える撮像装置の撮像方法であって、
     前記スワイプ操作により前記指標を粗動させる第1の感度又は前記指標を微動させる第2の感度を、前記スワイプ操作における前記タッチパネルへの接触動作を検出することにより設定する感度設定ステップと、
     前記タッチパネルでの前記スワイプ操作及び前記感度設定ステップにより設定された感度に基づいて、前記指標を移動させる移動制御ステップと、
     を含む撮像方法。
  13.  ライブビュー画像及び前記ライブビュー画像に重畳表示される指標を表示するファインダであって、重畳表示される位置に応じて撮像条件又は画像処理条件を指示する前記指標を表示するファインダと、前記指標を移動させるスワイプ操作を受け付けるタッチパネルと、を備える撮像装置の撮像工程をコンピュータに実行させるプログラムであって、
     前記スワイプ操作により前記指標を粗動させる第1の感度又は前記指標を微動させる第2の感度を、前記スワイプ操作における前記タッチパネルへの接触動作を検出することにより設定する感度設定ステップと、
     前記タッチパネルでの前記スワイプ操作及び前記感度設定ステップにより設定された感度に基づいて、前記指標を移動させる移動制御ステップと、
     を含む撮像工程をコンピュータに実行させるプログラム。
  14.  非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に、
     ライブビュー画像及び前記ライブビュー画像に重畳表示される指標を表示するファインダであって、重畳表示される位置に応じて撮像条件又は画像処理条件を指示する前記指標を表示するファインダと、前記指標を移動させるスワイプ操作を受け付けるタッチパネルと、を備える撮像装置の撮像工程であって、
     前記スワイプ操作により前記指標を粗動させる第1の感度又は前記指標を微動させる第2の感度を、前記スワイプ操作における前記タッチパネルへの接触動作を検出することにより設定する感度設定ステップと、
     前記タッチパネルでの前記スワイプ操作及び前記感度設定ステップにより設定された感度に基づいて、前記指標を移動させる移動制御ステップと、
     を含む撮像工程をコンピュータに実行させる記録媒体。
PCT/JP2019/021101 2018-06-27 2019-05-28 撮像装置、撮像方法、及びプログラム WO2020003862A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201980042597.7A CN112352418B (zh) 2018-06-27 2019-05-28 摄像装置、摄像方法
JP2020527303A JP6880326B2 (ja) 2018-06-27 2019-05-28 撮像装置、撮像方法、及びプログラム
US17/106,490 US11216118B2 (en) 2018-06-27 2020-11-30 Imaging apparatus, imaging method, and program
US17/504,040 US11635856B2 (en) 2018-06-27 2021-10-18 Imaging apparatus, imaging method, and program
US18/182,755 US11954290B2 (en) 2018-06-27 2023-03-13 Imaging apparatus, imaging method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018122043 2018-06-27
JP2018-122043 2018-06-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/106,490 Continuation US11216118B2 (en) 2018-06-27 2020-11-30 Imaging apparatus, imaging method, and program

Publications (1)

Publication Number Publication Date
WO2020003862A1 true WO2020003862A1 (ja) 2020-01-02

Family

ID=68985611

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/021101 WO2020003862A1 (ja) 2018-06-27 2019-05-28 撮像装置、撮像方法、及びプログラム

Country Status (4)

Country Link
US (3) US11216118B2 (ja)
JP (2) JP6880326B2 (ja)
CN (1) CN112352418B (ja)
WO (1) WO2020003862A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053556A1 (ja) * 2021-09-30 2023-04-06 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020003862A1 (ja) * 2018-06-27 2020-01-02 富士フイルム株式会社 撮像装置、撮像方法、及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160581A (ja) * 2009-01-06 2010-07-22 Olympus Imaging Corp ユーザインタフェース装置、カメラ、ユーザインタフェース方法およびユーザインタフェース用プログラム
JP2012203143A (ja) * 2011-03-24 2012-10-22 Olympus Imaging Corp 表示装置
WO2016147697A1 (ja) * 2015-03-13 2016-09-22 オリンパス株式会社 内視鏡画像表示装置、内視鏡画像表示方法及び内視鏡画像表示プログラム
JP2017174363A (ja) * 2016-03-25 2017-09-28 ヤマハ株式会社 設定装置及び方法
JP2018036802A (ja) * 2016-08-30 2018-03-08 キヤノン株式会社 電子機器およびその制御方法
JP2018085570A (ja) * 2016-11-21 2018-05-31 キヤノン株式会社 撮像装置、撮像方法及びプログラム
JP2018125612A (ja) * 2017-01-30 2018-08-09 キヤノン株式会社 撮像装置及びその制御方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325051A (ja) * 2006-06-02 2007-12-13 Fujifilm Corp 撮影装置および方法並びにプログラム
EP2030102A4 (en) 2006-06-16 2009-09-30 Cirque Corp BY TOUCHDOWN ON A PRESENT POINT ON A TOUCHPAD ACTIVATED SCROLLING PROCESS WITH GESTURE DETECTION FOR CONTROLLING SCROLLING FUNCTIONS
JP5519539B2 (ja) * 2008-02-28 2014-06-11 ニューヨーク・ユニバーシティ 処理装置に入力を与える方法及び装置、並びにセンサパッド
JP5613005B2 (ja) * 2010-10-18 2014-10-22 オリンパスイメージング株式会社 カメラ
JP2012191570A (ja) * 2011-03-14 2012-10-04 Seiko Epson Corp 撮影装置、その制御方法及びプログラム
JP2013025503A (ja) * 2011-07-19 2013-02-04 Canon Inc 電子機器及びその制御方法、プログラム、並びに記憶媒体
US8743055B2 (en) 2011-10-13 2014-06-03 Panasonic Corporation Hybrid pointing system and method
JP2014067316A (ja) * 2012-09-27 2014-04-17 Canon Inc 表示制御装置
JP5995637B2 (ja) 2012-10-04 2016-09-21 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム、記憶媒体
CN103197770B (zh) * 2013-04-01 2016-08-31 深圳数字电视国家工程实验室股份有限公司 一种电视遥控器模拟鼠标操作的方法及装置
JP2014215885A (ja) * 2013-04-26 2014-11-17 株式会社東芝 情報処理装置、タッチパッドの感度調整方法およびプログラム
US20160011720A1 (en) * 2014-07-10 2016-01-14 Thomas Christian Walther Multi-Touch Interface for Blind Real-Time Interaction
KR20170025706A (ko) * 2015-08-31 2017-03-08 주식회사 하이딥 압력 감도 조절이 가능한 압력 검출기 및 이를 포함하는 터치 입력 장치
WO2017085983A1 (ja) * 2015-11-17 2017-05-26 ソニー株式会社 制御装置、制御方法、およびプログラム
CN105824361A (zh) * 2016-03-11 2016-08-03 合肥联宝信息技术有限公司 一种笔记本电脑及控制鼠标的方法
JP2018013745A (ja) 2016-07-23 2018-01-25 キヤノン株式会社 電子機器およびその制御方法
CN106980438B (zh) * 2017-03-20 2020-04-24 联想(北京)有限公司 光标控制方法、装置及系统
CN206805468U (zh) * 2017-05-11 2017-12-26 安徽师范大学 一种头戴式智能鼠标
US20190034147A1 (en) * 2017-07-31 2019-01-31 Intel Corporation Methods and apparatus to detect user-facing screens of multi-screen devices
CN107707955A (zh) * 2017-08-30 2018-02-16 上海与德科技有限公司 一种显示器上的光标控制方法及智能设备
ES2947297T3 (es) * 2017-11-07 2023-08-04 Huawei Tech Co Ltd Método y dispositivo de control táctil
WO2020003862A1 (ja) * 2018-06-27 2020-01-02 富士フイルム株式会社 撮像装置、撮像方法、及びプログラム
JP7187190B2 (ja) * 2018-06-29 2022-12-12 キヤノン株式会社 電子機器、および電子機器の制御方法、プログラム、記憶媒体

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160581A (ja) * 2009-01-06 2010-07-22 Olympus Imaging Corp ユーザインタフェース装置、カメラ、ユーザインタフェース方法およびユーザインタフェース用プログラム
JP2012203143A (ja) * 2011-03-24 2012-10-22 Olympus Imaging Corp 表示装置
WO2016147697A1 (ja) * 2015-03-13 2016-09-22 オリンパス株式会社 内視鏡画像表示装置、内視鏡画像表示方法及び内視鏡画像表示プログラム
JP2017174363A (ja) * 2016-03-25 2017-09-28 ヤマハ株式会社 設定装置及び方法
JP2018036802A (ja) * 2016-08-30 2018-03-08 キヤノン株式会社 電子機器およびその制御方法
JP2018085570A (ja) * 2016-11-21 2018-05-31 キヤノン株式会社 撮像装置、撮像方法及びプログラム
JP2018125612A (ja) * 2017-01-30 2018-08-09 キヤノン株式会社 撮像装置及びその制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053556A1 (ja) * 2021-09-30 2023-04-06 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US20230217096A1 (en) 2023-07-06
US20220035480A1 (en) 2022-02-03
CN112352418B (zh) 2023-11-21
JP6880326B2 (ja) 2021-06-02
US11635856B2 (en) 2023-04-25
JP2021132383A (ja) 2021-09-09
CN112352418A (zh) 2021-02-09
US11216118B2 (en) 2022-01-04
JPWO2020003862A1 (ja) 2021-04-22
US11954290B2 (en) 2024-04-09
JP7152557B2 (ja) 2022-10-12
US20210081074A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
KR100914084B1 (ko) 촬상 장치 및 촬상 방법
US9374520B2 (en) Digital image processing apparatus and method of controlling the same
US11954290B2 (en) Imaging apparatus, imaging method, and program
JP5409483B2 (ja) 撮像装置
JP4788172B2 (ja) 撮像装置及びプログラム
JP2007225897A (ja) 合焦位置決定装置及び方法
JP2008263478A (ja) 撮像装置
WO2014129533A1 (ja) 撮像装置及び制御プログラム並びに露出量制御方法
JP4981955B2 (ja) 撮像装置、及びその制御方法
JP4785548B2 (ja) 撮像装置、及びその制御方法
US11871106B2 (en) Imaging apparatus, imaging method, and program
JP2009036987A (ja) 撮影装置および撮影装置の制御方法
JP2009048123A (ja) 撮影装置および撮影装置の制御方法
JP5225477B2 (ja) 撮像装置、及びその制御方法
US8243181B2 (en) Digital image processing apparatus and method of controlling the same
WO2022071271A1 (ja) 撮像装置、画像処理方法及び画像処理プログラム
JP4077683B2 (ja) カメラ及び表示制御方法
WO2019181579A1 (ja) カメラ、撮像方法、及びプログラム
JP4227181B2 (ja) デジタルカメラ
JP2007067997A (ja) カメラ機器及びその操作方法
JP2016149590A (ja) 撮像装置
JP2015072426A (ja) 表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19824961

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2020527303

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19824961

Country of ref document: EP

Kind code of ref document: A1