WO2015030126A1 - 画像処理装置、および画像処理プログラム - Google Patents

画像処理装置、および画像処理プログラム Download PDF

Info

Publication number
WO2015030126A1
WO2015030126A1 PCT/JP2014/072612 JP2014072612W WO2015030126A1 WO 2015030126 A1 WO2015030126 A1 WO 2015030126A1 JP 2014072612 W JP2014072612 W JP 2014072612W WO 2015030126 A1 WO2015030126 A1 WO 2015030126A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
unit
setting
ring
Prior art date
Application number
PCT/JP2014/072612
Other languages
English (en)
French (fr)
Inventor
聡志 土谷
阿部 幸一
吉野 薫
久保田 幸雄
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013179597A external-priority patent/JP2015050542A/ja
Priority claimed from JP2013246540A external-priority patent/JP2015106744A/ja
Priority claimed from JP2013246539A external-priority patent/JP2015106743A/ja
Priority claimed from JP2013246541A external-priority patent/JP2015106745A/ja
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to EP18174791.6A priority Critical patent/EP3386183A1/en
Priority to CN201480060062.XA priority patent/CN105684420B/zh
Priority to EP14841208.3A priority patent/EP3041221B1/en
Priority to US14/913,609 priority patent/US9918021B2/en
Publication of WO2015030126A1 publication Critical patent/WO2015030126A1/ja
Priority to US15/883,705 priority patent/US20180160053A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Definitions

  • the present invention relates to an image processing apparatus and an image processing program.
  • Patent Document 1 In the conventional technology such as Patent Document 1, in order for the user to select an image process suitable for a shooting scene from a plurality of image processes, knowledge about the contents of the plurality of image processes is necessary. For this reason, it is difficult to select image processing suitable for the shooting scene.
  • the image processing device performs the first image processing and the second image processing on the image to change the image, and when the first image processing is performed. It is preferable to include a process change unit that changes the degree of change of the image and the degree of change of the image when the second image processing is performed.
  • the process change unit can also increase the degree of image change due to the second image processing when the degree of image change due to the first image process is reduced.
  • FIG. 20 is a flowchart illustrating a process flow following FIG. 19.
  • FIG. 20 is a flowchart illustrating a process flow following FIG. 19.
  • FIG. 1 It is a flowchart explaining the flow of the image processing according to the position of a cursor. It is a flowchart explaining the flow of the process which changes the display size of a ring image. It is a flowchart explaining the flow of the process following FIG. It is a figure explaining the example of a display of the ring image in modification 1. It is a figure explaining the example of a display of the ring image in the modification 3. FIG. It is a figure explaining the example of a display of the ring image in modification 4. It is a block diagram explaining the structural example of the digital camera by 4th embodiment of this invention. It is a flowchart explaining the flow of the process in creative mode. It is a figure explaining the ring image in 4th embodiment.
  • FIG. 1 It is a figure explaining the synthesis
  • FIG. It is a figure explaining the change curve of an image processing parameter. It is a figure explaining addition of the area for setting in modification 2. It is a figure explaining the display screen in the modification 6.
  • FIG. It is a figure explaining change of the field for setting in modification 7. It is a figure explaining the ring image of the modification 10.
  • FIG. 1 It is a figure explaining the synthesis
  • FIG. It is a figure explaining the change curve of an image processing parameter. It is a figure explaining addition of the area for setting in modification 2. It is a figure explaining the display screen in the modification 6.
  • FIG. It is a figure explaining change of the field for setting in modification 7. It is a figure explaining the ring image of the modification 10.
  • FIG. 1 is a block diagram illustrating a configuration of a digital camera 1 according to the present embodiment.
  • the digital camera 1 includes an imaging optical system 11, an imaging element 12, a lens driving circuit 13, a control unit 14, an operation member 16, and a display unit 17.
  • a recording medium 18 such as a memory card can be attached to and detached from the digital camera 1.
  • the imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the light receiving surface of the imaging element 12.
  • the imaging optical system 11 is shown as a single lens.
  • the lens driving circuit 13 drives the zoom lens of the imaging optical system 11 to adjust the focal length under the control of the control unit 14 and adjusts the focal length by driving the focusing lens of the imaging optical system 11.
  • the image pickup device 12 is an image sensor such as a CMOS image pickup device, for example, picks up a subject image formed by the image pickup optical system 11 and outputs the obtained image signal to the control unit 14.
  • CMOS image pickup device for example, picks up a subject image formed by the image pickup optical system 11 and outputs the obtained image signal to the control unit 14.
  • the control unit 14 includes a display control unit 14a, a position selection unit 14b, an image processing selection unit 14c, an image processing unit 14d, and a scene determination unit 14e.
  • the control unit 14 includes a CPU, a memory, and peripheral circuits thereof, and realizes the functions of these units by executing a control program stored in the memory. The contents of the function of each part will be described in detail later.
  • the operation member 16 includes a shutter button 16a, a recording button 16b, and a rotary multi selector 16c.
  • the operation member 16 includes a mode switching button, a cross key, an OK button, a display button, and the like. When each operation member is operated, the operation member 16 outputs an operation signal corresponding to the operation to the control unit 14.
  • the display unit 17 includes a liquid crystal monitor (rear monitor) mounted on the back of the digital camera 1, and displays a captured image captured by the image sensor 12, various setting menus, and the like.
  • a liquid crystal monitor rear monitor
  • the control unit 14 causes the imaging device 12 to perform imaging processing for a through image at a predetermined frame rate.
  • a frame image for display is generated from each frame image obtained in time series from 12 and output to the display unit 17.
  • the through image is displayed on the display unit 17 in real time.
  • the control unit 14 causes the image sensor 12 to perform image processing for a still image, and an image acquired from the image sensor 12 is acquired.
  • Predetermined image processing is performed on the signal to generate still image data
  • compression processing is performed by a predetermined method such as JPEG, and recording is performed on the recording medium 18.
  • the control unit 14 When the recording button 16b is operated in the moving image shooting mode and the start of moving image shooting is instructed, the control unit 14 causes the image pickup device 12 to start moving image pickup processing, and the image of each frame output from the image pickup device 12 is displayed. Predetermined image processing is performed on the signal. Then, the control unit 14 compresses the image data after image processing into compressed image data such as MPEG format or Motion JPEG, and records the compressed image data on the recording medium 18.
  • the control unit 14 When the recording button 16b is operated again to instruct the end of moving image shooting, the control unit 14 records the compressed image data up to the end of moving image shooting on the recording medium 18 to complete the moving image file.
  • control unit 14 When the reproduction mode is set according to the operation signal from the operation member 16, the control unit 14 reads out and reproduces still image data or moving image data recorded on the recording medium 18 and displays it on the display unit 17. .
  • the digital camera 1 of the present embodiment is provided with a creative mode capable of obtaining a captured image subjected to various image processing as a shooting mode in addition to the normal mode.
  • this creative mode will be described.
  • FIG. 2 is a diagram for explaining an example of a display screen in the creative mode.
  • the display control unit 14 a of the control unit 14 displays the through image on the display unit 17.
  • the display control unit 14a displays an image (hereinafter referred to as a ring image) 50 for selecting image processing to be applied to the captured image so as to overlap the through image.
  • the ring image 50 is an image that displays the ring 51 and the cursor 52.
  • the cursor 52 indicates a position currently selected on the ring 51 by the position selection unit 14 b of the control unit 14.
  • the position selection unit 14 b moves the display position (that is, the selection position) of the cursor 52 along the ring 51 according to the rotation operation. For example, when the rotary multi selector 16c is rotated clockwise, the position selection unit 14b moves the cursor 52 clockwise on the ring 51 at a predetermined speed. On the other hand, when the rotary multi-selector 16c is rotated counterclockwise, the position selection unit 14b moves the cursor 52 on the ring 51 counterclockwise at a predetermined speed.
  • the image processing selection unit 14c of the control unit 14 performs predetermined four image processing (hereinafter referred to as first image processing to fourth image processing) according to the position selected by the position selection unit 14b, that is, the position of the cursor 52. Image processing to be performed on the captured image is selected. The specific contents of the first image processing to the fourth image processing will be described later.
  • the image processing unit 14d of the control unit 14 performs the image processing selected by the image processing selection unit 14c on the captured image.
  • the display control unit 14a displays the captured image subjected to the image processing by the image processing unit 14d on the display unit 17 as a through image.
  • the user can select the image processing to be performed on the captured image by rotating the rotary multi selector 16 c and moving the position of the cursor 52, and the captured image subjected to the selected image processing can be selected.
  • the image can be confirmed in real time by the through image.
  • the user changes the image processing to be performed on the captured image by rotating the rotary multi selector 16 c to the desired image processing, and then presses the shutter button 16 a or the recording button 16 b to obtain a desired image processing. It is possible to record still image data or moving image data subjected to image processing.
  • 66 positions from the 0th position to the 65th position are set clockwise from the top point P0 of the ring 51, and a scale indicating the position is displayed on the inner side of the ring 51.
  • the top point P0 of the ring 51 is the 0th position, and the position P1 adjacent to the right is the first position.
  • a position P17 that is 90 degrees clockwise from the 0th position P0 is the 17th position.
  • 15 positions from the second position to the sixteenth position are set at equal intervals.
  • a position P33 that is 180 degrees away from the 0th position P0 is the 33rd position.
  • FIG. 3 is a diagram for explaining image processing selected at each position.
  • the numbers 0 to 65 indicate the 0th position to the 65th position, and the image processing selected at the position indicated by the number is described below the number.
  • the image processing selection unit 14c does not select any of the first image processing to the fourth image processing. Therefore, the image processing unit 14d does not perform these first image processing to fourth image processing on the captured image. Accordingly, the captured image in a state where none of the first image processing to the fourth image processing is performed, that is, the original image is displayed on the display unit 17.
  • the image processing selection unit 14c selects only the first image processing, and the image processing unit 14d captures only the selected first image processing. Apply to images. Therefore, when the cursor 52 moves clockwise from the 0th position P0 to the 1st position P1, the through image displayed on the display unit 17 changes from the state of the original image to the state where only the first image processing is performed. .
  • the image processing selection unit 14c selects only the second image processing
  • the image processing unit 14d selects the selected second image. Only processing is performed on the captured image. Therefore, when the cursor 52 moves clockwise from the first position P1 to the seventeenth position P17, the through image displayed on the display unit 17 is subjected to only the second image processing from the state where only the first image processing is performed. It changes to the state. At this time, the through image displayed on the display unit 17 is gradually changed in 15 stages from a state where only the first image processing is performed to a state where only the second image processing is performed.
  • the image processing selection unit 14c selects both the first image processing and the second image processing
  • the image processing unit 14d selects the selected first image processing. Both the second image processing and the second image processing are performed on the captured image (that is, the first image processing and the second image processing are superimposed on the captured image).
  • the image processing unit 14d increases the ratio of the first image processing to lower the ratio of the second image processing as the cursor 52 is closer to the first position P1, and decreases the ratio of the second image processing as the cursor 52 is closer to the seventeenth position P17. The image processing ratio is increased and the first image processing ratio is decreased.
  • the image processing unit 14d sets the first image processing at 75% and the second image processing at a ratio of 25%, and when the cursor 52 is at the ninth position, When one image processing is 50%, the second image processing is 50%, and the cursor 52 is at the thirteenth position, the first image processing is 25% and the second image processing is 75%.
  • performing only the first image processing on the captured image when the cursor 52 is at the first position P1 is the same as performing the first image processing at a ratio of 100%.
  • performing only the second image processing on the captured image when the cursor 52 is at the seventeenth position P17 is the same as performing the second image processing at a ratio of 100%.
  • the first image processing is performed at a ratio of 75% means that the degree of change in the captured image when only the first image processing is performed on the captured image (that is, when the first image processing is performed 100%).
  • the first image processing is performed so that the captured image of 75% of the degree changes when the value is 100%.
  • the image processing selection unit 14c selects only the third image processing, and the image processing unit 14d performs only the selected third image processing. Applied to the captured image. Therefore, when the cursor 52 moves clockwise from the 17th position P17 to the 33rd position P33, the through image displayed on the display unit 17 is subjected to only the third image processing from the state where only the second image processing is performed. It changes to the state. At this time, the through image displayed on the display unit 17 gradually transitions from a state where only the second image processing is performed to a state where only the third image processing is performed in 15 stages.
  • the image processing selection unit 14c selects both the second image processing and the third image processing
  • the image processing unit 14d selects the selected second image processing. Both the third image processing and the third image processing are performed on the captured image.
  • the image processing unit 14d increases the ratio of the second image processing to lower the ratio of the third image processing as the cursor 52 is closer to the seventeenth position P17, and decreases the ratio of the third image processing to the third position as the cursor 52 is closer to the thirty-third position P33. The image processing ratio is increased and the second image processing ratio is decreased.
  • the image processing selection unit 14c selects only the fourth image processing
  • the image processing unit 14d selects the selected fourth image. Only processing is performed on the captured image. Therefore, when the cursor 52 is moved clockwise from the 33rd position P33 to the 49th position P49, the through image displayed on the display unit 17 is only the fourth image process from the state where only the third image process is performed. It changes to the state that has been subjected to. At this time, the through image displayed on the display unit 17 is gradually changed in 15 stages from a state where only the third image processing is performed to a state where only the fourth image processing is performed.
  • the image processing selection unit 14c selects both the third image processing and the fourth image processing
  • the image processing unit 14d selects the selected third image processing. Both the fourth image processing and the fourth image processing are performed on the captured image.
  • the image processing unit 14d increases the ratio of the third image processing and decreases the ratio of the fourth image processing as the cursor 52 is closer to the 33rd position P33, and the fourth as the cursor 52 is closer to the 49th position P49. The image processing ratio is increased and the third image processing ratio is decreased.
  • the image processing selection unit 14c selects only the first image processing, and the image processing unit 14d captures the selected first image processing.
  • the through image displayed on the display unit 17 is subjected to only the first image processing from the state where only the fourth image processing is performed. It changes to the state. At this time, the through image displayed on the display unit 17 gradually transitions from a state where only the fourth image processing is performed to a state where only the first image processing is performed in 15 stages.
  • the image processing selection unit 14c selects both the fourth image processing and the first image processing
  • the image processing unit 14d selects the selected fourth image processing. Both the first image processing and the first image processing are performed on the captured image.
  • the image processing unit 14d increases the ratio of the fourth image processing and decreases the ratio of the first image processing as the cursor 52 is closer to the 49th position P49, and decreases the first image processing as the cursor 52 is closer to the 65th position P65. The image processing ratio is increased and the fourth image processing ratio is decreased.
  • the through image displayed on the display unit 17 returns from the state where only the first image processing is performed to the state of the original image.
  • the image processing applied to the captured image is changed from the original image to the first image processing, the second image processing, the third image processing, and the fourth. After being changed continuously in the order of image processing, the processing returns to the first image processing again and returns to the original image.
  • the cursor 52 rotates once counterclockwise
  • the image processing performed on the captured image changes in the reverse order to the case where the cursor 52 rotates once clockwise.
  • the cursor 52 does not necessarily have to make one rotation. For example, the cursor 52 can be rotated counterclockwise after a half turn clockwise to return the change in image processing.
  • one of the first image processing to the fourth image processing is performed as the image processing to be performed on the captured image by a simple operation in which the user rotates the rotary multi selector 16 c.
  • two different image processes can be applied at different ratios.
  • image processing includes image processing by changing parameters such as saturation, contrast, white balance, etc., and for example, a filter is applied to blur or darken the periphery to make it look like a toy camera. It is assumed that a process for applying an image effect such as a process is included.
  • the scene determination unit 14e of the control unit 14 performs a scene determination process for determining a shooting scene.
  • four image processes corresponding to the determined shooting scene are set as the first image process to the fourth image process. That is, the contents of the first image processing to the fourth image processing set for the ring image 50 differ depending on the photographic scene to be discriminated.
  • the shooting scenes discriminated by the scene discriminating unit 14e are “portraits” which are scenes for photographing a person, “close-up” which is a scene for photographing close to the subject, “landscapes” which are scenes for photographing a landscape, “ There are four types of “others” which are scenes other than “portrait”, “close-up”, and “landscape”. Note that the type of shooting scene to be determined is an example, and various other shooting scenes may be determined. A known method is used as a method for determining a shooting scene.
  • the scene determination unit 14e for example, information based on an image signal from the image sensor 12 (luminance, color balance (R / G ratio, B / G ratio), etc.), camera setting information (focal length of the imaging optical system 11, etc.
  • the shooting scene is determined based on the shooting magnification.
  • FIG. 4 is a diagram illustrating a combination of the first image processing to the fourth image processing according to the shooting scene.
  • the ring image 50p for the shooting scene “person” includes “portrait” as the first image processing, “monochrome” as the second image processing, “high key” as the third image processing, and “cross” as the fourth image processing.
  • Process (R) is set.
  • the ring image 50n for the shooting scene “close-up” includes “Vivid” as the first image processing, “High key” as the second image processing, “Toy camera” as the third image processing, and “Select color” as the fourth image processing. Is set.
  • the ring image 50g for the shooting scene “landscape” includes “cross process (B)” as the first image processing, “landscape” as the second image processing, “filter monochrome (sepia)” as the third image processing, and fourth. “Avant-garde” is set as the image processing.
  • the ring image 50 s for the shooting scene “others” includes “avant-garde” as the first image processing, “monochrome” as the second image processing, “toy camera” as the third image processing, and “cross process ( G) "is set.
  • FIG. 4 shows the shooting scene and the text indicating the contents of the first image processing to the fourth image processing.
  • FIG. 4 shows the shooting scene and the text indicating the contents of the first image processing to the fourth image processing.
  • the actual display screen of the display unit 17 as shown in FIG.
  • the text is not displayed, and only the ring 51 and the cursor 52 are displayed. That is, the ring images 50p, 50n, 50g, and 50s are displayed on the display screen of the display unit 17 as the same image (that is, with the same display contents) in any shooting scene.
  • “Portrait” is image processing for creating an image that makes a person's skin look beautiful.
  • “Monochrome” is image processing for creating a monochrome image only.
  • “High key” is image processing for creating an image with a bright entire screen and less shadow.
  • “Cross process (R)”, “Cross process (G)”, and “Cross process (B)” are the same as those in which cross process (a method of silver salt photography using a positive film to develop a negative). This is image processing for obtaining an image effect.
  • Cross process a method of silver salt photography using a positive film to develop a negative. This is image processing for obtaining an image effect.
  • Cross process a method of silver salt photography using a positive film to develop a negative
  • “Vivid” is image processing for creating a colorful image with enhanced contrast.
  • the “toy camera” is image processing for obtaining an image effect that is taken by a toy camera.
  • Select color is image processing for obtaining an image effect in which only a specific color is left and the others are changed to monochrome.
  • “Landscape” is image processing for creating an image suitable for a landscape such as nature or a cityscape.
  • “Filter monochrome (sepia)” is image processing for creating an image only in sepia shades.
  • “Avant-Garde” is image processing for creating a unique image with higher contrast and saturation than “Vivid”.
  • the first image processing and the second image processing are superimposed on the captured image, and gradually transition from the first image processing to the second image processing or from the second image processing to the first image processing.
  • a combination of the first image processing and the second image processing is set in advance in each shooting scene so that the combinations are easy to overlap each other and easily transition. The same applies to the combination of the second image processing and the third image processing, the third image processing and the fourth image processing, and the combination of the fourth image processing and the first image processing.
  • the digital camera 1 when the position of the cursor 52 is moved, the through image displayed on the display unit 17 is changed from the original image to a state where the first image processing is first performed. Therefore, as the first image processing, for each shooting scene, for example, image processing most suitable for the shooting scene, image processing in which a change from the original image is noticeable, and the like are set. For example, in the ring image 50p for the shooting scene “person”, “portrait” which is image processing optimum for a person image is set as the first image processing. Further, in the ring image 50g for the photographing scene “landscape”, “cross process (B)” in which a change from the original image is noticeable is set as the first image processing.
  • First image processing to fourth image processing are set. For example, in the case of the shooting scene “person”, when the cursor 52 moves clockwise on the ring image 50p, the first image processing “portrait”, the second image processing “monochrome”, and the third image processing “high key”. The image processing is set to change in the order of the fourth image processing “cross process (R)”. This indicates that it is recommended as the image processing to be performed on the captured image in the order of “portrait”, “monochrome”, “high key”, and “cross process (R)” for the shooting scene “person”. ing.
  • information on the combination of image processing set as the first image processing to the fourth image processing on the ring image 50 is stored in advance in a memory (not shown) in the digital camera 1 for each shooting scene. Based on the determination result, the first image processing to the fourth image processing are set to the ring image 50.
  • FIG. 5 is a flowchart for explaining the flow of processing when shooting a still image in the creative mode.
  • the control unit 14 starts displaying the through image and starts a program for performing the process of FIG. 5 recorded in a memory (not shown) to execute the process of FIG. To start.
  • step S1 the display control unit 14a starts displaying the ring image 50 and proceeds to step S2.
  • step S2 the scene determination unit 14e of the control unit 14 starts a scene determination process for determining a shooting scene, and proceeds to step S3.
  • the scene discrimination process is repeated every predetermined time. Further, the control unit 14 repeatedly performs AF (Auto-Focus) processing in order to appropriately perform scene discrimination processing, and focuses on an arbitrary subject.
  • AF Auto-Focus
  • step S3 the control unit 14 determines whether or not the rotary multi selector 16c has been rotated. If the rotary multi-selector 16c is not rotated, the control unit 14 makes a negative determination in step S3, repeats the process in step S3, and continues the scene determination process. On the other hand, when the rotary multi selector 16c is rotated, the control unit 14 makes a positive determination in step S3 and proceeds to step S4.
  • step S4 the scene determination unit 14e stops the scene determination process, and determines the shooting scene determined when the rotary multi-selector 16c is rotated as the shooting scene determination result. Then, as described above with reference to FIG. 4, the control unit 14 sets the first image processing to the fourth image processing corresponding to the determined shooting scene to the ring image 50.
  • control unit 14 controls the aperture value of the imaging optical system 11 according to the shooting scene determined in step S4.
  • an optimum aperture value is associated with each photographing scene in advance and stored in a memory (not shown) in the digital camera 1.
  • an open aperture value is associated with the photographic scene “person”
  • an aperture value F8 is associated with the photographic scene “landscape”.
  • the control unit 14 controls the aperture value of the imaging optical system 11 so that the aperture value is associated with the determined shooting scene. Thereafter, the control unit 14 performs exposure control (control of shutter speed, ISO sensitivity, etc.) in the aperture priority mode in the through image and still image imaging processing.
  • step S5 the control unit 14 performs a process of performing image processing corresponding to the position of the cursor 52 on the captured image.
  • the flow of this process will be described using the flowchart shown in FIG.
  • step S51 the position selection unit 14b moves the cursor 52 (that is, the selection position) according to the rotation operation of the rotary multi selector 16c, and the process proceeds to step S52.
  • step S52 the image processing selection unit 14c selects the image processing to be performed on the captured image in accordance with the position of the cursor 52 as described with reference to FIGS. 2 and 3, and the process proceeds to step S53.
  • step S53 the image processing unit 14d performs the image processing selected in step S52 on the captured image, and proceeds to step S54.
  • step S54 the display control unit 14a displays the captured image subjected to the image processing by the image processing unit 14d on the display unit 17. As a result, the through image that has been subjected to the image processing selected in step S53 is displayed on the display unit 17. Then, the control part 14 complete
  • step S6 the control unit 14 determines whether or not the shutter button 16a has been pressed halfway. If the shutter button 16a has not been pressed halfway, the control unit 14 makes a negative determination in step S6 and returns to step S5. That is, the control unit 14 repeatedly performs image processing (FIG. 6) according to the position of the cursor 52 until the shutter button 16a is half-pressed. On the other hand, when the shutter button 16a is half-pressed, the control unit 14 makes a positive determination in step S6 and proceeds to step S7.
  • step S7 the image processing selection unit 14c performs image processing set according to the position of the cursor 52 at the time when the shutter button 16a is half-pressed (that is, image processing applied to the captured image at that time). The image processing to be performed on the still image is confirmed. Then, the display control unit 14a hides the ring image 50 and proceeds to step S8.
  • step S8 the control unit 14 performs AF processing in an automatic mode switching AF mode that automatically switches between a single AF mode that fixes the focus position and a continuous AF mode that causes the moving subject to follow the focus, and the process proceeds to step S9.
  • the automatic mode switching AF mode the subject is brought into focus when the shutter button 16a is half-pressed, and the focus position is temporarily fixed. Thereafter, when the subject starts to move and the distance between the digital camera 1 and the subject changes, the mode is automatically switched to the continuous AF mode and the subject is kept in focus.
  • step S9 it is determined whether or not the shutter button 16a has been fully pressed. If the shutter button 16a has not been fully pressed, the control unit 14 makes a negative determination in step S9 and repeats the process in step S9. On the other hand, when the shutter button 16a is fully pressed, the control unit 14 makes a positive determination in step S9 and proceeds to step S10.
  • step S10 the control unit 14 causes the image sensor 12 to perform an imaging process for a still image.
  • the image processing unit 14d performs the image processing determined in step S7 on the captured image data obtained by the imaging processing.
  • the control part 14 records the picked-up image data in which the said image process was performed on the recording medium 18 as still image data, and progresses to step S11.
  • step S11 the control unit 14 starts displaying the through image and the ring image 50 again, and returns to step S5. That is, even after the still image shooting is finished, the settings in step S4 are held for the first image processing to the fourth image processing set for the ring image 50. Further, the setting in step S5 is held for the position of the cursor 52. This is because the first image processing to the fourth image processing set for the ring image 50 when it is desired to perform the next still image shooting under the same conditions immediately after the still image shooting is completed, that is, when continuous shooting is to be performed. If the position of the cursor 52 or the position of the cursor 52 is changed, a still image that has been subjected to different image processing is captured.
  • the control unit 14 cancels (resets) the settings of the first image processing to the fourth image processing in the ring image 50. Further, the position selection unit 14b returns the position of the cursor 52 to the initial position (0th position) P0. Thereafter, the control unit 14 restarts the process shown in FIG. 5 from step S2. That is, the scene determination unit 14e starts a scene determination process. Thereafter, when the rotary multi-selector 16c is rotated, the control unit 14 sets the first image processing to the fourth image processing according to the shooting scene determined at the time of the rotation operation to the ring image 50.
  • the control unit 14 hides the ring image 50 and performs the same operation as in the normal mode. Perform the process. That is, the control unit 14 performs AF processing in the automatic mode switching AF mode. After that, when the shutter button 16a is fully pressed, the control unit 14 causes the image sensor 12 to perform an imaging process for a still image, and records the obtained captured image data on the recording medium 18 as still image data. Then, the control part 14 returns to step S1 of FIG. 5 again, and starts a process.
  • the control unit 14 starts displaying the through image and starts a program for performing the process of FIG. 7 recorded in a memory (not shown) to execute the process of FIG. Start.
  • the control unit 14 performs the same processes as steps S11 to S15 in FIG. 5 described above for steps S21 to S25. That is, the image processing selection unit 14c selects the image processing to be performed on the captured image according to the position of the cursor 52 of the ring image 50 even during moving image shooting, as in the case of still image shooting.
  • step S26 the control unit 14 determines whether or not the recording button 16b is pressed. If the recording button 16b has not been pressed, the control unit 14 makes a negative determination in step S26 and returns to step S25. That is, the control unit 14 repeatedly performs image processing (FIG. 6) according to the position of the cursor 52 until the recording button 16b is pressed. On the other hand, when the recording button 16b is pressed, the control unit 14 makes a positive determination in step S26 and proceeds to step S27.
  • step S27 the image processing selection unit 14c determines the image processing set according to the position of the cursor 52 when the recording button 16b is pressed as the image processing to be performed on the moving image. Then, the display control unit 14a hides the ring image 50 and proceeds to step S28.
  • step S28 the control unit 14 starts shooting a moving image and proceeds to step S29.
  • the image processing unit 14d performs the image processing determined in step S27 on each frame image data of the moving image to be shot.
  • step S29 the control unit 14 repeatedly performs AF processing to start AF processing in the AF mode for focusing on an arbitrary subject, and proceeds to step S30.
  • step S30 the control unit 14 determines whether or not the shutter button 16a has been fully pressed. If the shutter button 16a has not been fully pressed, the control unit 14 makes a negative determination in step S30 and proceeds to step S32. On the other hand, when the shutter button 16a is fully pressed, the control unit 14 makes a positive determination in step S30 and proceeds to step S31.
  • step S31 the control unit 14 performs still image shooting during moving image shooting, and proceeds to step S32.
  • the image processing unit 14d performs the image processing determined in step S27 on the frame image data captured when the shutter button 16a is fully pressed.
  • the control unit 14 temporarily records the frame image data subjected to the image processing in a memory (not shown) as still image data.
  • step S32 the control unit 14 determines whether or not the recording button 16b is pressed. If the recording button 16b has not been pressed, the control unit 14 makes a negative determination in step S32 and returns to step S30. Until the recording button 16b is pressed, the control unit 14 repeats the processes of steps S30 to S32. When the recording button 16b is pressed, the control unit 14 makes a positive determination in step S32, and proceeds to step S33.
  • step S33 the control unit 14 ends the moving image shooting.
  • the control unit 14 captures a series of frame image data that has been imaged from the time when the recording button 16b is pressed in step S26 to the time that the recording button 16b is pressed again in step S32 and subjected to the image processing determined in step S27.
  • One moving image data is recorded on the recording medium 18.
  • step S31 still image data temporarily stored in a memory (not shown) is recorded on the recording medium 18. Then, the control unit 14 proceeds to step S34.
  • step S34 the control unit 14 restarts the display of the through image and the display of the ring image 50, and returns to step S25.
  • the control unit 14 hides the ring image 50 and performs the same processing as in the normal mode. I do. That is, the control unit 14 starts moving image shooting, repeatedly performs AF processing, and starts AF processing in an AF mode for focusing on an arbitrary subject.
  • the control unit 14 performs still image shooting during moving image shooting.
  • the control unit 14 finishes moving image shooting, and a series of frame image data captured from the time when the recording button 16b is pressed until the time when the recording button 16b is pressed again is converted into moving image data. To the recording medium 18. Then, the control part 14 returns to step S21 of FIG. 7, and starts a process again.
  • the scene determination unit 14 e determines whether the captured scene in the captured image captured by the image sensor 12 is “person”, “close-up”, “landscape”, or “other”. To do.
  • the display control unit 14a performs first to fourth image processing (“portrait”) corresponding to “person”. , “Monochrome”, “high key”, “cross process (R)”), a ring image 50 for selecting at least one image processing is displayed on the display unit 17.
  • the image processing selection unit 14c selects at least one image processing from the first image processing to the fourth image processing in accordance with a user operation on the ring image 50.
  • the image processing unit 14d performs the image processing selected by the image processing selection unit 14c on the captured image.
  • the digital camera 1 can display a ring image 50 for selecting image processing suitable for each shooting scene for each shooting scene. Therefore, the user can select desired image processing from image processing suitable for the shooting scene.
  • the image processing selection unit 14 c performs the first image processing “port” when the position selection unit 14 b selects the first position P 1 on the ring image 50 p for the shooting scene “person”. Select Rate.
  • the second image processing “monochrome” is selected.
  • both the first image processing “portrait” and the second image processing “monochrome” are selected.
  • the image processing unit 14d is configured such that the position selected by the position selection unit 14b is the first position P1.
  • the ratio of the first image processing “portrait” is increased and the ratio of the second image processing “monochrome” is decreased as the value is closer to.
  • the ratio of the second image processing “monochrome” is increased and the ratio of the first image processing “portrait” is decreased.
  • the digital camera 1 when the selection position (position of the cursor 52) by the position selection unit 14b moves from the first position P1 to the seventeenth position P17, the through image displayed on the display unit 17 is the first image.
  • the state smoothly changes from the state where the one image processing is performed to the state where the second image processing is performed.
  • the user only performs a simple operation of rotating the rotary multi selector 16c, and not only performs any one of the first image processing and the second image processing on the captured image, but also these two images. It is also possible to superimpose on the captured image by changing the processing ratio. Therefore, the digital camera 1 of the present embodiment simultaneously sets image processing (for example, image creation and image effect) that cannot be set at the same time because the setting menu is different in the conventional digital camera.
  • the digital camera 1 of the present embodiment moves the cursor 52 in one ring image 50. Since it only needs to be moved, the operation is easy for the user. Further, in the digital camera 1 of the present embodiment, since changes in image processing can be confirmed in real time on a through image, even a novice user can easily find and set his / her favorite image processing. Can do.
  • the image processing selection unit 14c when the position selection unit 14b selects the 0th position P0 adjacent to the first position P1 in the ring image 50p for the shooting scene “person”. None of the first to fourth image processing (“portrait”, “monochrome”, “high key”, “cross process (R)”) is selected. Therefore, the image processing unit 14d does not perform any of the first to fourth image processing on the captured image. The same applies to the ring image 50n for the shooting scene “close-up”, the ring image 50g for the shooting scene “landscape”, and the ring image 50s for the shooting scene “others”.
  • the digital camera 1 when the position selected by the position selection unit 14b (the position of the cursor 52) is the 0th position P0, none of the first image processing to the fourth image processing is performed.
  • the captured image of the state that is, the original image is displayed on the display unit 17.
  • the position of the cursor 52 moves from the 0th position P0 to the first position P1
  • the captured image displayed on the display unit 17 changes from the state of the original image to the state where only the first image processing is performed. Will do. This makes it easy for the user to understand that the change in image processing has started.
  • the ring image 50 p for the shooting scene “person” is an image displaying the ring 51 and the cursor 52.
  • the cursor 52 is moved by one rotation along the ring 51, the original image is returned to the first image processing through the first image processing, the second image processing, the third image processing, and the fourth image processing. It is easy for the user to intuitively understand the change in image processing that returns to the screen. Therefore, the user can intuitively set the image processing to be performed on the captured image by intuitively performing the rotation operation by the rotary multi selector 16c.
  • FIG. 8 is a flowchart for explaining the flow of processing when shooting a still image in the creative mode in the case of the first modification. Note that the process illustrated in FIG. 8 illustrates an example having a so-called touch shutter function in which a shutter is released in response to a touch operation on a through image.
  • the control unit 14 starts displaying a through image and starts a program for performing the process of FIG. 8 recorded in a memory (not shown) to execute the process of FIG. To start.
  • step S101 the display control unit 14a starts displaying the ring image 50 as in step S1 of FIG. 5 described above, and proceeds to step S102.
  • a display switching button 70 is displayed on the display unit 17 in addition to the ring image 50 and the cursor 52, as shown in FIG.
  • the display switching button 70 is a button for hiding the ring image 50.
  • step S102 the control unit 14 starts a scene determination process in the same manner as step S2 in FIG. 5 described above, and proceeds to step S103.
  • step S103 the control unit 14 determines whether or not a touch operation has been performed on the ring image 50 via the touch panel. When the touch operation on the ring image 50 is not performed, the control unit 14 makes a negative determination in step S103, repeats the process in step S103, and continues the scene determination process. On the other hand, when the rotary multi-selector 16c is rotated, the control unit 14 makes a positive determination in step S103 and proceeds to step S104.
  • step S104 the scene determination unit 14e stops the scene determination process, and determines the shooting scene determined when the ring image 50 is touched as a determination result of the shooting scene. Then, similarly to step S4 in FIG. 5 described above, the control unit 14 performs the first to fourth image processing settings and aperture control according to the determined shooting scene, and proceeds to step S105.
  • step S105 the control unit 14 performs a process of performing image processing on the captured image according to the position of the cursor 52 of the ring image 50 in the same manner as step S4 in FIG. 5 described above, and proceeds to step S106.
  • the control unit 14 moves the cursor 52 at a predetermined speed toward the position where the touch operation is performed on the ring 51, and at the position, the cursor 52 is moved. To stop. While the position of the cursor 52 is moving, the image processing applied to the captured image is continuously changed according to the position of the cursor 52.
  • step S106 the control unit 14 determines whether a touch operation on the display switching button 70 has been performed via the touch panel. If the touch operation on the display switching button 70 is not performed, the control unit 14 makes a negative determination in step S106 and returns to step S106. That is, the control unit 14 repeatedly performs image processing according to the position of the cursor 52 of the ring image 50 until the display switching button 70 is pressed. On the other hand, when a touch operation is performed on the display switching button 70, the control unit 14 makes a positive determination in step S106, and proceeds to step S107.
  • step S107 the image processing selection unit 14c determines the image processing set according to the position of the cursor 52 at the time when the display switching button 70 is touch-operated as the image processing to be performed on the still image. Then, the display control unit 14a hides the ring image 50 and proceeds to step S108.
  • step S108 the control unit 14 determines whether a touch operation on the live view image has been performed via the touch panel. When the touch operation on the live view image is not performed, the control unit 14 makes a negative determination in step S108 and repeats the process of step S108. On the other hand, when a touch operation is performed on the live view image, the control unit 14 makes a positive determination in step S108, and proceeds to step S109.
  • step S109 the control unit 14 performs an AF process so that the touched position is in focus, and the process proceeds to step S110.
  • step S110 the control unit 14 performs recording imaging processing in the same manner as in step S10 of FIG. 5 described above, and performs the image processing determined in step S107 on the obtained captured image data.
  • the still image data is recorded on the recording medium 18, and the process proceeds to step S111.
  • step S111 the control unit 14 starts displaying the through image and the ring image 50 again, and returns to step S105.
  • the example in which the ring image 50 is hidden by the display switching button 70 has been described.
  • a predetermined gesture operation for example, a touch operation that pays the ring image 50 is performed via the touch panel.
  • the ring image 50 may be hidden.
  • a gesture operation for drawing a circle on the through image is performed via the touch panel, the ring image 50 may be displayed.
  • the display switching button 70 may be provided in the digital camera 1 that moves the cursor 52 of the ring image 50 in accordance with the rotation operation of the rotary multi selector 16c.
  • the display switching button 70 When the visibility of the through image is poor by displaying the ring image 50, for example, when the ring image 50 overlaps the face area of the subject, the user operates the display switching button 70 to change the ring image 50. Control to hide.
  • the image processing to be performed on the captured image may be changed by rotating the rotary multi selector 16c while the ring image 50 is not displayed.
  • the digital camera 1 is provided with an inclination detection sensor (for example, an acceleration sensor) that detects the inclination of the casing of the digital camera 1, and the cursor 52 of the ring image 50 is moved in accordance with an action operation for tilting the digital camera 1. You may make it do.
  • the control unit 14 moves the cursor 52 clockwise when the user tilts the digital camera 1 so that the right side is down, and moves the cursor when the left side is down. 52 is moved counterclockwise.
  • the cursor 52 of the ring image 50 may be moved in accordance with an operation on the focus ring.
  • the focus ring functions not as an operation member that moves the focus lens but as an operation member that moves the cursor 52 of the ring image 50.
  • the control unit 14 moves the cursor 52 clockwise when the focus ring is rotated clockwise, and moves the cursor 52 counterclockwise when the focus ring is rotated counterclockwise. Move around.
  • the digital camera 1 may further be provided with a function for registering and recalling favorite image processing settings.
  • the control unit 14 displays an icon 80 written as “Favorite BOX” inside the ring 51 of the ring image 50.
  • the user performs a drag-and-drop operation for moving the cursor 52 to the icon 80 via the touch panel when the rotary multi-selector 16c is rotated to change the image processing applied to the captured image to desired image processing.
  • the control unit 14 registers the image processing set according to the position of the cursor 52 at that time as a favorite image processing setting, and stores the setting content in a memory (not shown).
  • the control unit 14 causes the “portrait” 75% and “monochrome” 25 % Is registered as a favorite image processing setting.
  • the control unit 14 calls the favorite image processing setting registered as described above from the memory, and according to the image processing setting.
  • the cursor 52 is displayed at the position, and image processing based on the image processing setting is performed on the captured image.
  • a plurality of favorite image processing settings may be registered.
  • the registered image processing setting may be called when the same shooting scene as the current shooting scene is used, or the registered image processing setting may be called regardless of whether or not it is the same as the current shooting scene. Good.
  • the contents registered as favorite image processing settings may be adjusted later.
  • Modification 6 In the digital camera 1, information indicating the content of the image processing set according to the current position of the cursor 52 (that is, applied to the captured image) is displayed on the display unit 17 so that the user can check the content of the image processing. May be displayed. For example, when an operation member (display button or the like) for switching the display is operated, the control unit 14 is currently set inside the ring 51 of the ring image 50 as shown in FIG. Text information 91 (for example, “saturation +10, contrast +5, portrait”, etc.) indicating the contents of the image processing is displayed. Further, as shown in FIG. 11B, the control unit 14 may display a radar chart 92 indicating the contents of the currently set image processing inside the ring 51 of the ring image 50.
  • Text information 91 for example, “saturation +10, contrast +5, portrait”, etc.
  • the radar chart 92 is a regular hexagonal radar chart, and shows numerical values for six items of saturation, contrast, brightness, hue, effect, and sharpness.
  • the image processing combination prepared in advance in the digital camera 1 is set in the ring image 50.
  • the user can create the image processing combination set in the ring image 50 by himself / herself. May be.
  • a combination of image processing created by the user for the ring image 50 is referred to as a user set.
  • the user may freely select a combination of four types of image processing to be set for the ring image 50.
  • the name shown may be freely editable.
  • image processing that can be set for the ring image 50 may be added to the digital camera 1 not only by the digital camera 1 but also by an application program.
  • the ratio when both the first image processing and the second image processing are performed may be freely edited.
  • user set information created by the user himself / herself may be made public on the Internet so that it can be exchanged with other users.
  • user set information created by another user may be downloaded to the digital camera 1 so that it can be selected as a user set to be set in the ring image 50 on a selection screen as shown in FIG. .
  • the digital camera 1 may be provided with a learning function so that the ratio of image processing applied to the captured image may be automatically changed.
  • the learning function can be switched between the ON state and the OFF state.
  • the control unit 14 may store a history of image processing used by the user in shooting in a memory (not shown), and set a high ratio of image processing frequently used. Good.
  • the control unit 14 controls the ring image according to the moving direction of the cursor 52 so that the order of changing the image processing applied to the captured image is the same regardless of whether the cursor 52 moves clockwise or counterclockwise.
  • the order of the four types of image processing set to 50 may be changed. For example, in the case of the shooting scene “person”, the order of “portrait”, “monochrome”, “high key”, and “cross process (R)” is set.
  • the control unit 14 performs the operations in the order of “portrait”, “monochrome”, “high key”, “cross process (R)”.
  • the 1st image processing to the 4th image processing are set for the ring image 50.
  • Modification 9 In the embodiment described above, an example has been described in which the display content of the ring image 50 is not changed even when the shooting scene changes and the contents of the first to fourth image processes set in the ring image 50 change.
  • the control unit 14 may change the color of the ring image 50 when the shooting scene changes and the contents of the first image processing to the fourth image processing set in the ring image 50 change. Further, the control unit 14 may display text indicating the contents of the first image processing to the fourth image processing set in the ring image 50 around the ring image 50.
  • the image processing to be performed on the captured image is selected from the four types of image processing (first image processing to fourth image processing) according to the movement of the cursor 52 of the ring image 50. did.
  • the number of image processing options applied to the captured image is not limited to this, and may be two or three, or may be five or more.
  • the example in which the cursor 52 is displayed as a mark indicating the position selected by the position selection unit 14b has been described.
  • the mark indicating the position selected by the position selection unit 14b is not limited to the cursor 52, and may be an icon, for example.
  • the scale color of the ring image 50 may be changed or blinked so as to function as a mark indicating the position selected by the position selection unit 14b.
  • FIG. 13 is a diagram showing this state.
  • the digital camera 1 is provided with a program via a recording medium 18 such as a memory card.
  • the digital camera 1 also has a connection function with the communication line 101.
  • a computer 102 is a server computer that provides the program, and stores the program in a recording medium such as the hard disk 103.
  • the communication line 101 is a communication line such as the Internet or personal computer communication, or a dedicated communication line.
  • the computer 102 reads the program using the hard disk 103 and transmits the program to the digital camera 1 via the communication line 101. That is, the program is transmitted as a data signal through the communication line 101 via a carrier wave.
  • the program can be supplied as a computer-readable computer program product in various forms such as a recording medium and a data signal (carrier wave).
  • FIG. 14 is a block diagram showing a configuration of a digital camera 1B according to the second embodiment.
  • FIG. 14 is described as another embodiment, although only a part of the configuration illustrated in FIG. 1 is different. Note that in FIG. 14, there is a code common to the code used in FIG.
  • the digital camera 1B includes an imaging optical system 11, an imaging element 12, a lens driving circuit 13, a control unit 14, an operation member 16, and a display unit 17.
  • a recording medium 18 such as a memory card can be attached to and detached from the digital camera 1B.
  • the imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the light receiving surface of the imaging element 12.
  • the imaging optical system 11 is shown as a single lens.
  • the lens driving circuit 13 drives the zoom lens of the imaging optical system 11 to adjust the focal length under the control of the control unit 14 and adjusts the focal length by driving the focusing lens of the imaging optical system 11.
  • the image pickup device 12 is an image sensor such as a CMOS image pickup device, for example, picks up a subject image formed by the image pickup optical system 11 and outputs the obtained image signal to the control unit 14.
  • CMOS image pickup device for example, picks up a subject image formed by the image pickup optical system 11 and outputs the obtained image signal to the control unit 14.
  • the control unit 14 includes a display control unit 14a, a position selection unit 14b, an image processing unit 14c, a parameter change unit 14d, and a process execution unit 14e.
  • the control unit 14 includes a CPU, a memory, and peripheral circuits thereof, and realizes the functions of these units by executing a control program stored in the memory. The contents of the function of each part will be described in detail later.
  • the operation member 16 includes a shutter button 16 a and a touch panel 16 b disposed on the display unit 17.
  • the touch panel 16 b detects a contact position where a contact object such as a touch pen or a finger comes into contact, and outputs the contact position to the control unit 14.
  • the operation member 16 includes a recording button, a mode switching button, a cross key, an OK button, a display button, and the like. The operation member 16 outputs an operation signal corresponding to the user operation to the control unit 14.
  • the display unit 17 includes a liquid crystal monitor (rear monitor) mounted on the back surface of the digital camera 1B, and displays a captured image captured by the image sensor 12, various setting menus, and the like.
  • a liquid crystal monitor rear monitor
  • the control unit 14 causes the image sensor 12 to perform through image capturing processing at a predetermined frame rate, and obtains the time series from the image sensor 12.
  • a frame image for display is generated from each frame image and output to the display unit 17. As a result, the through image is displayed on the display unit 17 in real time.
  • the control unit 14 causes the image sensor 12 to perform image processing for a still image, and the image signal acquired from the image sensor 12 is converted into an image signal.
  • predetermined image processing is performed to generate still image data
  • compression processing is performed by a predetermined method such as JPEG, and the recording is performed on the recording medium 18.
  • control unit 14 When the reproduction mode is set according to the operation signal from the operation member 16, the control unit 14 reads out and reproduces still image data or moving image data recorded on the recording medium 18 and displays it on the display unit 17. .
  • a creative mode is provided as a shooting mode in addition to the normal mode.
  • this creative mode will be described.
  • the display control unit 14 a of the control unit 14 displays an image 50 (hereinafter referred to as a ring image) 50 for changing image processing performed on the captured image on the display unit 17.
  • the ring image 50 includes a ring 51 and a cursor 52.
  • the cursor 52 indicates a position currently selected on the ring 51 by the position selection unit 14 b of the control unit 14.
  • the position selection unit 14b selects a selection position (display position of the cursor 52) according to a drag operation on the cursor 52 on the touch panel 16b (operation to move the finger while touching the display position of the cursor 52). ) Is moved along the ring 51.
  • the image processing unit 14c of the control unit 14 performs four image processes (hereinafter referred to as first image processing to fourth image processing) set in the ring image 50 in accordance with the selection position (that is, the display position of the cursor 52) by the position selection unit 14b.
  • One or two image processes are selected from (denoted as image processes).
  • the image processing unit 14 c performs the selected image processing on the through image displayed on the display unit 17.
  • 66 positions from the 0th position to the 65th position are set clockwise from the top point P0 of the ring 51, and a scale indicating the position is displayed on the inner side of the ring 51.
  • the top point P0 of the ring 51 is the 0th position, and the position P1 adjacent to the right is the first position.
  • a position P17 that is 90 degrees clockwise from the 0th position P0 is the 17th position.
  • 15 positions from the second position to the sixteenth position are set at equal intervals.
  • a position P33 that is 180 degrees away from the 0th position P0 is the 33rd position.
  • a position P49 that is 270 degrees clockwise from the 0th position P0 is the 49th position. Between the 33rd position P33 and the 49th position P49, 15 positions from the 34th position to the 48th position are set at equal intervals.
  • the position P65 adjacent to the left of the 0th position P0 is the 65th position. Between the 49th position P49 and the 65th position P65, 15 positions from the 50th position to the 64th position are set at equal intervals.
  • the image processing selected at each position of the cursor 52 is the same as that described with reference to FIG. 3 in the first embodiment.
  • a cursor 52 is displayed at the top point (0th position) P0 of the ring 51. That is, the position selection unit 14b selects the 0th position.
  • the image processing unit 14c does not perform the first image processing to the fourth image processing on the through image. Therefore, a through image in which none of the first image processing to the fourth image processing is performed, that is, the original image is displayed on the display unit 17.
  • the image processing unit 14c performs only the first image processing ( That is, the first image processing is performed on the captured image at a ratio of 100%. Therefore, when the cursor 52 moves clockwise from the 0th position P0 to the 1st position P1, the through image displayed on the display unit 17 changes from the state of the original image to the state where only the first image processing is performed. .
  • the image processing unit 14c performs the second image. Only the processing is performed on the captured image (that is, the second image processing is performed at a ratio of 100%). Therefore, when the cursor 52 moves clockwise from the first position P1 to the seventeenth position P17, the through image displayed on the display unit 17 is subjected to only the second image processing from the state where only the first image processing is performed. It changes to the state. At this time, the through image displayed on the display unit 17 gradually transitions from a state where only the first image processing is performed to a state where only the second image processing is performed in 16 stages.
  • image processing is performed while the cursor 52 is in any one of the second position to the sixteenth position (when the position selection unit 14b selects a position between the first position P1 and the seventeenth position P17).
  • the unit 14c performs both the first image processing and the second image processing on the captured image (that is, superimposes the first image processing and the second image processing on the captured image).
  • the image processing unit 14c changes the ratio between the first image processing and the second image processing in accordance with the position of the cursor 52 (that is, the selection position by the position selection unit 14b). Specifically, when the position of the cursor 52 moves in the direction toward the seventeenth position P17, the image processing unit 14c changes so as to decrease the ratio of the first image processing and increase the ratio of the second image processing. Let On the other hand, when the position of the cursor 52 moves in the direction toward the first position P1, the image processing unit 14c changes the first image processing ratio to be increased and the second image processing ratio to be decreased.
  • the image processing unit 14c applies the first image processing to the captured image at a ratio of 75% and the second image processing at a ratio of 25%. Further, when the cursor 52 is at the ninth position, the image processing unit 14c applies the first image processing to the captured image at a ratio of 50% and the second image processing at a ratio of 50%. Further, when the cursor 52 is at the thirteenth position, the image processing unit 14c applies the first image processing to the captured image at a ratio of 25% and the second image processing at a ratio of 75%.
  • the first image processing is performed at a ratio of 75%, for example, the degree of change in the captured image when only the first image processing is performed on the captured image (that is, when the first image processing is performed 100%). Is set to 100%, the first image processing is performed so that the captured image changes about 75% of the degree.
  • the image processing unit 14c performs only the third image processing. Applied to the captured image. Therefore, when the cursor 52 moves clockwise from the 17th position P17 to the 33rd position P33, the through image displayed on the display unit 17 is subjected to only the third image processing from the state where only the second image processing is performed. It changes to the state.
  • the through image displayed on the display unit 17 gradually transitions from a state where only the second image processing is performed to a state where only the third image processing is performed in 16 stages. That is, while the cursor 52 is from the 18th position to the 32nd position (that is, when the position selection unit 14b selects a position between the 17th position P17 and the 33rd position P33), the image processing unit 14c. Applies both the second image processing and the third image processing to the captured image. At this time, when the position of the cursor 52 moves in the direction from the 17th position P17 to the 33rd position P33, the image processing unit 14c decreases the ratio of the second image processing and increases the ratio of the third image processing. To change. On the other hand, when the position of the cursor 52 moves in the direction from the 33rd position P33 to the 17th position P17, the image processing unit 14c increases the second image processing ratio and decreases the third image processing ratio. To change.
  • the image processing unit 14c Only image processing is performed on the captured image. Therefore, when the cursor 52 is moved clockwise from the 33rd position P33 to the 49th position P49, the through image displayed on the display unit 17 is only the fourth image process from the state where only the third image process is performed. It changes to the state that has been subjected to.
  • the through image displayed on the display unit 17 is gradually changed in 16 stages from a state where only the third image processing is performed to a state where only the fourth image processing is performed. That is, while the cursor 52 is at the 34th position to the 48th position (when the position selection unit 14b selects a position between the 33rd position P33 and the 49th position P49), the image processing unit 14c Both the third image processing and the fourth image processing are performed on the captured image. At this time, when the position of the cursor 52 moves from the 33rd position P33 to the 49th position P49, the image processing unit 14c decreases the third image processing ratio and increases the fourth image processing ratio. To change. On the other hand, when the position of the cursor 52 moves in the direction from the 49th position P49 to the 33rd position P33, the image processing unit 14c increases the third image processing ratio and decreases the fourth image processing ratio. To change.
  • the image processing unit 14c performs only the first image processing. Applied to the captured image. Therefore, when the cursor 52 moves clockwise from the 49th position P49 to the 65th position P65, the through image displayed on the display unit 17 is subjected to only the first image processing from the state where only the fourth image processing is performed. It changes to the state.
  • the through image displayed on the display unit 17 gradually transitions from a state where only the fourth image processing is performed to a state where only the first image processing is performed in 16 stages. That is, while the cursor 52 is from the 50th position to the 64th position (when the position selection unit 14b selects a position between the 49th position P49 and the 65th position P65), the image processing unit 14c Both the fourth image processing and the first image processing are performed on the captured image. At this time, when the position of the cursor 52 moves in the direction from the 49th position P49 to the 65th position P65, the image processing unit 14c decreases the ratio of the fourth image processing and increases the ratio of the first image processing. To change. On the other hand, when the position of the cursor 52 moves in the direction from the 65th position P65 to the 49th position P49, the image processing unit 14c increases the fourth image processing ratio and decreases the first image processing ratio. To change.
  • the through image displayed on the display unit 17 returns from the state where only the first image processing is performed to the state of the original image.
  • the image processing applied to the captured image is changed from the original image to the first image processing, the second image processing, the third image processing, and the fourth. After being changed continuously in the order of image processing, the processing returns to the first image processing again and returns to the original image.
  • the cursor 52 rotates once counterclockwise
  • the image processing performed on the captured image changes in the reverse order to the case where the cursor 52 rotates once clockwise.
  • the cursor 52 does not necessarily have to make one rotation. For example, the cursor 52 can be rotated counterclockwise after a half turn clockwise to return the change in image processing.
  • image processing includes image processing by changing parameters such as saturation, contrast, white balance, etc., and for example, a filter is applied to blur or darken the periphery to make it look like a toy camera. It is assumed that a process for applying an image effect such as a process is included.
  • a scene discrimination process for discriminating a shooting scene is performed, and four image processes corresponding to the determined shooting scene are set in the ring image 50 as a first image process to a fourth image process. That is, the contents of the first image processing to the fourth image processing set for the ring image 50 differ depending on the photographic scene to be discriminated.
  • Shooting scenes to be distinguished include “portrait” which is a scene for shooting a person, “close-up” which is a scene for shooting close to the subject, “landscape” which is a scene for shooting landscape, “portrait”, There are four types of “others” which are scenes that are neither “close-up” nor “landscape”. Note that the type of shooting scene to be determined is an example, and various other shooting scenes may be determined. A known method is used as a method for determining a shooting scene.
  • the control unit 14 for example, information based on an image signal from the image sensor 12 (luminance, color balance (R / G ratio, B / G ratio, etc.)), camera setting information (focal length and photographing of the imaging optical system 11).
  • the shooting scene is determined based on the magnification.
  • the ring image 50p for the shooting scene “person” includes “portrait” as the first image processing, “monochrome” as the second image processing, “high key” as the third image processing, and “cross” as the fourth image processing.
  • Process (R) is set.
  • the ring image 50n for the shooting scene “close-up” includes “Vivid” as the first image processing, “High key” as the second image processing, “Toy camera” as the third image processing, and “Select color” as the fourth image processing. Is set.
  • the ring image 50g for the shooting scene “landscape” includes “cross process (B)” as the first image processing, “landscape” as the second image processing, “filter monochrome (sepia)” as the third image processing, and fourth. “Avant-garde” is set as the image processing.
  • the ring image 50 s for the shooting scene “others” includes “avant-garde” as the first image processing, “monochrome” as the second image processing, “toy camera” as the third image processing, and “cross process ( G) "is set.
  • FIG. 4 shows text indicating the shooting scene and the contents of the first image processing to the fourth image processing.
  • the text is not displayed on the display screen of the actual display unit 17, Only the ring 51 and the cursor 52 are displayed. That is, the ring images 50p, 50n, 50g, and 50s are displayed on the display screen of the display unit 17 as the same image (that is, with the same display contents) in any shooting scene.
  • “Portrait” is image processing for creating an image that makes a person's skin look beautiful.
  • “Monochrome” is image processing for creating a monochrome image only.
  • “High key” is image processing for creating an image with a bright entire screen and less shadow.
  • “Cross process (R)”, “Cross process (G)”, and “Cross process (B)” are the same as those in which cross process (a method of silver salt photography using a positive film to develop a negative). This is image processing for obtaining an image effect.
  • Cross process a method of silver salt photography using a positive film to develop a negative. This is image processing for obtaining an image effect.
  • Cross process a method of silver salt photography using a positive film to develop a negative
  • “Vivid” is image processing for creating a colorful image with enhanced contrast.
  • the “toy camera” is image processing for obtaining an image effect that is taken by a toy camera.
  • Select color is image processing for obtaining an image effect in which only a specific color is left and the others are changed to monochrome.
  • “Landscape” is image processing for creating an image suitable for a landscape such as nature or a cityscape.
  • “Filter monochrome (sepia)” is image processing for creating an image only in sepia shades.
  • “Avant-Garde” is image processing for creating a unique image with higher contrast and saturation than “Vivid”.
  • information on the combination of image processing set as the first image processing to the fourth image processing on the ring image 50 is stored in advance in a memory (not shown) in the digital camera 1B for each shooting scene. Based on the determination result, the first image processing to the fourth image processing are set to the ring image 50.
  • the display control unit 14a displays a dial image 60 as shown in FIG.
  • the dial image 60 includes a dial 61 on which numerical values “ ⁇ 3” to “+3” are displayed, and an arrow mark 62.
  • the parameter changing unit 14 d of the control unit 14 rotates the dial 61 in response to a drag operation on the dial 61 on the touch panel 16 b, and uses the numerical value closest to the arrow mark 62 on the dial 61 as the setting value of the dial image 60. .
  • the function of the dial image 60 is the shooting setting function of the digital camera 1B.
  • the shooting setting is, for example, brightness setting (that is, exposure setting) or focus position setting.
  • the process execution unit 14e of the control unit 14 executes an exposure setting process for setting the exposure of the captured image according to the setting value of the dial image 60. For example, when the set value is “0”, the process executing unit 14e sets the exposure setting of the captured image as the appropriate exposure. When the set value is plus (“+1”, “+2”, “+3”), the process execution unit 14e sets the exposure setting of the captured image to be overexposed than the appropriate exposure, and increases as the set value increases. Set. On the other hand, when the set value is negative (“ ⁇ 1”, “ ⁇ 2”, “ ⁇ 3”), the process execution unit 14e sets the exposure setting of the captured image to underexposure than the appropriate exposure, and the set value is small. It is set so that it becomes darker as the absolute value (that is, the absolute value is larger).
  • the processing execution unit 14e of the control unit 14 executes a focus position setting process for setting the focus position of the captured image according to the setting value of the dial image 60.
  • the process execution unit 14e sets the focus position so that the subject detected by the subject detection process is in focus, for example.
  • the set value is plus (“+1”, “+2”, “+3”)
  • the process execution unit 14e sets the focus position to the rear pin side compared to the case where the set value is “0”, and the set value is large. Set to be closer to the rear pin.
  • the set value is negative (“ ⁇ 1”, “ ⁇ 2”, “ ⁇ 3”)
  • the process execution unit 14e sets the focus position to the front pin side than when the set value is “0”. The larger the setting value, the more the front pin side is set.
  • the through image displayed on the display unit 17 is the original image.
  • the change is reflected in the original image displayed as a through image. Therefore, the user can change the shooting setting to a desired setting by operating the dial image 60 while confirming the result of the change with a through image.
  • the function of the dial image 60 is a function of switching the image processing set as the first image processing in the ring image 50.
  • the process execution unit 14e performs a process of changing the image process used as the first image process according to the setting value of the dial image 60. For example, when the shooting scene is determined to be “person”, in the ring image 50, the first image processing is set to “portrait”. In this case, when the set value is “0”, the process execution unit 14e sets “portrait” as the first image process (that is, does not change the image process used as the first image process).
  • the process execution unit 14e selects “Vivid” as the first image processing, and when the setting value is “+2”, selects “Toy camera” as the first image processing.
  • “select color” is set as the first image processing.
  • the process execution unit 14e selects “cross process (B)” as the first image process when the set value is “ ⁇ 1”, and “1” as the first image process when the set value is “ ⁇ 2”.
  • “Filter Monochrome (Sepia)” is selected and the setting value is “ ⁇ 3”
  • “Avant-Garde” is set as the first image processing. That is, when the set value is other than “0”, the process execution unit 14e changes the image process used as the first image process.
  • the function of the dial image 60 is the function of the image processing unit 14c. This is a function for changing the change method when the ratio of the first image processing and the second image processing is changed according to the position of 52.
  • the process execution unit 14e performs a process of changing a method of changing the ratio between the first image process and the second image process in accordance with the setting value of the dial image 60.
  • FIG. 18 is a diagram for explaining a change curve for changing the ratio of the first image processing and the second image processing.
  • three types of change curves K0, K +, K- are prepared.
  • the horizontal axis indicates the position on the ring image 50.
  • the upper side of the change curve indicates the ratio of the first image processing
  • the lower side of the change curve indicates the ratio of the second image processing.
  • the first image processing is 100% and the second image processing is 0% at the first position P1
  • the first image processing is 0% and the second image processing is 100% at the seventeenth position P17. is there.
  • the process execution unit 14e changes the ratio of the first image process and the second image process along the change curve K0.
  • the change curve K0 is a straight line. Therefore, in the change curve K0, when the cursor 52 moves from the first position P1 to the seventeenth position P17, the ratio of the first image processing changes linearly from 100% to 0%, and the ratio of the second image processing is It varies linearly from 0% to 100%. That is, the degree of change of the through image with respect to the moving distance of the cursor 52 is constant.
  • the process execution unit 14e changes the ratio between the first image process and the second image process along the change curve K +.
  • the change curve K + is a curve that swells upward in FIG. Therefore, in the change curve K +, when the cursor 52 moves from the first position P1 to the seventeenth position P17, the ratio of the first image processing is lower than that of the change curve K0 (that is, the ratio of the second image processing is higher). ) Is getting faster.
  • the processing execution unit 14e changes the ratio of the first image processing and the second image processing along the change curve K ⁇ .
  • the change curve K- is a curve that swells downward in FIG. Accordingly, in the change curve K ⁇ , when the cursor 52 moves from the first position P1 to the seventeenth position P17, the ratio of the first image processing is lower than that of the change curve K0 (that is, the ratio of the second image processing is higher). Is slow).
  • the user operates the dial image 60 to change the ratio between the first image processing and the second image processing. Can be adjusted as desired.
  • the function of the dial image 60 is a function of changing the image processing set as the second image processing in the ring image 50. That is, the process execution unit 14 e performs a process of changing the image process set as the second image process for the ring image 50 according to the setting value of the dial image 60.
  • the specific process is the same as that when the position of the cursor 52 is at the first position P1, and a description thereof will be omitted.
  • the function of the dial image 60 is that the image processing unit 14c performs the second image processing and the third image according to the position of the cursor 52.
  • This is a function for changing the way of changing the processing ratio. That is, the process execution unit 14e performs a process of changing the manner of changing the ratio between the second image process and the third image process in accordance with the set value of the dial image 60.
  • the specific processing is the same as that when the cursor 52 is in the second position to the sixteenth position, and the description thereof is omitted.
  • the function of the dial image 60 is a function for changing the image processing set as the third image processing in the ring image 50. That is, the process execution unit 14 e performs a process of changing the image process set as the third image process for the ring image 50 according to the setting value of the dial image 60.
  • the specific process is the same as that when the position of the cursor 52 is at the first position P1, and a description thereof will be omitted.
  • the function of the dial image 60 is that the image processing unit 14c performs the third image processing and the fourth image according to the position of the cursor 52.
  • This is a function for changing the way of changing the processing ratio. That is, the process execution unit 14e performs a process of changing the manner of changing the ratio between the third image process and the fourth image process in accordance with the set value of the dial image 60.
  • the specific processing is the same as that when the cursor 52 is in the second position to the sixteenth position, and the description thereof is omitted.
  • the function of the dial image 60 is a function of changing the image processing set as the fourth image processing in the ring image 50. That is, the process execution unit 14 e performs a process of changing the image process set as the fourth image process for the ring image 50 according to the setting value of the dial image 60.
  • the specific process is the same as that when the position of the cursor 52 is at the first position P1, and a description thereof will be omitted.
  • the function of the dial image 60 is that the image processing unit 14c performs the fourth image processing and the first image according to the position of the cursor 52.
  • This is a function for changing the way of changing the processing ratio. That is, the process execution unit 14e performs a process of changing the manner of changing the ratio between the fourth image process and the first image process in accordance with the setting value of the dial image 60.
  • the specific processing is the same as that when the cursor 52 is in the second position to the sixteenth position, and the description thereof is omitted.
  • the function of the dial image 60 is a function for changing the image processing set as the first image processing in the ring image 50. That is, the process execution unit 14e performs a process of changing the image process set as the first image process on the ring image 50 in accordance with the setting value of the dial image 60.
  • the specific process is the same as that when the position of the cursor 52 is at the first position P1, and a description thereof will be omitted.
  • the function of the dial image 60 differs depending on the position of the cursor 52 of the ring image 50, that is, the position selected by the position selection unit 14b.
  • the control unit 14 starts displaying the through image and starts a program for performing the processing of FIGS. 19 and 20 recorded in a memory (not shown) to perform the processing. Start.
  • step S1 the display control unit 14a starts displaying the ring image 50 and proceeds to step S2.
  • step S2 the control unit 14 starts a scene discrimination process for discriminating a shooting scene, and proceeds to step S3.
  • the scene discrimination process is repeated every predetermined time. Further, the control unit 14 repeatedly performs AF (Auto-Focus) processing in order to appropriately perform scene discrimination processing, and focuses on an arbitrary subject.
  • AF Auto-Focus
  • step S3 the control unit 14 determines whether or not a drag operation has been performed on the cursor 52 of the ring image 50 via the touch panel 16b. When the drag operation is not performed, the control unit 14 makes a negative determination in step S3, repeats the process of step S3, and continues the scene determination process. On the other hand, when the drag operation is performed, the control unit 14 makes a positive determination in step S3 and proceeds to step S4.
  • step S4 the control unit 14 stops the scene determination process and determines the shooting scene determined at the time when the drag operation is performed as the determination result of the shooting scene. Then, as described above with reference to FIG. 4, the control unit 14 sets the first image processing to the fourth image processing corresponding to the determined shooting scene to the ring image 50.
  • control unit 14 controls the aperture value of the imaging optical system 11 according to the shooting scene determined in step S4.
  • the optimum aperture value is associated with each photographing scene in advance and stored in a memory (not shown) in the digital camera 1B.
  • an open aperture value is associated with the photographic scene “person”
  • an aperture value F8 is associated with the photographic scene “landscape”.
  • the control unit 14 controls the aperture value of the imaging optical system 11 so that the aperture value is associated with the determined shooting scene. Thereafter, the control unit 14 performs exposure control (control of shutter speed, ISO sensitivity, etc.) in the aperture priority mode in the through image and still image imaging processing.
  • step S5 the control unit 14 performs a process of performing image processing on the captured image according to the position of the cursor 52 of the ring image 50.
  • the flow of this process will be described using the flowchart shown in FIG.
  • step S51 the position selection unit 14b moves the position of the cursor 52 (that is, the selection position) in response to the drag operation on the cursor 52 of the ring image 50, and proceeds to step S52.
  • step S52 the image processing unit 14c performs image processing on the captured image according to the position of the cursor 52 as described with reference to FIGS. 15 and 3 above, and proceeds to step S53.
  • step S53 the display control unit 14a displays the captured image subjected to image processing by the image processing unit 14c on the display unit 17 as a through image. Then, the control part 14 complete
  • step S6 the control unit 14 performs processing according to the set value of the dial image 60 as described above.
  • the flow of this process will be described using the flowchart shown in FIG.
  • step S61 the parameter changing unit 14d changes the setting value of the dial image 60 by rotating the dial 61 in accordance with the drag operation on the dial 61 of the dial image 60, and proceeds to step S62.
  • step S62 as described with reference to FIG. 17, the process execution unit 14e performs a process corresponding to the position of the cursor 52 on the ring image 50, that is, the position selected by the position selection unit 14b. Perform according to the set value. Then, the control part 14 complete
  • step S7 the control unit 14 determines whether or not the shutter button has been pressed halfway. If the shutter button has not been pressed halfway, the control unit 14 makes a negative determination in step S7 and returns to step S5. That is, the control unit 14 performs image processing according to the position of the cursor 52 of the ring image 50 (FIG. 21) and processing according to the set value of the dial image 60 (FIG. 22) until the shutter button is pressed halfway. Repeat. On the other hand, if the shutter button is half-pressed, the control unit 14 makes a positive determination in step S7 and proceeds to step S8.
  • step S8 the image processing unit 14c performs image processing that is set according to the position of the cursor 52 of the ring image 50 when the shutter button is half-pressed (that is, image processing that is performed on the captured image at that time). ) Is determined as the image processing to be performed on the still image. Then, the display control unit 14a hides the ring image 50 and the dial image 60, and proceeds to step S9.
  • step S9 the control unit 14 performs an AF process in an automatic mode switching AF mode that automatically switches between a single AF mode for fixing the focus position and a continuous AF mode for causing the moving subject to follow the focus, and the process proceeds to step S10. .
  • the automatic mode switching AF mode the subject is focused when the shutter button is half-pressed, and the focus position is temporarily fixed. Thereafter, when the subject starts to move and the distance between the digital camera 1B and the subject changes, the mode automatically switches to the continuous AF mode and continues to focus on the subject.
  • step S10 it is determined whether or not the shutter button has been fully pressed. If the shutter button has not been fully pressed, the control unit 14 makes a negative determination in step S10 and repeats the process of step S10. On the other hand, when the shutter button is fully pressed, the control unit 14 makes a positive determination in step S10 and proceeds to step S11.
  • step S11 the control unit 14 causes the image sensor 12 to perform an image capturing process for a still image.
  • the image processing unit 14c performs the image processing determined in step S8 on the captured image data obtained by the imaging processing.
  • the control part 14 records the picked-up image data in which the said image process was performed on the recording medium 18 as still image data, and progresses to step S12.
  • step S12 the control unit 14 restarts the display of the through image and the display of the ring image 50 and the dial image 60, and returns to step S5 of FIG. That is, even after the still image shooting is finished, the settings in step S4 are held for the first image processing to the fourth image processing set for the ring image 50. This is because when the first image processing to the fourth image processing set in the ring image 50 change every time a still image is taken, it becomes difficult for the user to understand.
  • the control unit 14 cancels (resets) the settings of the first image processing to the fourth image processing in the ring image 50. Further, the position selection unit 14b returns the position of the cursor 52 to the initial position (0th position) P0. Thereafter, the control unit 14 restarts the process shown in FIG. 19 from step S2.
  • the control unit 14 In the creative mode, when the shutter button is half-pressed without performing any drag operation on the cursor 52 of the ring image 50, the control unit 14 hides the ring image 50 and performs normal mode. The same processing is performed. That is, the control unit 14 performs AF processing in the automatic mode switching AF mode. Thereafter, when the shutter button is fully pressed, the control unit 14 causes the image sensor 12 to perform a still image capturing process, and records the obtained captured image data in the recording medium 18 as still image data. Thereafter, the control unit 14 returns to step S1 in FIG. 19 and starts processing.
  • the image processing unit 14c changes the image processing applied to the captured image according to the position of the cursor 52 of the ring image 50, that is, the selection position by the position selection unit 14b. Further, the display control unit 14a displays on the display unit 17 a dial image 60 that is different from the first image processing to the fourth image processing and for changing a predetermined processing parameter (setting value) for the captured image.
  • the parameter changing unit 14d changes the parameter (setting value) in response to a drag operation on the dial image 60.
  • the process execution unit 14e performs the predetermined process using the parameter (set value) changed by the parameter change unit 14d.
  • the predetermined processing is performed when the position selection unit 14b selects the 0th position P0, or any one of the first position P1, the 17th position P17, the 33rd position P33, the 49th position P49, and the 65th position P65. And the case where any one of the second position to the sixteenth position, the eighteenth position to the thirty-second position, the thirty-fourth position to the forty-eighth position, and the 50th position to the 64th position is selected Make it different.
  • the position selection unit 14b selects the 0th position P0, the predetermined process is the above-described shooting setting process.
  • the predetermined processing is performed by the ring image 50.
  • the image processing set as the first image processing to the fourth image processing is changed.
  • the predetermined process is a process for changing a change method in the ratio of two image processes to be performed on the captured image.
  • the content of the image processing performed on the captured image can be changed by a simple operation of moving the position of the cursor 52 of the ring image 50.
  • other settings (changes in shooting settings, changes in image processing set in the ring image 50, changes in the ratio of two image processes performed on the captured image, etc.) are also performed by operating the dial image 60. This can be done with a simple operation.
  • the dial image 60 functions in accordance with the position of the cursor 52 of the ring image 50, the user can perform various settings simply by operating the dial image 60. Therefore, as compared with the case where a large number of setting menus are provided or the setting menus are provided hierarchically, the digital camera 1B of the present embodiment only needs to operate the dial image 60. Various settings can be easily made without hesitation.
  • the digital camera displays an effect menu for selecting one or more of a plurality of prepared image effects or a slide menu for adjusting the effect level of the selected image effect on the live view image.
  • the digital camera reflects the image effect selected in the effect menu and the slide menu on the live view image.
  • the image effect level is set in the slide menu one level below, there is a problem that an operation for moving the level is required.
  • the image effect and the image effect level depending on the specifications of the digital camera, it may be set in another menu or cannot be set, so the user's operation becomes complicated or cannot be set. There is a problem.
  • the dial image 60 is displayed in addition to the ring image 50.
  • the digital camera 1B in response to an operation on the dial image 60, it is possible to change the shooting setting, change the image processing set for the ring image 50, and change the change in the ratio of image processing performed on the captured image. I made it. Thereby, in addition to the image processing applied to the captured image, other settings can be performed with a simple operation.
  • Image processing options that can be selected by operating the dial image 60 include image processing set as second to fourth image processing. Also good.
  • the processing execution unit 14e selects Alternatively, the image processing set as the first image processing and the second image processing may be interchanged.
  • the first image processing is set to “portrait” and the second image processing is set to “monochrome”.
  • the second image processing is set to “monochrome”.
  • the case where the cursor 52 of the ring image 50 is at the 17th position P17, the 33rd position P33, the 49th position P49, and the 65th position P65 may be the same as the case of the first position P1.
  • the second image processing can be changed to another image processing by operating the dial image 60, but “None” can be selected as one of the options. It may be.
  • the process execution unit 14e sets the second image process to “none” when the setting value of the dial image 60 is “+3”.
  • the image processing unit 14c causes the first image processing and the third image processing to be superimposed on the through image when the cursor 52 is in any one of the second position to the 32nd position.
  • the image processing unit 14c changes the first image processing ratio so as to decrease and the cursor 52 moves to increase the third image processing ratio.
  • the first image processing ratio is increased and the third image processing ratio is decreased.
  • “None” may be selected as one of the options in the dial image 60.
  • the process execution unit 14e changes the shape of the change curve so that the ratio of the first image process and the second image process at the position of the cursor 52 of the ring image 50 increases or decreases according to the setting value of the dial image 60.
  • the change curve has a linear shape when nothing is changed.
  • the dial image 60 is operated and the set value becomes a positive value while the cursor 52 of the ring image 50 is in any of the second position to the sixteenth position.
  • the process execution unit 14e changes the change so that the ratio of the first image processing is decreased by a predetermined value and the ratio of the second image processing is increased by a predetermined value compared to the case where the change curve has a linear shape at the current cursor 52 position. Change the shape of the curve.
  • the process execution unit 14e increases the change in the ratio as the set value increases.
  • the dial image 60 is operated and the set value becomes a negative value while the cursor 52 of the ring image 50 is in any one of the second position to the sixteenth position.
  • the process execution unit 14e changes the change so that the ratio of the first image processing increases by a predetermined value and the ratio of the second image processing decreases by a predetermined value compared to when the change curve has a linear shape at the current cursor 52 position. Change the shape of the curve. At this time, the process execution unit 14e increases the ratio change as the set value is smaller (absolute value is larger).
  • the case where the cursor 52 of the ring image 50 is at the 18th position to the 32nd position, the 34th position to the 48th position, and the 50th position to the 64th position is also the case of the above described second position to the 16th position. The same may be applied.
  • the function of the dial image 60 is to change the ratio between the first image processing and the second image processing.
  • the example which becomes a function which changes a way was demonstrated.
  • the function of the dial image 60 may be a function of finely adjusting the ratio between the first image processing and the second image processing executed by the image processing unit 14c according to the current position of the cursor 52.
  • the processing execution unit 14e performs the first image processing and the second image processing within the range of the ratio at the position adjacent to the position of the cursor 52 of the current ring image 50 according to the setting value of the dial image 60.
  • the process of finely adjusting the ratio of When the ratio between the first image processing and the second image processing changes in 16 steps from the first position P1 to the seventeenth position as in the above-described embodiment, for example, in the eighth position, “first image processing 56. “25%, second image processing 43.75%”, “first image processing 50%, second image processing 50%” at the ninth position, and “first image processing 43.75%, second image at the tenth position”. Processing 56.25% ".
  • the case where the cursor 52 of the ring image 50 is at the 18th position to the 32nd position, the 34th position to the 48th position, and the 50th position to the 64th position is also the case of the above described second position to the 16th position. The same may be applied.
  • the function of the dial image 60 is to change the ratio between the first image processing and the second image processing.
  • the example which becomes a function which changes a way was demonstrated.
  • the function of the dial image 60 may be a function for changing the level of the first image processing and the second image processing. In this case, two dials may be provided so that the level can be changed separately between the first image processing and the second image processing.
  • the processing execution unit 14e changes the level of the first image processing according to the dial setting value corresponding to the first image processing, and changes the first image processing level according to the dial setting value corresponding to the second image processing. 2 Change the level of image processing. For example, the level is increased as the dial setting value is increased, and the level is decreased as the dial setting value is decreased.
  • changing the level of the first image processing means changing the level of image processing set as the first image processing.
  • the level of the first image processing is the saturation level in the “Vivid” processing
  • the first image processing is set to “Toy camera”. If so, the level of the first image processing is the strength of the toy camera effect in the “toy camera” processing.
  • the case where the cursor 52 of the ring image 50 is at the 18th position to the 32nd position, the 34th position to the 48th position, and the 50th position to the 64th position is also the case of the above described second position to the 16th position. The same may be applied.
  • the case where the cursor 52 of the ring image 50 is at the 17th position P17, the 33rd position P33, the 49th position P49, and the 65th position P65 may be the same as the case of the first position P1 described above.
  • the image processing to be performed on the captured image is selected from the four types of image processing (first image processing to fourth image processing) according to the movement of the cursor 52 of the ring image 50. did.
  • the number of image processing options in the ring image 50 is not limited to this, and may be two or three, or may be five or more.
  • the example in which the 0th position P0 to the 65th position P65 can be selected in the ring image 50 has been described, but the number of selectable positions is not limited to this.
  • the dial image 60 the example in which any of “ ⁇ 3” to “+3” can be set has been described. However, the number of set values that can be set is not limited to this.
  • the dial image 60 is used as an image whose function changes according to the position of the cursor 52 of the ring image 50 has been described.
  • the shape is not limited to the dial shape, and may be, for example, a bar shape.
  • the dial 61 may be fixed and the arrow mark 62 may be moved.
  • Modification 14 In the embodiment described above, an example has been described in which the control unit 14 of the digital camera 1B executes the program recorded in a memory (not shown) to perform the above-described processes of FIGS.
  • This program may be recorded in advance at the time of product shipment, or may be provided through a recording medium such as a memory card or a data signal such as the Internet after the product shipment.
  • the program providing method for the digital camera 1B is the same as that in the case of FIG. However, the digital camera 1 in FIG. 13 is replaced with a digital camera 1B.
  • the program can be supplied as a computer-readable computer program product in various forms such as a recording medium and a data signal (carrier wave).
  • FIG. 23 is a block diagram showing a configuration of a digital camera 1C according to the third embodiment.
  • FIG. 23 is described as another embodiment, although only a part of the configuration illustrated in FIG. 1 is different.
  • FIG. 23 there is a code common to the code used in FIG. 1, but the description of this embodiment is applied.
  • the digital camera 1 ⁇ / b> C includes an imaging optical system 11, an imaging element 12, a lens driving circuit 13, a control unit 14, an operation member 16, and a display unit 17.
  • a recording medium 18 such as a memory card can be attached to and detached from the digital camera 1C.
  • the imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the light receiving surface of the imaging element 12.
  • the imaging optical system 11 is illustrated as a single lens.
  • the lens driving circuit 13 drives the zoom lens of the imaging optical system 11 to adjust the focal length under the control of the control unit 14 and adjusts the focal length by driving the focusing lens of the imaging optical system 11.
  • the image pickup device 12 is an image sensor such as a CMOS image pickup device, for example, picks up a subject image formed by the image pickup optical system 11 and outputs the obtained image signal to the control unit 14.
  • CMOS image pickup device for example, picks up a subject image formed by the image pickup optical system 11 and outputs the obtained image signal to the control unit 14.
  • the control unit 14 includes a display control unit 14a, a selection unit 14b, a parameter change unit 14c, an image processing unit 14d, and an operation detection unit 14e.
  • the control unit 14 includes a CPU, a memory, and peripheral circuits thereof, and realizes the functions of these units by executing a control program stored in the memory. The contents of the function of each part will be described in detail later.
  • the display unit 17 includes a liquid crystal monitor (rear monitor) mounted on the back of the digital camera 1 and displays a captured image captured by the image sensor 12 and various setting menus.
  • a liquid crystal monitor rear monitor
  • the operation member 16 includes a shutter button 16 a and a touch panel 16 b disposed on the display unit 17.
  • the touch panel 16 b detects a contact position where a finger or the like is touched, and outputs the contact position to the control unit 14.
  • the touch panel 16b of the present embodiment is a touch panel that supports so-called multi-touch. That is, the touch panel 16b can detect at least two contact positions simultaneously touched by a finger or the like on the display screen of the display unit 17.
  • the operation member 16 includes a recording button, a mode switching button, a cross key, an OK button, a display button, and the like.
  • the operation member 16 outputs an operation signal corresponding to the user operation to the control unit 14.
  • the operation detection unit 14e of the control unit 14 detects what operation has been performed on the operation member 16 in response to the operation signal.
  • the control unit 14 causes the image sensor 12 to perform through-image image capturing processing at a predetermined frame rate.
  • a frame image for display is generated from each frame image obtained in the above and is output to the display unit 17.
  • the through image is displayed on the display unit 17 in real time.
  • the control unit 14 When a shooting instruction is performed by pressing the shutter button, the control unit 14 causes the image sensor 12 to perform an image capturing process for recording, and a predetermined image is obtained with respect to the image signal acquired from the image sensor 12. Processing is performed to generate still image data, compression processing is performed by a predetermined method such as JPEG, and recording is performed on the recording medium 18.
  • a predetermined method such as JPEG
  • control unit 14 reads out and reproduces the still image data recorded on the recording medium 18 and displays it on the display unit 17.
  • a creative mode capable of obtaining a captured image subjected to various image processing is provided in addition to the normal mode.
  • this creative mode will be described.
  • the display control unit 14a of the control unit 14 displays an image (hereinafter referred to as a ring image) 50 for changing image processing parameters related to image processing applied to the captured image, as shown in FIG. Displayed on the unit 17.
  • the ring image 50 is an image that displays a circular ring 51 and a cursor 52.
  • the cursor 52 indicates a selection position by the selection unit 14b.
  • the operation detection unit 14e detects a drag operation (an operation of moving the finger while touching the display position of the cursor 52 after touching the display position of the cursor 52 with, for example, one finger).
  • the selection unit 14 b moves the selection position (display position of the cursor 52) along the ring 51 in accordance with the drag operation on the cursor 52 detected by the operation detection unit 14 e.
  • the parameter changing unit 14c of the control unit 14 changes the image processing parameters of the image processing applied to the captured image according to the movement of the display position of the cursor 52 (that is, the selection position of the selection unit 14b).
  • the image processing unit 14d of the control unit 14 performs image processing on the captured image based on the image processing parameters changed by the parameter changing unit 14c.
  • the display control unit 14a displays the captured image after the image processing by the image processing unit 14d on the display unit 17.
  • the image processing parameter indicates which image processing is performed at what ratio among the four image processing (hereinafter referred to as first image processing to fourth image processing) set for the ring image 50. It is a parameter which shows. Details of the first image processing to the fourth image processing will be described later.
  • the ring 51 of the ring image 50 includes a first ring portion 51a to a fourth ring portion 51d.
  • Each of the first ring portion 51a to the fourth ring portion 51d has an arc shape (1 ⁇ 4 circle shape) having a central angle of 90 degrees.
  • the first ring portion 51a is a portion from the top point (first position) P1 of the ring 51 to the second position P2 that is 90 degrees clockwise.
  • the second ring portion 51b is a portion from the second position P2 of the ring 51 to the third position P3 further 90 degrees clockwise.
  • the third ring portion 51c is a portion from the third position P3 of the ring 51 to a fourth position P4 that is further 90 degrees clockwise.
  • the fourth ring portion 51d is a portion of the ring 51 from the fourth position P4 to the first position P1.
  • the range of the first ring portion 51a to the fourth ring portion 51d is displayed by a line dividing the ring 51 into four.
  • image processing parameters set according to the position of the cursor 52 will be described with reference to FIG.
  • the image processing parameters can be changed step by step, and the number of steps that can be changed can be increased or decreased by a user operation.
  • the process of increasing / decreasing the number of stages at which the image processing parameter can be changed will be described later.
  • a first image processing parameter that is a parameter indicating a ratio between the first image processing and the second image processing can be changed.
  • the parameter change unit 14c changes the first image processing parameter according to the selection position.
  • the parameter changing unit 14c sets the first image processing parameter to “first image processing 100% (setting for performing only the first image processing)”.
  • the parameter changing unit 14c sets the first image processing parameter to “second image processing 100% (a setting for performing only the second image processing)”.
  • the parameter changing unit 14c changes the first image processing parameter from “first image processing 100%” to “second image processing 100%” in accordance with the movement of the cursor 52 from the first position P1 to the second position P2.
  • the first image processing parameter can be changed in 4 stages from “first image processing 100%” to “second image processing 100%”. Is done. That is, from “first image processing 100%” to “first image processing 75%, second image processing 25% (setting for performing the first image processing at a ratio of 75% and second image processing 25%)”, “ After passing through “first image processing 50%, second image processing 50%”, “first image processing 25%, second image processing 75%”, it is changed to “second image processing 100%”.
  • three points (denoted as A position, B position, and C position) are set such that the interval from the first position P1 to the second position P2 is divided into four.
  • the first image processing is performed at a ratio of 75%, for example, the degree of change in the captured image when only the first image processing is performed on the captured image (that is, when the first image processing is performed 100%).
  • the first image processing is performed so that the captured image changes about 75% of the degree.
  • the parameter changing unit 14c changes the first image processing parameter stepwise according to the position of the cursor 52 in the first ring portion 51a.
  • the captured image displayed on the display unit 17 is changed from the state where only the first image processing is performed to the second position. Transition to a state where only image processing is applied.
  • a second image processing parameter that is a parameter indicating a ratio between the second image processing and the third image processing can be changed.
  • the parameter change unit 14c changes the second image processing parameter according to the selection position.
  • the parameter changing unit 14c sets the second image processing parameter to “second image processing 100%”.
  • the parameter changing unit 14c sets the second image processing parameter to “third image processing 100%”.
  • the parameter changing unit 14c changes the second image processing parameter from “second image processing 100%” to “third image processing 100%” in accordance with the movement of the cursor 52 from the second position P2 to the third position P3.
  • a specific modification example is the same as that in the case of the first ring portion 51a described above, and a description thereof will be omitted.
  • the captured image displayed on the display unit 17 has undergone only the second image processing. The state gradually changes from the state to the state where only the third image processing is performed.
  • a third image processing parameter that is a parameter indicating a ratio between the third image processing and the fourth image processing can be changed.
  • the parameter change unit 14c changes the third image processing parameter according to the selection position.
  • the parameter changing unit 14c sets the third image processing parameter to “third image processing 100%”.
  • the parameter changing unit 14c sets the third image processing parameter to “fourth image processing 100%”.
  • the parameter changing unit 14c changes the third image processing parameter from “third image processing 100%” to “fourth image processing 100%” in accordance with the movement of the cursor 52 from the third position P3 to the fourth position P4.
  • a specific modification example is the same as that in the case of the first ring portion 51a described above, and a description thereof will be omitted.
  • the captured image displayed on the display unit 17 has undergone only the third image processing. The state gradually changes from the state to the state where only the fourth image processing is performed.
  • a fourth image processing parameter that is a parameter indicating a ratio between the fourth image processing and the first image processing can be changed.
  • the parameter changing unit 14c changes the fourth image processing parameter according to the selection position when the selection position (display position of the cursor 52) selected by the selection unit 14b is in the fourth ring portion 51d.
  • the parameter changing unit 14c sets the fourth image processing parameter to “fourth image processing 100%”.
  • the parameter changing unit 14c sets the fourth image processing parameter to “first image processing 100%”.
  • the parameter changing unit 14c changes the fourth image processing parameter from “fourth image processing 100%” to “first image processing 100%” in accordance with the movement of the cursor 52 from the fourth position P4 to the first position P1.
  • a specific modification example is the same as that in the case of the first ring portion 51a described above, and a description thereof will be omitted.
  • the fourth ring portion 51d as the cursor 52 moves clockwise from the fourth position P4 to the first position P1, the captured image displayed on the display unit 17 has undergone only the fourth image processing. The state gradually changes from the state to the state where only the first image processing is performed.
  • the image processing performed on the captured image is the first image processing, the second image processing, the third image processing, and the fourth image processing. Then, the process returns to the first image processing.
  • the image processing performed on the captured image changes in the reverse order to the case where the cursor 52 rotates once clockwise.
  • the cursor 52 does not necessarily have to make one rotation. For example, the cursor 52 can be rotated counterclockwise after a half turn clockwise to return the change in image processing.
  • the contents of the first image process to the fourth image process set in the ring image 50 are the same as those described in the second embodiment. For this reason, description of the details of the first image processing to the fourth image processing is omitted.
  • FIG. 26 is a diagram illustrating a combination of the first image processing to the fourth image processing according to the shooting scene.
  • the digital camera 1C for each shooting scene, four types of image processing suitable for each shooting scene are preset as first to fourth image processing.
  • the ring image 50p for the shooting scene “person” includes “portrait” as the first image processing, “monochrome” as the second image processing, “high key” as the third image processing, and “cross” as the fourth image processing.
  • Process (R) "is set.
  • the ring image 50n for the shooting scene “close-up” includes “Vivid” as the first image processing, “High key” as the second image processing, “Toy camera” as the third image processing, and “Select color” as the fourth image processing. Is set.
  • the ring image 50g for the shooting scene “landscape” includes “cross process (B)” as the first image processing, “landscape” as the second image processing, “filter monochrome (sepia)” as the third image processing, and fourth. “Avant-garde” is set as the image processing.
  • the ring image 50 s for the shooting scene “others” includes “avant-garde” as the first image processing, “monochrome” as the second image processing, “toy camera” as the third image processing, and “cross process ( G) "is set.
  • FIG. 26 for the sake of explanation, text indicating the shooting scene and the contents of the first image processing to the fourth image processing is shown.
  • the text is not displayed on the display screen of the actual display unit 17, and the ring Only 51 and the cursor 52 are displayed. That is, the ring images 50p, 50n, 50g, and 50s are displayed on the display screen of the display unit 17 as the same image (that is, with the same display contents) in any shooting scene.
  • “Portrait” is image processing for creating an image that makes a person's skin look beautiful.
  • “Monochrome” is image processing for creating a monochrome image only.
  • “High key” is image processing for creating an image with a bright entire screen and less shadow.
  • “Cross process (R)”, “Cross process (G)”, and “Cross process (B)” are the same as those in which cross process (a method of silver salt photography using a positive film to develop a negative). This is image processing for obtaining an image effect.
  • Cross process a method of silver salt photography using a positive film to develop a negative. This is image processing for obtaining an image effect.
  • Cross process a method of silver salt photography using a positive film to develop a negative
  • “Vivid” is image processing for creating a colorful image with enhanced contrast.
  • the “toy camera” is image processing for obtaining an image effect that is taken by a toy camera.
  • Select color is image processing for obtaining an image effect in which only a specific color is left and the others are changed to monochrome.
  • “Landscape” is image processing for creating an image suitable for a landscape such as nature or a cityscape.
  • “Filter monochrome (sepia)” is image processing for creating an image only in sepia shades.
  • “Avant-Garde” is image processing for creating a unique image with higher contrast and saturation than “Vivid”.
  • the display size of the ring image 50 can be changed and the number of stages in which image processing parameters can be changed in the ring image 50 can be increased or decreased. It is like that.
  • this point will be described with reference to FIG.
  • the operation detection unit 14e of the control unit 14 Based on the output signal of the touch panel 16b, the operation detection unit 14e of the control unit 14 detects an operation that reduces the interval between a plurality of contact positions detected simultaneously as a pinch-in operation, and widens the plurality of contact positions detected simultaneously. Detected operation is detected as a pinch-out operation.
  • the ring image 50 is not displayed on the display unit 17.
  • the display control unit 14a displays the ring image 50.
  • the display control unit 14a displays the ring image 50 in a predetermined first size.
  • the first size is smaller than the second size and the third size described later.
  • the display control unit 14a sets the number of steps at which the first to fourth image processing parameters can be changed in the first to fourth ring portions 51a to 51d to a predetermined lower limit. Value, for example, one stage.
  • the image processing parameters can be changed in four stages. In the ring image 50 displayed in the first size, simple adjustment (rough adjustment) can be performed on the first image processing parameter to the fourth image processing parameter.
  • the display control unit 14a sets the display size of the ring image 50 to be larger than the first size. Enlarge to a larger second size. At this time, the display control unit 14a increases the number of stages in which the first to fourth image processing parameters can be changed in the first to fourth ring portions 51a to 51d, respectively, to be, for example, four stages. . At this time, in the entire ring image 50, the image processing parameters can be changed in 16 stages. In the ring image 50 displayed in the second size, finer adjustments can be made for the first image processing parameter to the fourth image processing parameter than in the first size.
  • the display control unit 14a sets the display size of the ring image 50 to be larger than the second size. Enlarge to a large third size. At this time, the display control unit 14a increases the number of stages in which the first to fourth image processing parameters can be changed in the first to fourth ring portions 51a to 51d, respectively, compared to the case of the second size. For example, there are 16 stages. At this time, in the entire ring image 50, the image processing parameters can be changed in 64 stages. In the ring image 50 displayed in the third size, the first image processing parameter to the fourth image processing parameter can be adjusted more finely than in the second size.
  • the display control unit 14a displays the cursor 52 (that is, the selection unit 14b). Only the ring portion (first ring portion 51a in FIG. 27) is extracted and enlarged, and the other ring portions (second ring portion 51b to fourth ring portion 51d in FIG. 27) are not displayed. To. At this time, since the ring image 50 includes only the first ring portion 51a, the ring image 50 has a 1 ⁇ 4 circular shape. At this time, the display control unit 14a increases the number of stages in which the first image processing parameter can be changed in the enlarged first ring portion 51a, compared with the third size, for example, to 32 stages. Therefore, finer adjustments can be made for the first image processing parameter than for the third size.
  • the display control unit 14a displays the entire ring image 50 in the third size.
  • the number of stages at which the first to fourth image processing parameters can be changed in the first to fourth ring portions 51a to 51d is set to the above-described predetermined upper limit value (for example, 16 stages).
  • the display control unit 14a reduces the ring image 50 to the second size, In each of the first to fourth ring portions 51a to 51d, the number of stages at which the first to fourth image processing parameters can be changed is reduced to the predetermined number of stages (for example, four stages).
  • the display control unit 14a reduces the ring image 50 to the first size, In each of the first to fourth ring portions 51a to 51d, the number of steps at which the first to fourth image processing parameters can be changed is reduced to the predetermined lower limit value (for example, one step).
  • the display control unit 14a hides the ring image 50. To do.
  • the control unit 14 starts a through image display process and starts a program for performing the process shown in FIG. 28 recorded in a memory (not shown) to start the process. To do.
  • step S1 the operation detection unit 14e determines whether a pinch-out operation has been performed based on the output signal of the touch panel 16b. If the pinch-out operation has not been performed, the operation detection unit 14e makes a negative determination in step S1 and repeats the process of step S1, and if the pinch-out operation has been performed, makes an affirmative determination in step S1 and proceeds to step S2. .
  • step S2 the display control unit 14a displays the ring image 50 in the first size on the through image and proceeds to step S3. At this time, as described above, the control unit 14 performs the scene determination process and sets the first image process to the fourth image process corresponding to the determined shooting scene to the ring image 50.
  • step S3 the control unit 14 determines whether or not an operation for moving the cursor 52 of the ring image 50 (that is, a drag operation on the cursor 52) has been performed on the touch panel 16b.
  • the control unit 14 proceeds to step S4 when the operation is performed, and proceeds to step S5 when the operation is not performed.
  • step S4 the control unit 14 performs image processing according to the position of the cursor 52 of the ring image 50 as described above.
  • the flow of this processing will be described using the flowchart shown in FIG.
  • step S41 the selection unit 14b moves the selection position (display position of the cursor 52) in response to the drag operation on the cursor 52, and proceeds to step S42.
  • step S42 as described above, the parameter changing unit 14c changes the image processing parameter of the image processing applied to the captured image in accordance with the movement of the selection position (display position of the cursor 52), and the process proceeds to step S43.
  • step S43 the image processing unit 14d acquires a captured image from the image sensor 12, performs image processing on the acquired captured image based on the image processing parameter changed in step S42, and then proceeds to step S44.
  • step S44 the display control unit 14a displays the captured image after the image processing in step S43 as a through image on the display unit 17, ends the processing shown in FIG. 29, and proceeds to step S5 in FIG.
  • step S5 of FIG. 28 the operation detection unit 14e has performed an operation for changing the display size of the ring image 50 (that is, a pinch-in operation or a pinch-out operation on the ring image 50) on the touch panel 16b. Determine whether.
  • the operation detection unit 14e proceeds to step S6 when the operation is detected, and proceeds to step S7 when the operation is not detected.
  • step S6 the display control unit 14a performs a size changing process for changing the display size of the ring image 50 in accordance with a pinch-in operation or a pinch-out operation on the ring image 50.
  • the flow of the size changing process will be described with reference to the flowcharts shown in FIGS.
  • step S61 of FIG. 30 the display control unit 14a determines whether or not the size of the ring image 50 being displayed is the first size. If the size is the first size, the process proceeds to step S62, where the first size is displayed. If not, the process proceeds to step S65.
  • step S62 the display control unit 14a determines whether the operation detected by the operation detection unit 14e in step S5 is a pinch-in operation or a pinch-out operation. If the detected operation is a pinch-in operation, the display control unit 14a proceeds to step S63, hides the ring image 50, and ends the size changing process. On the other hand, if the detected operation is a pinch-out operation, the display control unit 14a proceeds to step S64, and the number of stages at which the ring image 50 can be enlarged to the second size and the first to fourth image processing parameters can be changed. Each is increased by a predetermined number, and the size changing process is terminated.
  • step S65 that proceeds when a negative determination is made in step S61, the display control unit 14a determines whether or not the size of the ring image 50 being displayed is the second size. If the size is the second size, step S66 is performed. If it is not the second size, the process proceeds to step S69 (FIG. 31).
  • step S66 the display control unit 14a determines whether the operation detected by the operation detection unit 14e in step S5 is a pinch-in operation or a pinch-out operation. If the detected operation is a pinch-in operation, the display control unit 14a proceeds to step S67, where the ring image 50 is reduced to the first size, and the number of stages at which the first to fourth image processing parameters can be changed is respectively determined. Decrease the number and end the resizing process. On the other hand, if the detected operation is a pinch-out operation, the display control unit 14a proceeds to step S68, expands the ring image 50 to the third size, and can change the first to fourth image processing parameters. Each is increased by a predetermined number, and the size changing process is terminated.
  • step S69 of FIG. 31 that proceeds when a negative determination is made in step S65, the display control unit 14a determines whether or not the size of the ring image 50 being displayed is the third size, and is the third size. Advances to step S70, and if it is not the third size, advances to step S73.
  • step S70 the display control unit 14a determines whether the operation detected by the operation detection unit 14e in step S5 is a pinch-in operation or a pinch-out operation. If the detected operation is a pinch-in operation, the display control unit 14a proceeds to step S71, where the number of stages at which the first to fourth image processing parameters can be changed by reducing the ring image 50 to the second size is determined. Decrease the number and end the resizing process. On the other hand, if the detected operation is a pinch-out operation, the display control unit 14a proceeds to step S72, extracts only the ring portion where the cursor 52 is displayed, and enlarges the image processing parameter in the enlarged ring portion. The number of steps that can be changed is increased, and the size changing process ends.
  • step S73 The case where a negative determination is made in step S69 and the process proceeds to step S73 is a case where the displayed ring image 50 has an enlarged shape (ie, a quarter circle shape) extracted from only one ring portion.
  • the display control unit 14a determines whether the operation detected by the operation detection unit 14e in step S5 is a pinch-in operation or a pinch-out operation. If the detected operation is a pinch-in operation, the display control unit 14a proceeds to step S74, returns to the state in which the ring image 50 is displayed in the third size, and ends the size changing process. On the other hand, when the detected operation is a pinch-out operation, the display control unit 14a ends the size change process. In other words, the display control unit 14a does not change the display size of the ring image 50 even if a pinch-out operation is performed in a state where the ring image 50 displays only one ring portion in an enlarged state. And
  • Step S7 the control unit 14 proceeds to Step S7 (FIG. 28).
  • step S7 the operation detection unit 14e determines whether or not a shooting instruction is given by the user (that is, whether the shutter button 16a is pressed). The operation detection unit 14e proceeds to step S8 when a photographing instruction is performed, and proceeds to step S9 when a photographing instruction is not performed.
  • step S8 the control unit 14 causes the imaging device 12 to perform an imaging process for recording.
  • the image processing unit 14d performs image processing based on the image processing parameters set in the ring image 50 at the time of the shooting instruction on the captured image data obtained by the imaging processing.
  • the control part 14 records the picked-up image data to which the said image process was performed on the recording medium 18 as still image data, and complete
  • step S9 the control unit 14 determines whether or not the ring image 50 is being displayed. If the ring image 50 is being displayed, the control unit 14 makes a positive determination in step S9 and returns to step S3. On the other hand, when the ring image 50 is not displayed by the process of step S6, the control unit 14 makes a negative determination in step S9 and returns to step S1.
  • the display control unit 14a includes a ring image 50 having a first ring portion 51a to a fourth ring portion 51d for changing the first image processing parameter to the fourth image processing parameter in stages. Is displayed.
  • the operation detection unit 14e detects an operation for reducing the ring image 50 (a pinch-in operation)
  • the display control unit 14a detects the first image processing parameter in each of the first ring portion 51a to the fourth ring portion 51d.
  • the fourth image processing parameter is displayed with a reduced number of steps that can be changed.
  • the display control unit 14a performs the first ring portion 51a to the fourth ring portion 51d in the first ring portion 51d.
  • the image processing parameter to the fourth image processing parameter are displayed by increasing the number of steps that can be changed.
  • the digital camera 1C can change the first image processing parameter to the fourth image processing parameter in the operation system (ring image 50) for changing the first image processing parameter to the fourth image processing parameter. Can be adjusted with a simple operation.
  • the display control unit 14a further detects a pinch-out operation by the operation detection unit 14e in a state where the number of stages where the first image processing parameter to the fourth image processing parameter can be changed reaches a predetermined upper limit value.
  • the digital camera 1 ⁇ / b> C the image processing parameter corresponding to the ring portion selected by the cursor 52 can be adjusted more finely.
  • the digital camera 1C can reduce the proportion of the ring image 50 in the display screen by hiding the remaining ring portion, compared with the case where the remaining ring portion is displayed. Can be used effectively.
  • the display control unit 14a detects an operation in a state where the number of stages where the image processing parameter can be changed is a predetermined lower limit (that is, a state where the ring image 50 is displayed in the first size).
  • a predetermined lower limit that is, a state where the ring image 50 is displayed in the first size.
  • the display control unit 14a displays the ring image 50 in the first size when the operation detection unit 14e detects a pinch-out operation when the ring image 50 is not displayed. To do. Accordingly, in the digital camera 1C, a series of operations of displaying and enlarging the ring image 50 can be performed simply by performing a pinch-out operation, and thus the operation is easy for the user.
  • the display control unit 14a increases the number of stages in which the first image processing parameter can be changed in the first ring portion 51a that has been changed to a circular shape, compared to the case of the third size.
  • the first image processing parameter is changed from “first image processing 100%”, for example, when the cursor 52 rotates clockwise from the vertex point of the ring image 50 once.
  • the second image processing is changed step by step to “100%”.
  • the display control unit 14a extracts and enlarges the ring portion where the cursor 52 is displayed when a pinch-out operation is performed on the ring image 50 displayed in the third size. explained. However, the display control unit 14a may, for example, extract and enlarge the ring portion corresponding to the position where the pinch-out operation has been performed.
  • the display control unit 14a has been described with respect to the example in which one ring portion is extracted and enlarged when a pinch-out operation is performed on the ring image 50 displayed in the third size. However, in this case, for example, when a plurality of ring portions are touched in a pinch-out operation, the display control unit 14a may extract and enlarge the plurality of touched ring portions.
  • the display control unit 14a extracts and enlarges both the fourth ring portion 51d and the first ring portion 51a and hides the other ring portions. Therefore, the ring image 50 is displayed in a semicircular shape. At this time, the display control unit 14a increases the number of stages in which the image processing parameter can be changed in both the extracted fourth ring portion 51d and the first ring portion 51a as compared with the third size.
  • the display control unit 14a expands the center angle of the first ring portion 51a on which the cursor 52 is displayed from a 1 ⁇ 4 circle shape (for example, a semicircular shape), and the like.
  • the three ring parts (second ring part 51b to fourth ring part 51d) are displayed with the center angle narrowed from a quarter circle shape (for example, as a circular arc shape with a center angle of 60 degrees divided into three semicircles). You may make it do.
  • the display control unit 14a increases the number of steps in which the first image processing parameter can be changed in the semicircular first ring portion 51a as compared with the third size, and in the other ring portions, the first ring portion 51a The number of steps at which the image processing parameter can be changed is reduced as compared with the third size.
  • the image processing parameter corresponding to the ring portion where the cursor 52 is displayed can be adjusted more finely, and the image processing corresponding to the other ring portion can be adjusted.
  • the parameter can also be adjusted roughly.
  • the electronic zoom and the display control of the ring image 50 are separated according to the number of fingers of these operations (the number of touch positions of the touch panel 16b) It may be. For example, when a pinch-in operation or a pinch-out operation is performed with two fingers, electronic zoom is performed, and when a pinch-in operation or a pinch-out operation is performed with three fingers, the display of the ring image 50 is controlled. To do.
  • the first image processing parameter may be a parameter indicating the intensity of the first image processing described above.
  • the first image processing parameter is changed so that the intensity of the first image processing increases stepwise.
  • FIG. 35 is a block diagram showing a configuration of a digital camera 1D according to the fourth embodiment.
  • FIG. 35 is described as another embodiment except for a part of the configuration illustrated in FIG. In FIG. 35, there are common reference numerals to those used in FIG. 1, but the description of this embodiment is applied.
  • the digital camera 1D includes an imaging optical system 11, an imaging element 12, a lens driving circuit 13, a control unit 14, an operation member 16, and a display unit 17.
  • a recording medium 18 such as a memory card can be attached to and detached from the digital camera 1D.
  • the imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the light receiving surface of the imaging element 12.
  • the imaging optical system 11 is illustrated as a single lens.
  • the lens driving circuit 13 drives the zoom lens of the imaging optical system 11 to adjust the focal length under the control of the control unit 14 and adjusts the focal length by driving the focusing lens of the imaging optical system 11.
  • the image pickup device 12 is an image sensor such as a CMOS image pickup device, for example, picks up a subject image formed by the image pickup optical system 11 and outputs the obtained image signal to the control unit 14.
  • CMOS image pickup device for example, picks up a subject image formed by the image pickup optical system 11 and outputs the obtained image signal to the control unit 14.
  • the control unit 14 includes a display control unit 14a, an image processing setting unit 14b, an image processing unit 14c, and a customization processing unit 14d.
  • the control unit 14 includes a CPU, a memory, and peripheral circuits thereof, and realizes the functions of these units by executing a control program stored in the memory. The contents of the function of each part will be described in detail later.
  • the operation member 16 includes a shutter button 16 a and a touch panel 16 b disposed on the display unit 17.
  • the touch panel 16 b detects a contact position where a finger or the like is touched, and outputs the contact position to the control unit 14.
  • the touch panel 16b of the present embodiment is a touch panel that supports so-called multi-touch. That is, the touch panel 16b can detect a plurality of contact positions simultaneously touched by a finger or the like on the display screen of the display unit 17.
  • the operation member 16 includes a recording button, a mode switching button, a cross key, an OK button, a display button, and the like. The operation member 16 outputs an operation signal corresponding to the user operation to the control unit 14.
  • the display unit 17 includes a liquid crystal monitor (rear monitor) mounted on the back surface of the digital camera 1D, and displays a captured image captured by the image sensor 12, various setting menus, and the like.
  • a liquid crystal monitor rear monitor
  • the control unit 14 causes the image sensor 12 to perform through image capturing processing at a predetermined frame rate, and obtains the time series from the image sensor 12.
  • a frame image for display is generated from each frame image and output to the display unit 17. As a result, the through image is displayed on the display unit 17 in real time.
  • the control unit 14 causes the image sensor 12 to perform image processing for a still image, and the image signal acquired from the image sensor 12 is converted into an image signal.
  • predetermined image processing is performed to generate still image data
  • compression processing is performed by a predetermined method such as JPEG, and the recording is performed on the recording medium 18.
  • control unit 14 reads out and reproduces the still image data recorded on the recording medium 18 and displays it on the display unit 17.
  • a creative mode is provided as a shooting mode in addition to the normal mode.
  • this creative mode will be described.
  • the process shown in FIG. 36 is repeatedly performed while the shooting mode is set to the creative mode.
  • the control unit 14 activates a program for performing the process of FIG. 36 recorded in the memory and starts the process.
  • step S1 the control unit 14 causes the imaging device 12 to capture a subject image in time series to acquire a captured image, and starts a process of displaying the captured image on the display unit 17 as a through image.
  • step S ⁇ b> 2 the display control unit 14 a of the control unit 14 performs processing for displaying the image 50 for setting image processing to be performed on the captured image on the through image on the display unit 17 as illustrated in FIG. 37.
  • the image 50 is an image that displays a ring, and is hereinafter referred to as a ring image 50. Further, the display control unit 14 a displays the cursor 51 on the ring of the ring image 50.
  • step S3 the control unit 14 determines whether or not a user operation for moving the cursor 51 has been performed based on an operation signal output from the touch panel 16b.
  • the operation of moving the cursor 51 is, for example, a drag operation on the cursor 51 (an operation of moving the finger while touching the cursor 51 with one finger, for example).
  • the control unit 14 proceeds to step S4 when the drag operation is performed on the cursor 51, and proceeds to step S8 when the drag operation is not performed on the cursor 51.
  • step S4 the display control unit 14a moves the cursor 51 along the ring of the ring image 50 in accordance with the drag operation.
  • step S5 the image processing setting unit 14b of the control unit 14 sets image processing to be performed on the captured image in accordance with the position of the cursor 51 with respect to the ring image 50. This will be described in detail later.
  • step S6 the image processing unit 14c of the control unit 14 performs the image processing set by the image processing setting unit 14b on the captured image.
  • step S7 the display control unit 14a displays the captured image after the image processing by the image processing unit 14c on the display unit 17 as a through image.
  • the contents of the image processing performed on the captured image can be changed by moving the cursor 51 on the ring image 50, and the captured image on which the image processing after the change has been performed is converted into a through image. Can be confirmed in real time.
  • step S8 the control unit 14 determines whether or not a shooting instruction has been given by the user (that is, whether or not the shutter button 16a has been pressed). The control unit 14 proceeds to step S9 when the photographing instruction is performed, and returns to step S3 when the photographing instruction is not performed.
  • step S9 the control unit 14 causes the imaging device 12 to perform an imaging process for recording.
  • the image processing unit 14c performs image processing corresponding to the position of the cursor 51 at the time of the shooting instruction on the captured image data obtained by the imaging processing. Then, the control unit 14 records the captured image data subjected to the image processing as still image data in the recording medium 18, and ends the processing illustrated in FIG.
  • the user moves the cursor 51 on the ring image 50 to set desired image processing, and then presses the shutter button 16a to record a still image subjected to desired image processing. Can be done.
  • image processing includes image processing by changing parameters such as saturation, contrast, white balance, etc., and for example, a filter is applied to blur or darken the periphery to make it look like a toy camera. It is assumed that a process for applying an image effect such as performing the
  • a setting area 52 for setting various image processes is set.
  • the setting area 52 can be customized by the user as desired (details will be described later).
  • four setting areas 52a to 52d are set in the ring image 50, as shown in FIG.
  • the setting area 52a to the setting area 52d are respectively set in a shape that divides the ring image 50 into four equal parts, that is, in an arc shape (1 ⁇ 4 circle shape) with a central angle of 90 degrees.
  • a setting area 52a, a setting area 52b, a setting area 52c, and a setting area 52d are set in the clockwise order from the vertex of the ring image 50.
  • the range from the setting area 52a to the setting area 52d is displayed by lines dividing the ring image 50.
  • the setting area 52a is set as an area for setting “portrait”.
  • the setting area 52b is set as an area for setting “monochrome”.
  • the setting area 52c is set as an area for setting the “high key”.
  • the setting area 52d is set as an area for setting “cross process”. In the ring image 50, in the setting area 52a to the setting area 52d, corresponding image processing names are displayed.
  • “portrait” is image processing for creating an image that clearly shows the skin of a person.
  • “Monochrome” is image processing for creating a monochrome image only.
  • “High key” is image processing for creating an image with a bright entire screen and less shadow.
  • “Cross process” is image processing for obtaining an image effect as if a cross process (a silver salt photography method using a positive film to develop a negative).
  • These image processes are, for example, image processes that each adjust a plurality of parameters such as edge enhancement, contrast, and brightness to achieve a desired image creation or image effect. For example, in “portrait”, contour enhancement, contrast, brightness, saturation, and hue are adjusted to create an image that makes a person's skin look beautiful.
  • the user designates image processing to be performed on the captured image by moving the cursor 51 into the setting area 52 corresponding to desired image processing.
  • the image processing setting unit 14b sets image processing corresponding to the setting area 52 where the cursor 51 is located as image processing to be performed on the captured image. For example, when the cursor 51 is in the setting area 52a, the image processing setting unit 14b sets “portrait” corresponding to the setting area 52a as image processing to be performed on the captured image.
  • image processing is set in the same manner as described above.
  • the image processing setting unit 14b sets image processing parameters for image processing performed on the captured image in accordance with the position of the cursor 51 in the setting area 52.
  • the image processing parameter is, for example, an effect level.
  • the image processing setting unit 14b sets the “portrait” effect level according to the position of the cursor 51 in the setting area 52a.
  • the image processing setting unit 14b sets the effect level larger as it is closer to the setting area 52b adjacent to the clockwise direction side, and the cursor 51 is set to the setting area 52d adjacent to the counterclockwise direction side. The closer to the side, the smaller the effect level.
  • the image processing setting unit 14b increases the effect level when the cursor 51 is moved clockwise in the setting area 52a, and decreases the effect level when the cursor 51 is moved counterclockwise.
  • the image processing setting unit 14b changes the “portrait” effect level stepwise between a minimum value and a maximum value in a predetermined number of steps according to the movement of the cursor 51 in the setting area 52a. It has become.
  • the image processing parameter effect level
  • the image processing setting unit 14b sets the type of image processing to be performed on the captured image and its image processing parameters in accordance with the position of the cursor 51 in the ring image 50.
  • the digital camera 1D is provided with a customization mode in which the ring image 50 can be customized.
  • the control unit 14 shifts to the customization mode.
  • a list display area 54 for displaying a list of image processes that can be set for the ring image 50 is provided on the right side of the ring image 50 as shown in FIG.
  • the display control unit 14 a displays a plurality of image processing icons 53 (53 a to 55 d) in which the names of image processing that can be set for the ring image 50 are displayed side by side in the list display area 54.
  • an image processing icon 53 for image processing different from the image processing in which the setting area 52 is already present in the ring image 50 is displayed.
  • “Vivid”, “Toy Camera”, “Landscape”, and “Avant-Garde” are displayed as the image processing icons 53a to 53d.
  • “Vivid” is image processing for creating a colorful image with enhanced contrast.
  • the “toy camera” is image processing for obtaining an image effect that is taken by a toy camera.
  • “Landscape” is image processing for creating an image suitable for a landscape such as nature or a cityscape.
  • “Avant-Garde” is image processing for creating a unique image with higher contrast and saturation than “Vivid”.
  • FIG. 38A four types of image processing are displayed, but the number of image processing that can be set for the ring image 50 is not limited to this.
  • the image processing icon 53 displayed in the list display area 54 is scrolled (that is, switched) when the user performs a flick operation (touching and playing with a finger) on the list display area 54. You may do it.
  • a setting area 52 for setting image processing can be added to or deleted from the ring image 50.
  • the image processing icon 53 corresponding to the desired image processing is displayed in the ring image 50 from the image processing icons 53 displayed in the list display area 54.
  • This drag-and-drop operation is, for example, moving the finger while touching the drag target (here, the image processing icon 53) with the finger on the touch panel 16b, and releasing the finger at the drop location (here in the ring image 50). It is an operation.
  • a drag-and-drop operation for moving the image processing icon 53a (“Vivid”) into the setting area 52a (“Portrait”) in the ring image 50 is performed.
  • the customization processing unit 14d of the control unit 14 detects the above operation via the touch panel 16b, as shown in FIG. 38B, the customization processing unit 14d is used for setting the image processing “Vivid” corresponding to the image processing icon 53a.
  • An area 52e is added to the ring image 50.
  • the setting area 52e is added to a position adjacent to the setting area 52a where the image processing icon 53a is dropped in the clockwise direction (between the setting area 52a and the setting area 52b in FIG. 38B). .
  • the setting area 52a to the setting area 52e are set in a shape that divides the ring image 50 into five equal parts, that is, in an arc shape with a central angle of 72 degrees. Further, the image processing icon 53a on which the drag and drop operation has been performed is not displayed.
  • the user designates the image processing corresponding to the image processing icon 53 as the image processing to be set in the ring image 50 by performing an operation of dragging and dropping the image processing icon 53 into the ring image 50.
  • the customization processing unit 14d is designated by the user operation in addition to the setting area 52 that has already been set in the ring image 50.
  • a setting area 52 for setting the image processing is newly added to the ring image 50.
  • the user when the user wants to delete the setting area 52 from the ring image 50, the user performs a drag-and-drop operation to move the setting area 52 to be deleted to the outside of the ring image 50.
  • a drag-and-drop operation For example, as shown in FIG. 39A, in a state where four setting areas 52 a to 52 d are set in the ring image 50, the setting area 52 d (“cross process”) is moved out of the ring image 50.
  • a drag-and-drop operation is performed.
  • the customization processing unit 14 d detects the above operation via the touch panel 16 b, the customization processing unit 14 d deletes the setting area 52 d (“cross process”) from the ring image 50 as illustrated in FIG. 39B.
  • the remaining setting area 52a to setting area 52c are changed to a shape that divides the ring image 50 into three equal parts, that is, an arc shape having a central angle of 120 degrees.
  • the user designates the setting area 52 to be deleted from the ring image 50 by performing an operation of dragging and dropping the setting area 52 outside the ring image 50.
  • the customization processing unit 14d deletes the setting area 52 specified by the user operation from the ring image 50.
  • each setting area 52 the number of stages of image processing parameters (effect levels) that can be set in the setting area 52 is increased or decreased according to a change in the size of the setting area 52 (change in the center angle).
  • the larger the size of the setting area 52 is the more the number of stages of image processing parameters (effect levels) that can be set is.
  • the size of each setting area 52 is reduced by the addition of one setting area 52.
  • the number of image processing parameter steps that can be set is reduced.
  • the size of each setting area 52 increases as one setting area 52 is deleted.
  • the number of image processing parameter levels that can be set is increased.
  • the control unit 14 ends the customization mode and deletes the list display area 54 from the display screen. Thereafter, using the ring image 50 customized in the customization mode, the image processing to be performed on the captured image can be set as described above.
  • the customization processing unit 14d starts a program for performing the processing shown in FIG. 40 recorded in the memory and starts the processing.
  • step S ⁇ b> 11 the display control unit 14 a displays a plurality of image processing icons 53 in which the names of image processes that can be set for the ring image 50 are displayed in the list display area 54 provided on the right side of the ring image 50.
  • step S12 the customization processing unit 14d determines whether an operation of dragging and dropping the image processing icon 53 in the list display area 54 into the ring image 50 has been performed.
  • the customization processing unit 14d proceeds to step S13 when the above operation is performed, and proceeds to step S14 when the above operation is not performed.
  • step S13 the customization processing unit 14d adds, to the ring image 50, the setting area 52 for setting the image processing corresponding to the image processing icon 53 on which the above operation has been performed, as described above.
  • step S14 the customization processing unit 14d determines whether or not an operation for dragging and dropping the setting area 52 in the ring image 50 to the outside of the ring image 50 has been performed.
  • the customization processing unit 14d proceeds to step S15 when the above operation is performed, and proceeds to step S16 when the above operation is not performed.
  • step S15 the customization processing unit 14d deletes the setting area 52 in which the above operation has been performed from the ring image 50 as described above.
  • step S16 the customization processing unit 14d determines whether the end of the customization mode is instructed. If the end of the customization mode is not instructed, the customization processing unit 14d returns to step S12. If the end of the customization mode is instructed, the customization processing unit 14d ends the process of FIG. 40 and ends the customization mode.
  • the display control unit 14a causes the display unit 17 to display a setting image (ring image 50) in which a setting region 52 for setting image processing is set.
  • a setting image ring image 50
  • the image processing unit 14c performs image processing corresponding to the designated setting region 52 on the captured image.
  • the customization processing unit 14d is used for setting for setting the designated image processing.
  • the area 52 is set in the ring image 50.
  • the ring image 50 for setting the image processing can be customized according to the user operation. Therefore, the ring image 50 can be easily used for each individual user.
  • the display control unit 14a causes the display unit 17 to display a plurality of image processing icons 53 corresponding to each of the plurality of image processes.
  • the customization processing unit 14 d sets a setting area 52 for setting image processing corresponding to the image processing icon 53 to the ring image 50.
  • the customization processing unit 14d deletes the setting area 52.
  • one image process or two image processes can be set in one setting area 52.
  • one image process is set in one setting area 52 and the image process of the image process is performed as in the fourth embodiment.
  • a parameter effect level
  • two image processes are set in one setting area 52, two image processes are set in the setting area 52, and image processing parameters of the two image processes (two Image processing ratio) is set.
  • the setting area 52 of the ring image 50 can be customized by the user as desired (details will be described later).
  • four setting areas 52f to 52i are set in the ring image 50.
  • the setting area 52f to the setting area 52i are each set in a shape that divides the ring image 50 into four equal parts, that is, in an arc shape (1 ⁇ 4 circle shape) with a central angle of 90 degrees.
  • a setting area 52f, a setting area 52g, a setting area 52h, and a setting area 52i are set in the clockwise order from the vertex of the ring image 50.
  • the range from the setting area 52f to the setting area 52i is displayed by lines dividing the ring image 50.
  • the setting area 52f is set as an area for setting “portrait” and “monochrome”.
  • the setting area 52g is set as an area for setting “monochrome” and “high key”.
  • the setting area 52h is set as an area for setting “high key” and “cross process”.
  • the setting area 52i is set as an area for setting “cross process” and “portrait”.
  • the names of the corresponding image processes are displayed.
  • the user designates image processing to be performed on the captured image by moving the cursor 51 into a desired setting area 52.
  • the image processing setting unit 14b sets image processing corresponding to the setting area 52 where the cursor 51 is located as image processing to be performed on the captured image. For example, when the cursor 51 is in the setting area 52f, the image processing setting unit 14b performs two image processes of “portrait” and “monochrome” corresponding to the setting area 52f on the captured image. Set as image processing to be performed.
  • image processing is set in the same manner as described above.
  • the image processing setting unit 14b sets image processing parameters for image processing performed on the captured image in accordance with the position of the cursor 51 in the setting area 52.
  • a ratio of two image processes is set as an image process parameter. For example, when the cursor 51 is in the setting area 52f, the image processing setting unit 14b sets the ratio of “portrait” and “monochrome” according to the position of the cursor 51 in the setting area 52f. . In the setting area 52f, the image processing setting unit 14b decreases the “portrait” ratio and increases the “monochrome” ratio as the cursor 51 is closer to the setting area 52g adjacent in the clockwise direction.
  • the image processing setting unit 14b increases the “portrait” ratio and increases the “monochrome” ratio as the cursor 51 is closer to the setting area 52i adjacent in the counterclockwise direction. make low. That is, when the cursor 51 is moved clockwise in the setting area 52f, the image processing setting unit 14b decreases the “portrait” ratio and increases the “monochrome” ratio. On the other hand, the image processing setting unit 14b increases the “portrait” ratio and decreases the “monochrome” ratio when the cursor 51 is moved counterclockwise in the setting area 52f. In addition, in order to make it easy for the user to intuitively understand that such processing is performed, a “portrait” character is displayed in the counterclockwise direction side in the setting area 52f, and the clockwise direction side is displayed. “Monochrome” is displayed.
  • the image processing setting unit 14b changes the ratio of “portrait” and “monochrome” step by step with a predetermined number of steps according to the movement of the cursor 51 in the setting area 52f. For example, when the cursor 51 is moved clockwise, the setting is performed from “portrait 100%” to “portrait 75%, monochrome 25% (“ portrait ”75%,“ monochrome ”25%). ) ”,“ Portrait 50%, Monochrome 50% ”,“ Portrait 25%, Monochrome 75% ”, and then the setting is changed to“ Monochrome 100% ”.
  • “Portrait 75%, Monochrome 25%”, “Portrait 50%, Monochrome 50%”, and “Portrait 25%, Monochrome 75%” perform both “Portrait” and “Monochrome” ( That is, “Portrait” and “Monochrome” are overlapped).
  • “portrait” performed at a ratio of 75% means, for example, the degree of change in the captured image when only “portrait” is applied to the captured image (that is, when “portrait” is applied 100%) “Portrait” is applied so that the picked-up image changes about 75% of the degree.
  • the image processing setting unit 14b sets the ratio of the two image processing “portraits” and “monochrome” in accordance with the position of the cursor 51 in the setting area 52f.
  • the image processing unit 14c superimposes these two image processes on the captured image at the ratio set by the image processing setting unit 14b.
  • the captured image displayed on the display unit 17 is changed from “portrait” only to “monochrome”. It gradually shifts to the applied state.
  • a customization mode capable of customizing the ring image 50 is provided.
  • the control unit 14 shifts to the customization mode.
  • a list display area 54 is provided on the right side of the ring image 50 as shown in FIG.
  • the display control unit 14a displays a plurality of image processing icons 53 (53a to 55d) on which image processing names that can be set for the ring image 50 are displayed in the list display area 54 in a vertical line.
  • “Vivid”, “Toy Camera”, “Landscape”, and “Avant-Garde” are displayed as the image processing icons 53a to 53d.
  • a setting area 52 for setting image processing can be added to or deleted from the ring image 50.
  • the image processing icon 53 corresponding to the desired image processing is selected from the image processing icons 53 displayed in the list display area 54.
  • a drag and drop operation for moving into the image 50 is performed.
  • a drag-and-drop operation for moving the image processing icon 53a (“Vivid”) into the setting area 52f (“Portrait” and “Monochrome”) in the ring image 50 is performed.
  • the customization processing unit 14d detects the above-described operation via the touch panel 16b, the customization processing unit 14d rings a setting area 52j for setting the image processing “Vivid” corresponding to the image processing icon 53a as illustrated in FIG. Add to image 50.
  • the setting area 52f to the setting area 52j are set to a shape that divides the ring image 50 into five equal parts, that is, an arc shape having a central angle of 72 degrees. Further, the setting area 52j is added to a position adjacent to the setting area 52f where the image processing icon 53a is dropped in the clockwise direction (between the setting area 52f and the setting area 52g in FIG. 42B). Is done.
  • the user when the user wants to set another image process in the setting area 52j, the user performs a drag-and-drop operation to move the image processing icon 53 corresponding to the image process to be set into the setting area 52j.
  • a drag-and-drop operation for moving the image processing icon 53b (“toy camera”) into the setting area 52j (“Vivid”) is performed.
  • the customization processing unit 14d detects the above operation via the touch panel 16b, the image processing “toy camera” corresponding to the image processing icon 53b is additionally set in the setting area 52j as shown in FIG. 43 (b). To do.
  • the customization processing unit 14d changes the setting area 52j to a setting area for setting both “Vivid” and “Toy camera”.
  • the setting area 52j for example, the characters “Vivid” are displayed on the counterclockwise direction side, and the characters “Toy Camera” are displayed on the clockwise direction side. Accordingly, when the cursor 51 is moved counterclockwise in the setting area 52j, the ratio of “Vivid” is high and the ratio of “Toy camera” is low. When the cursor 51 is moved clockwise, the ratio of “Toy camera” is increased. It is set so that the ratio of “Vivid” is high and low.
  • both the setting areas 52f to 52i in which two image processes are set and the setting area 52j in which only one image process is set are included in the ring image 50.
  • a drag-and-drop operation for moving to any one of the setting area 52f to the setting area 52i is performed. For example, assume that five setting areas 52f to 52j are set in the ring image 50 as shown in FIG.
  • the customization processing unit 14d detects the above operation via the touch panel 16b, the customization processing unit 14d displays a setting area 52k for setting the image processing “toy camera” corresponding to the image processing icon 53b as shown in FIG. It adds to the ring image 50.
  • the setting area 52f to the setting area 52k are set to a shape that divides the ring image 50 into six equal parts, that is, an arc shape having a central angle of 60 degrees.
  • the setting area 52k is added to a position adjacent to the setting area 52h where the image processing icon 53b is dropped in the clockwise direction (between the setting area 52h and the setting area 52i in FIG. 44B). Is done.
  • the customization processing unit 14d performs the image processing icon 53. Is added to the ring image 50.
  • the customization processing unit 14d already sets the setting area 52 to the setting area 52. The setting is changed to a setting area 52 for setting both the set image processing and the image processing corresponding to the image processing icon 53.
  • the customization processing unit 14d detects the operation via the touch panel 16b, the customization processing unit 14d deletes the setting area 52 where the operation is performed from the ring image 50.
  • each setting area 52 can be set in the setting area 52 in accordance with a change in the size of the setting area 52 (change in the central angle).
  • the number of stages of image processing parameters is increased or decreased.
  • a flow of processing executed by the control unit 14 in the customization mode described above will be described with reference to a flowchart shown in FIG.
  • the customization processing unit 14d starts a program for performing the processing shown in FIG. 45 recorded in the memory and starts the processing.
  • step S21 the display control unit 14a displays a plurality of image processing icons 53 in which the names of image processes that can be set for the ring image 50 are displayed in the list display area 54 provided on the right side of the ring image 50.
  • step S22 the customization processing unit 14d determines whether or not an operation of dragging and dropping the image processing icon 53 in the list display area 54 into the ring image 50 has been performed.
  • the customization processing unit 14d proceeds to step S23 when the above operation is performed, and proceeds to step S26 when the above operation is not performed.
  • step S23 the customization processing unit 14d determines the number of image processes set in the setting destination area 52 of the image processing icon 53. If one image process is set in the destination setting area 52 of the image processing icon 53, the customization processing unit 14d proceeds to step S24. On the other hand, if two image processes are set in the destination setting area 52 of the image processing icon 53, the customization processing unit 14d proceeds to step S25.
  • step S24 the customization processing unit 14d additionally sets the image processing corresponding to the image processing icon 53 in the setting destination area 52 of the image processing icon 53 as described above. That is, the customization processing unit 14 d sets the destination setting area 52 as a setting area 52 for setting both the already set image processing and the image processing corresponding to the image processing icon 53. change.
  • step S25 the customization processing unit 14d adds the setting area 52 for setting the image processing corresponding to the moved image processing icon 53 to the ring image 50 as described above.
  • step S26 the customization processing unit 14d determines whether or not an operation of dragging and dropping the setting area 52 in the ring image 50 to the outside of the ring image 50 has been performed.
  • the customization processing unit 14d proceeds to step S27 when the above operation is performed, and proceeds to step S28 when the above operation is not performed.
  • step S27 the customization processing unit 14d deletes the setting area 52 in which the above operation has been performed from the ring image 50 as described above.
  • step S28 the customization processing unit 14d determines whether the end of the customization mode is instructed. If the end of the customization mode is not instructed, the customization processing unit 14d returns to step S22, and if the end of the customization mode is instructed, the customization processing unit 14d ends the process of FIG. 45 and ends the customization mode.
  • the customization processing unit 14 d accepts an operation of simultaneously pressing and holding arbitrary positions in two different setting areas 52 as an operation of combining these two setting areas 52.
  • the long press operation is an operation in which a finger or the like is continuously in contact with an arbitrary position on the touch panel 16b for a predetermined time or more.
  • a setting area 52j in which one image process (“Vivid”) is set and one image process (“Toy Camera”) are set in the ring image 50. It is assumed that the setting area 52k is set. In addition, it is assumed that four setting areas 52f to 52i are set in the ring image 50. In this state, it is assumed that the user simultaneously presses and holds an arbitrary position in the setting area 52j and an arbitrary position in the setting area 52k with two different fingers.
  • the customization processing unit 14d detects the above operation via the touch panel 16b, as illustrated in FIG. 46B, the customization processing unit 14d combines the setting area 52j and the setting area 52k, and performs image processing corresponding to the setting area 52j.
  • a setting area 52l for setting two of “Vivid” and image processing “toy camera” corresponding to the setting area 52k is set. That is, the customization processing unit 14d deletes the setting area 52j and the setting area 52k, and adds a new setting area 52l at the position where the setting area 52j is placed instead.
  • the customization processing unit 14d may perform display such that the image processing icon 53 is flipped from the destination setting area 52. By doing so, it is possible to notify the user that the image processing corresponding to the image processing icon 53 cannot be added to the setting area 52 of the movement destination.
  • image processing information that cannot be superimposed on the captured image may be stored in a memory (not shown) in advance, and the customization processing unit 14d may refer to the information stored in the memory.
  • the customization processing unit 14d sets the image processing icon 53 corresponding to the first image processing (for example, “toy camera”) and the setting area 52 for setting the second image processing (for example, “Vivid”).
  • the setting area 52 is changed to a setting area 52 for setting both the first image processing and the second image processing.
  • the customization processing unit 14d uses the image processing icon 53 corresponding to the third image processing (for example, “landscape”) as the first image processing (for example, “toy camera”) and the second image processing (for example, “vivid”).
  • the setting area 52 for setting the third image processing is added to the ring image 50 in addition to the setting area 52. Add to Thus, in the digital camera 1D, the ring image 50 can be easily customized using a drag and drop operation.
  • the image processing icon 53 for image processing that already has the setting area 52 in the ring image 50 may be displayed in the list display area 54. Then, a drag-and-drop operation for moving the image processing icon 53 of the same image processing as the image processing corresponding to the setting area 52 to the setting area 52 in the ring image 50 may be performed.
  • the customization processing unit 14 d accepts the above operation as an instruction to change how to change the image processing parameter that can be set in the setting area 52.
  • the setting area 52f is an area for setting “portrait” and “monochrome”.
  • the ratio of “portrait” and “monochrome” performed on the captured image can be set as an image processing parameter.
  • an image processing icon 53 i corresponding to “portrait” and an image processing icon 53 j corresponding to “monochrome” are displayed in the list display area 54.
  • FIG. 48 is a diagram for explaining change curves of these ratios when the ratios of “portrait” and “monochrome” are set according to the position of the cursor 51 in the setting area 52f.
  • the horizontal axis indicates the position of the cursor 51 in the setting area 52f.
  • the direction from left to right corresponds to the clockwise direction in the ring image 50.
  • the “portrait” ratio is shown on the upper side of the change curve
  • the “monochrome” ratio is shown on the lower side of the change curve.
  • “portrait” is 100% and “monochrome” is 0% at the left end position
  • “portrait” is 0% and “monochrome” is 100% at the right end position.
  • the image processing setting unit 14b changes the ratio of “portrait” and “monochrome” along the change curve K0.
  • the change curve K0 is a straight line. Therefore, in the change curve K0, when the cursor 51 moves in the clockwise direction (the direction from left to right in FIG. 48), the ratio of “portrait” changes linearly from 100% to 0%, and “monochrome” The ratio of "" varies linearly from 0% to 100%.
  • the image processing parameter (2) in the setting region 52f is set so that the image processing setting unit 14b changes the ratio of “portrait” and “monochrome” along the change curve K1. Change the ratio of the image processing ratio).
  • the change curve K1 is a curve that swells upward in FIG. Therefore, in the change curve K1, when the cursor 51 moves in the clockwise direction, the “monochrome” ratio increases (that is, the “portrait” ratio decreases) compared to the change curve K0.
  • the image processing parameter (2) in the setting region 52f is set so that the image processing setting unit 14b changes the ratio of “portrait” and “monochrome” along the change curve K2. Change the ratio of the image processing ratio).
  • the change curve K2 is a curve that swells downward in FIG. Therefore, in the change curve K2, when the cursor 51 moves in the clockwise direction, the “portrait” ratio is lower than the change curve K0 (that is, the “monochrome” ratio is higher). Yes.
  • the customization processing unit 14d drags and drops the image processing icon 53 of the same image processing as the image processing set in the setting area 52 to the setting area 52 in which two image processes are set.
  • the method of changing the image processing parameter (ratio of two image processing) that is changed according to the position of the cursor 51 in the setting area 52 is changed.
  • the customization processing unit 14d performs drag and drop to move the image processing icon 53 of the same image processing as the image processing set in the setting area 52 to the setting area 52 in which one image processing is set.
  • the method of changing the image processing parameter (effect level) that is changed according to the position of the cursor 51 in the setting area 52 may be changed.
  • the customization processing unit 14d may change the maximum value of the “Vivid” effect level that can be set in the setting area 52j (for example, increase the maximum value).
  • the customization processing unit 14d may change the shape of the effect level change curve that changes in accordance with the position of the cursor 51 in the setting area 52j.
  • the image processing icon 53a (“Vivid”) is set to the ring image. Assume that a drag-and-drop operation to move into 50 is performed. Then, as shown in FIG. 49B, the customization processing unit 14d sets the setting area 52e corresponding to the image processing icon 53a to a size larger than the setting areas 52a to 52d that have already been set (that is, (The center angle of the arc increases). At this time, as described above, the customization processing unit 14d increases or decreases the number of image processing parameter levels that can be set in the setting area 52 in accordance with the change in the size of the setting area 52. With such processing, the number of image processing parameter stages that can be set in the setting area 52 can be relatively increased for the image processing corresponding to the image processing icon 53 on which the user has performed a drag-and-drop operation. Fine adjustment of image processing parameters can be performed.
  • the size of the setting area 52 set in the ring image 50 may be freely changed by a user operation such as a pinch-in operation or a pinch-out operation.
  • the pinch-in operation is an operation in which two fingers are simultaneously contacted with the touch panel 16b and the interval between the two contact positions is narrowed.
  • the pinch-out operation is an operation in which two fingers are simultaneously contacted with the touch panel 16b and the interval between the two contact positions is increased.
  • the customization processing unit 14d increases the size of the setting area 52 in accordance with the operation, and in response to this, the other setting area 52 Reduce the size.
  • the customization processing unit 14d reduces the size of the setting area 52 according to the operation, and the size of the other setting area 52 according to the size. Increase Further, when the size of the setting area 52 is the minimum value, the customization processing unit 14d deletes the setting area 52 when a pinch-in operation is performed in the setting area 52. Also good.
  • the image processing setting unit 14b sets the “portrait” effect level according to the position where the long press operation is performed in the setting area 52a, and “cross” according to the position where the long press operation is performed within the setting area 52d. Set the effect level of the process.
  • the image processing unit 14c is configured to perform “portrait” and “cross process” image processing on the captured image captured by the image sensor 12 at the time of the long press operation, and the effect set by the image processing setting unit 14b. Multiply by level.
  • the control unit 14 records the captured image after the image processing by the image processing unit 14 c on the recording medium 18.
  • the image processing unit 14c allows both the position in the first setting area 52 and the position in the second setting area 52 in the ring image 50 to be a user operation (here, a long press operation).
  • a user operation here, a long press operation.
  • both image processing corresponding to the first setting area 52 and image processing corresponding to the second setting area 52 are performed on the captured image.
  • a captured image that has been subjected to a plurality of image processing in the digital camera 1 ⁇ / b> D can be acquired only by a simple operation by the user.
  • the digital camera 1D may perform continuous shooting when the user simultaneously presses and holds a plurality of different positions in the ring image 50. Then, the digital camera 1D may perform recording on a plurality of captured images that have been continuously shot and subjected to each of a plurality of image processes corresponding to the plurality of positions.
  • setting areas 52a to 52d are set in the ring image 50 as shown in FIG.
  • the control unit 14 receives the long press operation as a continuous shooting instruction, and performs continuous shooting as many times as the number of captured images corresponding to the number of the long press operation is obtained.
  • the control unit 14 performs continuous shooting that causes the imaging device 12 to perform the imaging processing for the still image twice in succession, and takes two captured images. Get.
  • the image processing setting unit 14b sets the “portrait” effect level according to the position where the long press operation is performed in the setting area 52a, and “cross” according to the position where the long press operation is performed within the setting area 52d. Set the effect level of the process.
  • the image processing unit 14c performs “portrait” image processing on one captured image out of the two captured images acquired by the continuous shooting, and the effect set by the image processing setting unit 14b. Apply by level.
  • the image processing unit 14c performs “cross process” image processing on another captured image of the two captured images acquired by the continuous shooting, and the image processing setting unit 14b. Apply at the effect level set by.
  • the control unit 14 records the two captured images after the image processing by the image processing unit 14 c on the recording medium 18.
  • the customization processing unit 14 d may automatically rearrange the arrangement of the setting areas 52 when adding the setting areas 52 to the ring image 50.
  • the customization processing unit 14d rearranges the arrangement so that the setting regions 52 for setting image processing having high affinity with each other, such as image processing with similar image effects, are adjacent to each other.
  • the display control unit 14 a displays the image processing set according to the position of the cursor 51 and the content of the image processing parameter in the content display area 55 provided at the upper part of the display screen of the display unit 17. You may do it.
  • the name of two image processes to be set and the ratio of these two image processes are displayed in the content display area 55, such as “Portrait 70% & Monochrome 30%”.
  • it may be displayed with a mark or the like representing the contents of image processing.
  • FIG. 52A shows a ring image 50 in Modification 9.
  • the setting points 56a to 56d are respectively set at positions where the ring of the ring image 50 is divided into four equal parts.
  • the setting point 56 a is set at the top point of the ring image 50.
  • the setting point 56b is set at a position 90 degrees clockwise from the setting point 56a.
  • the setting point 56c is set at a position 180 degrees away from the setting point 56a.
  • the setting point 56d is set at a position 90 degrees counterclockwise from the setting point 56a.
  • “portrait” is associated with the setting point 56a.
  • “Monochrome” is associated with the setting point 56b.
  • a “high key” is associated with the setting point 56c.
  • “Cross process” is associated with the setting point 56d. In the vicinity of each of the setting points 56a to 56d, the name of the image processing associated therewith is displayed. In addition, line segments passing through the setting points 56a to 56d are displayed so that the positions of the setting points 56a to 56d can be easily understood.
  • the image processing setting unit 14b sets the image processing to be performed on the captured image to “portrait 100% (setting for performing only“ portrait ”)”.
  • the image processing setting unit 14b sets the image processing to be performed on the captured image to “monochrome 100%”.
  • the image processing setting unit 14b is set to perform both “portrait” and “monochrome” performed on the captured image. To do. At this time, the image processing setting unit 14 b sets the ratio of “portrait” and “monochrome” according to the position of the cursor 51.
  • the image processing setting unit 14b increases the “portrait” ratio and decreases the “monochrome” ratio as the position of the cursor 51 is closer to the setting point 56a. On the other hand, the image processing setting unit 14b increases the “monochrome” ratio and decreases the “portrait” ratio as the position of the cursor 51 is closer to the setting point 56b.
  • the image processing setting unit 14b sets the image processing to be performed on the captured image to “high key 100%”.
  • the image processing setting unit 14b sets the image processing to be performed on the captured image to “cross process 100%”.
  • the ring image 50 can be customized.
  • the image processing icon 53 corresponding to the desired image processing is selected from the image processing icons 53 displayed in the list display area 54.
  • a drag and drop operation for moving into the image 50 is performed.
  • a drag-and-drop operation for moving the image processing icon 53a (“Vivid”) between the setting point 56a and the setting point 56b in the ring image 50 is performed.
  • the customization processing unit 14d detects the above operation via the touch panel 16b, the customization processing unit 14d rings the setting point 56e associated with the image processing “Vivid” corresponding to the image processing icon 53a as illustrated in FIG. Add to image 50.
  • the setting point 56a to the setting point 56e are respectively set at positions where the ring image 50 is divided into five equal parts.
  • the setting point 56e is added at a position corresponding to the location where the image processing icon 53a is dropped (between the setting point 56a and the setting point 56b in FIG. 52B).
  • the customization processing unit 14d When the user wants to delete the setting point 56 from the ring image 50, the user performs a drag-and-drop operation to move the name of the image processing displayed near the setting point 56 to be deleted into the list display area 54. Do. When the customization processing unit 14d detects the operation via the touch panel 16b, the customization processing unit 14d deletes the setting point 56 where the operation has been performed from the ring image 50.
  • the present invention when the still image shooting mode or the moving image shooting mode is set has been described.
  • the present invention may be applied when the reproduction mode in which the recorded captured image data is reproduced on the display unit as a reproduction image is set.
  • the control unit 14 causes the ring image 50 to be superimposed and displayed on the reproduction image when the reproduction image is reproduced and displayed on the display unit.
  • the control unit 14 performs image processing corresponding to the position of the cursor 52 of the ring image 50 on the reproduced image.
  • control unit 14 When the control unit detects that an operation member, such as an OK button, has been pressed, the control unit determines that the image processing to be performed on the reproduced image has been determined, and records the reproduced image subjected to the image processing on the recording medium 18.
  • the control unit 14 may delete the reproduced image before the image processing and record only the newly imaged image on the recording medium 18, or the reproduced image before the image processing may be performed. Either of the reproduced images after the image processing may be recorded.
  • Japanese Patent Application 2013-179597 (filed on August 30, 2013) Japanese Patent Application No. 2013-246539 (filed on Nov. 28, 2013) Japanese Patent Application 2013-246540 (filed on November 28, 2013) Japanese Patent Application No. 246541 in 2013 (filed on November 28, 2013)

Abstract

 画像処理装置は、第1の画像処理と第2の画像処理とを画像に施して画像を変化させる画像処理部と、第1の画像処理を施したときの画像の変化の度合いと、第2の画像処理を施したときの画像の変化の度合いとを変化させる処理変化部と、を備え、処理変化部は、第1の画像処理による画像の変化の度合いを低くすると、第2の画像処理による画像の変化の度合いを高くする。

Description

画像処理装置、および画像処理プログラム
 本発明は、画像処理装置、および画像処理プログラムに関する。
 複数用意された画像効果の中から使用する1以上の画像効果をユーザが選択するためのメニューとして、画像効果を複数選択できるように画像効果を示す項目を配列して表示するデジタルカメラが知られている(特許文献1参照)。
 また、使用する画像効果を選択するためのエフェクトメニューと、選択した画像効果の効果レベルを調整するためのスライドメニューとを表示するデジタルカメラが知られている(特許文献1参照)。
日本国特開2012-124608号公報
 特許文献1のような従来の技術では、ユーザが複数の画像処理の中から撮影シーンに適した画像処理を選択するには、複数の画像処理の内容に関する知識が必要であるため、初心者のユーザにとっては撮影シーンに適した画像処理の選択が難しかった。
 以上のように、ユーザにとって画像処理の設定はしづらいものであった。
 本発明の第1の態様によると、画像処理装置は、第1の画像処理と第2の画像処理とを画像に施して画像を変化させる画像処理部と、第1の画像処理を施したときの画像の変化の度合いと、第2の画像処理を施したときの画像の変化の度合いとを変化させる処理変化部と、を備えることが好ましい。処理変化部は、第1の画像処理による画像の変化の度合いを低くすると、第2の画像処理による画像の変化の度合いを高くすることもできる。
本発明の第一実施形態によるデジタルカメラの構成例を説明するブロック図である。 表示画面の一例を説明する図である。 カーソルの位置に応じた画像処理を説明する図である。 撮影シーンに応じた画像処理の組合せを説明する図である。 静止画撮影における処理の流れを説明するフローチャートである。 カーソルの位置に応じた画像処理の流れを説明するフローチャートである。 動画撮影における処理の流れを説明するフローチャートである。 変形例1における処理の流れを説明するフローチャートである。 変形例1における表示画面の一例を説明する図である。 変形例4における表示画面の一例を説明する図である。 変形例5における表示画面の一例を説明する図である。 変形例6における表示画面の一例を説明する図である。 プログラムの提供の様子を説明する図である。 本発明の第二実施形態によるデジタルカメラの構成例を説明するブロック図である。 リング画像を説明する図である。 ダイヤル画像を説明する図である。 リング画像のカーソルの位置に応じたダイヤル画像の機能を説明する図である。 2つの画像処理の比率を変化させるための変化曲線を説明する図である。 クリエイティブモードにおける処理の流れを説明するフローチャートである。 図19に続く処理の流れを説明するフローチャートである。 リング画像のカーソルの位置に応じた画像処理の流れを説明するフローチャートである。 ダイヤル画像の設定値に応じた処理の流れを説明するフローチャートである。 本発明の第三実施形態によるデジタルカメラの構成例を説明するブロック図である。 リング画像を説明する図である。 カーソルの位置に応じた画像処理を説明する図である。 被写体の種類に応じた画像処理の組合せを説明する図である。 リング画像の表示サイズを変更する処理を説明する図である。 クリエイティブモードにおける処理の流れを説明するフローチャートである。 カーソルの位置に応じた画像処理の流れを説明するフローチャートである。 リング画像の表示サイズを変更する処理の流れを説明するフローチャートである。 図30に続く処理の流れを説明するフローチャートである。 変形例1におけるリング画像の表示例を説明する図である。 変形例3におけるリング画像の表示例を説明する図である。 変形例4におけるリング画像の表示例を説明する図である。 本発明の第四実施形態によるデジタルカメラの構成例を説明するブロック図である。 クリエイティブモードにおける処理の流れを説明するフローチャートである。 第四実施形態におけるリング画像を説明する図である。 第四実施形態における設定用領域の追加を説明する図である。 第四実施形態における設定用領域の削除を説明する図である。 第四実施形態におけるカスタマイズモードでの処理の流れを説明するフローチャートである。 第五実施形態におけるリング画像を説明する図である。 第五実施形態における設定用領域の追加を説明する図である。 第五実施形態における設定用領域への画像処理の追加を説明する図である。 第五実施形態おける設定用領域の追加を説明する図である。 第五実施形態におけるカスタマイズモードでの処理の流れを説明するフローチャートである。 第五実施形態における設定用領域の合成を説明する図である。 変形例1における表示画面を説明する図である。 画像処理パラメータの変化曲線を説明する図である。 変形例2における設定用領域の追加を説明する図である。 変形例6における表示画面を説明する図である。 変形例7における設定用領域の変更を説明する図である。 変形例10のリング画像を説明する図である。
 以下、図面を参照して本発明の実施形態について説明する。
(第一実施形態)
 図1は、本実施形態に係るデジタルカメラ1の構成を示すブロック図である。デジタルカメラ1は、撮像光学系11と、撮像素子12と、レンズ駆動回路13と、制御部14と、操作部材16と、表示部17とを備えている。デジタルカメラ1には、例えばメモリカードなどの記録媒体18が着脱可能である。
 撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図1を簡単にするため、撮像光学系11を単レンズとして図示している。
 レンズ駆動回路13は、制御部14の制御のもと、撮像光学系11のズームレンズを駆動して焦点距離を調節するとともに、撮像光学系11のフォーカシングレンズを駆動して焦点調節を行う。
 撮像素子12は、例えばCMOS撮像素子などのイメージセンサであり、撮像光学系11により結像した被写体像を撮像して、得られた画像信号を制御部14へ出力する。
 制御部14は、表示制御部14a、位置選択部14b、画像処理選択部14c、画像処理部14d、シーン判別部14eを有する。制御部14は、CPU、メモリ、およびその周辺回路から構成され、メモリに格納された制御プログラムを実行することにより、これらの各部の機能を実現している。各部の機能の内容については、後で詳しく説明する。
 操作部材16は、シャッターボタン16a、録画ボタン16b、およびロータリーマルチセレクター16cを含む。また、操作部材16は、この他、モード切替ボタン、十字キー、OKボタン、ディスプレイボタンなどを含む。操作部材16は、各操作部材が操作されると、その操作に応じた操作信号を制御部14へ出力する。
 表示部17は、デジタルカメラ1の背面に搭載された液晶モニタ(背面モニタ)等で構成され、撮像素子12で撮像された撮像画像や各種設定メニューなどが表示される。
 操作部材16からの操作信号に応じて静止画撮影モードまたは動画撮影モードに設定されると、制御部14は、撮像素子12に所定のフレームレートでスルー画用の撮像処理を行わせ、撮像素子12から時系列で得られる各フレーム画像から表示用のフレーム画像を生成して表示部17に出力する。これによって表示部17には、スルー画がリアルタイムで表示される。
 静止画撮影モードにおいてシャッターボタン16aが全押し操作されて静止画の撮影が指示されると、制御部14は、撮像素子12に静止画用の撮像処理を行わせ、撮像素子12から取得した画像信号に対して所定の画像処理を行って静止画データを生成し、JPEGなどの所定の方式により圧縮処理を行って、記録媒体18に記録する。
 動画撮影モードにおいて録画ボタン16bが操作されて動画の撮影開始が指示されると、制御部14は、撮像素子12に動画用の撮像処理を開始させ、撮像素子12から出力された各フレームの画像信号に対して所定の画像処理を行う。そして、制御部14は、画像処理後の画像データをMPEG形式やMotionJPEGなどの圧縮画像データに圧縮し、その圧縮画像データを記録媒体18に記録する。そして、再度録画ボタン16bが操作されて動画の撮影終了が指示されると、制御部14は、動画の撮影終了時点までの圧縮画像データを記録媒体18に記録し、動画ファイルを完成させる。
 また、操作部材16からの操作信号に応じて再生モードに設定されると、制御部14は、記録媒体18に記録された静止画データまたは動画データを読み出して再生し、表示部17に表示する。
 本実施形態のデジタルカメラ1では、撮影モードとして、通常モードの他に、種々の画像処理を施した撮像画像を得ることのできるクリエイティブモードが設けられている。以下、このクリエイティブモードについて説明する。
 図2は、クリエイティブモードにおける表示画面の一例を説明する図である。クリエイティブモードにおいて、制御部14の表示制御部14aは、スルー画を表示部17に表示する。また、表示制御部14aは、撮像画像に施す画像処理を選択するための画像(以下、リング画像と表記する)50をスルー画に重ねて表示する。リング画像50は、リング51とカーソル52とを表示する画像である。カーソル52は、リング51上において、制御部14の位置選択部14bにより現在選択されている位置を示す。位置選択部14bは、ユーザによりロータリーマルチセレクター16cが回転操作されると、その回転操作に応じて、カーソル52の表示位置(すなわち選択位置)をリング51に沿って移動させる。たとえば、ロータリーマルチセレクター16cが時計周りに回転操作されると、位置選択部14bは、カーソル52をリング51上で時計周りに所定の速度で移動させる。一方、ロータリーマルチセレクター16cが反時計周りに回転操作されると、位置選択部14bは、カーソル52をリング51上で反時計周りに所定の速度で移動させる。
 制御部14の画像処理選択部14cは、位置選択部14bによって選択されている位置、すなわちカーソル52の位置に応じて、所定の4つの画像処理(以下、第1画像処理~第4画像処理と表記する)の中から撮像画像に施す画像処理を選択する。なお、第1画像処理~第4画像処理の具体的な内容については後述する。制御部14の画像処理部14dは、画像処理選択部14cにより選択された画像処理を撮像画像に施す。表示制御部14aは、画像処理部14dにより画像処理が施された撮像画像を、スルー画として表示部17に表示する。
 このようにデジタルカメラ1では、ユーザがロータリーマルチセレクター16cを回転操作してカーソル52の位置を移動させることで撮像画像に施す画像処理を選択することができ、選択した画像処理が施された撮像画像を、スルー画によってリアルタイムで確認することができる。そして、デジタルカメラ1では、ユーザが、ロータリーマルチセレクター16cを回転操作して撮像画像に施す画像処理を所望の画像処理に変更した後、シャッターボタン16aまたは録画ボタン16bを押下することで、所望の画像処理を施した静止画データまたは動画データを記録することができるようになっている。
 リング画像50には、リング51の頂上地点P0から時計周りに第0位置~第65位置の66か所の位置が設定されており、その位置を示す目盛がリング51の内側に表示されている。リング51の頂上地点P0が第0位置であり、その右隣の位置P1が第1位置である。第0位置P0から時計周りに90度離れた位置P17が第17位置である。第1位置P1から第17位置P17の間には、第2位置~第16位置の15か所の位置が等間隔に設定される。第0位置P0から180度離れた位置P33が第33位置である。第17位置P17から第33位置P33の間には、第18位置~第32位置の15か所の位置が等間隔に設定される。第0位置P0から時計周りに270度離れた位置P49が第49位置である。第33位置P33から第49位置P49の間には、第34位置~第48位置の15か所の位置が等間隔に設定される。第0位置P0の左隣の位置P65は第65位置である。第49位置P49から第65位置P65の間には、第50位置~第64位置の15か所の位置が等間隔に設定される。図3は、各位置において選択される画像処理を説明する図である。図3では、0~65の番号が第0位置~第65位置を示し、番号の下にその番号が示す位置において選択される画像処理を記載している。
 クリエイティブモードを開始した時点では、リング51の頂上地点(第0位置)P0にカーソル52が表示される。このとき、画像処理選択部14cは、第1画像処理~第4画像処理のいずれも選択しない。ゆえに、画像処理部14dは、撮像画像に対してこれら第1画像処理~第4画像処理を行わない。したがって、表示部17には、第1画像処理~第4画像処理のいずれも施していない状態の撮像画像、すなわち元画像が表示される。
 カーソル52が第0位置P0の右隣の第1位置P1にある場合、画像処理選択部14cは第1画像処理のみを選択し、画像処理部14dは当該選択された第1画像処理のみを撮像画像に施す。したがって、カーソル52が第0位置P0から第1位置P1に時計周りに移動すると、表示部17に表示されるスルー画は、元画像の状態から第1画像処理のみを施した状態へと変化する。
 カーソル52が第0位置P0から時計周りに90度離れた第17位置P17にある場合、画像処理選択部14cは第2画像処理のみを選択し、画像処理部14dは当該選択された第2画像処理のみを撮像画像に施す。したがって、カーソル52が第1位置P1から第17位置P17へと時計周りに移動すると、表示部17に表示されるスルー画は、第1画像処理のみを施した状態から第2画像処理のみを施した状態へと変化する。このとき、表示部17に表示されるスルー画は、第1画像処理のみを施した状態から第2画像処理のみを施した状態へ15段階で徐々に遷移するようになっている。すなわち、カーソル52が第2位置から第16位置にある間、画像処理選択部14cは第1画像処理および第2画像処理の両方を選択し、画像処理部14dは当該選択された第1画像処理および第2画像処理の両方を撮像画像に対して行う(すなわち第1画像処理および第2画像処理を撮像画像に重ねがけする)。このとき画像処理部14dは、カーソル52が第1位置P1に近いほど第1画像処理の比率を高くして第2画像処理の比率を低くし、カーソル52が第17位置P17に近いほど第2画像処理の比率を高くして第1画像処理の比率を低くする。画像処理部14dは、たとえば、カーソル52が第5位置にあるときは、第1画像処理を75%、第2画像処理を25%の比率で、カーソル52が第9位置にあるときは、第1画像処理を50%、第2画像処理を50%の比率で、カーソル52が第13位置にあるときは、第1画像処理を25%、第2画像処理を75%の比率で、撮像画像に施す。なお、カーソル52が第1位置P1にあるとき撮像画像に第1画像処理のみを施すことは、第1画像処理を100%の比率で施すことと同じである。また、カーソル52が第17位置P17にあるとき撮像画像に第2画像処理のみを施すことは、第2画像処理を100%の比率で施すことと同じである。また、たとえば、第1画像処理を75%の比率で施すとは、撮像画像に第1画像処理のみを施したとき(すなわち第1画像処理を100%施したとき)における撮像画像の変化の度合いを100%としたときに、その度合いの75%撮像画像が変化するように第1画像処理を施すことである。
 カーソル52が第0位置P0から180度離れた第33位置P33にある場合、画像処理選択部14cは第3画像処理のみを選択し、画像処理部14dは当該選択された第3画像処理のみを撮像画像に施す。したがって、カーソル52が第17位置P17から第33位置P33へと時計周りに移動すると、表示部17に表示されるスルー画は、第2画像処理のみを施した状態から第3画像処理のみを施した状態へと変化する。このとき、表示部17に表示されるスルー画は、第2画像処理のみを施した状態から第3画像処理のみを施した状態へ15段階で徐々に遷移するようになっている。すなわち、カーソル52が第18位置から第32位置にある間、画像処理選択部14cは第2画像処理および第3画像処理の両方を選択し、画像処理部14dは当該選択された第2画像処理および第3画像処理の両方を撮像画像に施す。このとき画像処理部14dは、カーソル52が第17位置P17に近いほど第2画像処理の比率を高くして第3画像処理の比率を低くし、カーソル52が第33位置P33に近いほど第3画像処理の比率を高くして第2画像処理の比率を低くする。
 カーソル52が第0位置P0から時計周りに270度離れた第49位置P49にある場合、画像処理選択部14cは第4画像処理のみを選択し、画像処理部14dは当該選択された第4画像処理のみを撮像画像に施す。したがって、カーソル52が第33位置P33から第49位置P49へと時計周りに移動されると、表示部17に表示されるスルー画は、第3画像処理のみを施した状態から第4画像処理のみを施した状態へと変化する。このとき、表示部17に表示されるスルー画は、第3画像処理のみを施した状態から第4画像処理のみを施した状態へ15段階で徐々に遷移するようになっている。すなわち、カーソル52が第34位置から第48位置にある間、画像処理選択部14cは第3画像処理および第4画像処理の両方を選択し、画像処理部14dは当該選択された第3画像処理および第4画像処理の両方を撮像画像に施す。このとき画像処理部14dは、カーソル52が第33位置P33に近いほど第3画像処理の比率を高くして第4画像処理の比率を低くし、カーソル52が第49位置P49に近いほど第4画像処理の比率を高くして第3画像処理の比率を低くする。
 カーソル52が第0位置P0の左隣の第65位置P65にある場合、画像処理選択部14cは第1画像処理のみを選択し、画像処理部14dは当該選択された第1画像処理を撮像画像に施す。したがって、カーソル52が第49位置P49から第65位置P65へと時計周りに移動すると、表示部17に表示されるスルー画は、第4画像処理のみを施した状態から第1画像処理のみを施した状態へと変化する。このとき、表示部17に表示されるスルー画は、第4画像処理のみを施した状態から第1画像処理のみを施した状態へ15段階で徐々に遷移するようになっている。すなわち、カーソル52が第50位置から第64位置にある間、画像処理選択部14cは第4画像処理および第1画像処理の両方を選択し、画像処理部14dは当該選択された第4画像処理および第1画像処理の両方を撮像画像に施す。このとき画像処理部14dは、カーソル52が第49位置P49に近いほど第4画像処理の比率を高くして第1画像処理の比率を低くし、カーソル52が第65位置P65に近いほど第1画像処理の比率を高くして第4画像処理の比率を低くする。
 また、カーソル52が第65位置P65から第0位置P0へと時計周りに移動すると、表示部17に表示するスルー画は、第1画像処理のみ施した状態から元画像の状態へと戻る。
 このように、カーソル52が第0位置P0から時計周りに1回転すると、撮像画像に施される画像処理が、元画像から、第1画像処理、第2画像処理、第3画像処理、第4画像処理の順で連続的に変更された後、再度第1画像処理に戻って、元画像に戻る。なお、カーソル52が反時計回りに1回転する場合は、撮像画像に施される画像処理は、上述した時計周りに1回転する場合と逆の順で変化する。また、必ずしもカーソル52が1回転しなくてもよく、たとえば、カーソル52が時計周りに半周回転した後に反時計回りに移動して、画像処理の変化を戻すことも可能となっている。
 以上のようにデジタルカメラ1では、ユーザがロータリーマルチセレクター16cを回転操作するという簡単な操作で、撮像画像に施す画像処理として、第1画像処理~第4画像処理の中から1つの画像処理を施すだけでなく、2つの異なる画像処理を比率を変えて施すこともできる。
 次に、リング画像50に対応付けられる第1画像処理~第4画像処理の内容について、詳しく説明する。なお、本説明において、画像処理には、たとえば彩度やコントラスト、ホワイトバランスなどのパラメータを変えることで画作りを行う処理や、たとえばフィルタをかけてぼかしたり周辺を暗くしてトイカメラ風にしたりするなど画像効果をかける処理が含まれるとする。クリエイティブモードにおいて、制御部14のシーン判別部14eは、撮影シーンを判別するシーン判別処理を行う。リング画像50には、判別した撮影シーンに応じた4つの画像処理が第1画像処理~第4画像処理として設定される。すなわち、判別される撮影シーンによって、リング画像50に設定される第1画像処理~第4画像処理の内容が異なっている。
 シーン判別部14eによって判別される撮影シーンは、人物を撮影するシーンである「ポートレート」、被写体に接近して撮影するシーンである「接写」、風景を撮影するシーンである「風景」、「ポートレート」、「接写」、「風景」のいずれでもないシーンである「その他」の4種類である。なお、判別される撮影シーンの種類は一例であり、この他種々の撮影シーンを判別してもよい。撮影シーンの判別方法は、公知の方法を用いるものとする。シーン判別部14eは、たとえば、撮像素子12からの画像信号に基づく情報(輝度や色バランス(R/G比、B/G比)など)や、カメラ設定情報(撮像光学系11の焦点距離や撮影倍率など)に基づいて撮影シーンを判別する。
 図4は、撮影シーンに応じた第1画像処理~第4画像処理の組合せを説明する図である。デジタルカメラ1では、撮影シーンごとに、それぞれの撮影シーンに適した4種類の画像処理が第1画像処理~第4画像処理として予め設定されている。たとえば、撮影シーン「人物」用のリング画像50pには、第1画像処理として「ポートレート」、第2画像処理として「モノクローム」、第3画像処理として「ハイキー」、第4画像処理として「クロスプロセス(R)」が設定される。撮影シーン「接写」用のリング画像50nには、第1画像処理として「ビビッド」、第2画像処理として「ハイキー」、第3画像処理として「トイカメラ」、第4画像処理として「セレクトカラー」が設定される。撮影シーン「風景」用のリング画像50gには、第1画像処理として「クロスプロセス(B)」、第2画像処理として「風景」、第3画像処理として「フィルターモノクロ(セピア)」、第4画像処理として「アヴァンギャルド」が設定される。撮影シーン「その他」用のリング画像50sには、第1画像処理として「アヴァンギャルド」、第2画像処理として「モノクローム」、第3画像処理として「トイカメラ」、第4画像処理として「クロスプロセス(G)」が設定される。なお、図4では説明のため、撮影シーンおよび第1画像処理~第4画像処理の内容を示すテキストを記載しているが、実際の表示部17の表示画面では、図2に示したように当該テキストは表示されず、リング51とカーソル52のみが表示される。すなわち、リング画像50p、50n、50g、50sは、表示部17の表示画面ではどの撮影シーンでも同じ画像として(すなわち同じ表示内容で)表示される。
 「ポートレート」は、人物の肌をきれいに見せる画作りを行うための画像処理である。「モノクローム」は、白黒の濃淡のみの画作りを行うための画像処理である。「ハイキー」は、画面全体が明るく陰影の少ない画作りを行うための画像処理である。「クロスプロセス(R)」、「クロスプロセス(G)」、および「クロスプロセス(B)」は、クロスプロセス(ポジフィルムを使いネガ用の現像を行う銀塩写真の手法)を行ったような画像効果を得るための画像処理である。なお、「クロスプロセス(R)」では赤みの強い画像が得られ、「クロスプロセス(G)」では緑みの強い画像が得られ、「クロスプロセス(B)」では青みの強い画像が得られる。「ビビッド」は、コントラストが強調された色鮮やかな画作りを行うための画像処理である。「トイカメラ」は、トイカメラで撮影したような画像効果を得るための画像処理である。「セレクトカラー」は、特定の色だけを残してその他をモノクロに変化した画像効果を得るための画像処理である。「風景」は、自然や街並みなどの景観に適した画作りを行うための画像処理である。「フィルターモノクロ(セピア)」は、セピア色の濃淡のみの画作りを行うための画像処理である。「アヴァンギャルド」は、「ビビッド」よりもさらにコントラストと彩度を上げて独特の画作りを行うための画像処理である。
 なお、第1画像処理および第2画像処理は、撮像画像に重ねがけし、且つ第1画像処理から第2画像処理へ、または第2画像処理から第1画像処理へと徐々に遷移するため、互いに重ねがけしやすく且つ遷移しやすい組合せであるように、各撮影シーンにおいて、第1画像処理および第2画像処理の組合せが予め設定されている。第2画像処理と第3画像処理、第3画像処理と第4画像処理、および第4画像処理と第1画像処理の組合せも、それぞれ同様である。
 また、デジタルカメラ1では、カーソル52の位置が移動すると、表示部17に表示されるスルー画は、元画像からまず第1画像処理を施した状態に変化するようになっている。そのため、第1画像処理としては、各撮影シーンにおいて、たとえば、撮影シーンに最も適した画像処理や、元画像からの変化が顕著に現れる画像処理などが設定されている。たとえば、撮影シーン「人物」用のリング画像50pには、第1画像処理として、人物の画像に最適な画像処理である「ポートレート」が設定されている。また、撮影シーン「風景」用のリング画像50gには、第1画像処理として、元画像からの変化が顕著に現れる「クロスプロセス(B)」が設定されている。
 また、デジタルカメラ1では、ユーザがロータリーマルチセレクター16cを時計周りに操作する場合の方が反時計回りに操作する場合よりも多いことを想定し、たとえば、撮像画像に施す画像処理としておすすめの順に、第1画像処理~第4画像処理が設定されている。たとえば、撮影シーン「人物」の場合、リング画像50p上を時計周りにカーソル52が移動したときに、第1画像処理「ポートレート」、第2画像処理「モノクローム」、第3画像処理「ハイキー」、第4画像処理「クロスプロセス(R)」の順に画像処理が変化するように設定されている。これは、撮影シーン「人物」に対しては、「ポートレート」、「モノクローム」、「ハイキー」、「クロスプロセス(R)」の順で、撮像画像に施す画像処理としておすすめであることを示している。
 なお、リング画像50に第1画像処理~第4画像処理として設定する画像処理の組合せの情報は、撮影シーンごとにデジタルカメラ1内の不図示のメモリに予め記憶されており、この情報とシーン判別結果に基づいて、第1画像処理~第4画像処理がリング画像50に設定される。
 次に、クリエイティブモードにおいて、制御部14が実行する処理の流れを説明する。図5は、クリエイティブモードで静止画を撮影する際の処理の流れを説明するフローチャートである。静止画撮影モードがクリエイティブモードに切り替えられると、制御部14は、スルー画の表示を開始すると共に、不図示のメモリに記録された図5の処理を行うプログラムを起動して、図5の処理を開始する。
 ステップS1において、表示制御部14aは、リング画像50の表示を開始して、ステップS2へ進む。
 ステップS2において、制御部14のシーン判別部14eは、撮影シーンを判別するシーン判別処理を開始して、ステップS3へ進む。なお、シーン判別処理は、所定時間おきに繰り返し行う。また、制御部14は、シーン判別処理を適切に行うために、繰り返しAF(Auto Focus)処理を行って、任意の被写体にピントを合わせる。
 ステップS3において、制御部14は、ロータリーマルチセレクター16cが回転操作されたか否かを判定する。ロータリーマルチセレクター16cが回転操作されていない場合は、制御部14は、ステップS3を否定判定し、ステップS3の処理を繰り返すと共にシーン判別処理を継続する。一方、ロータリーマルチセレクター16cが回転操作された場合には、制御部14は、ステップS3を肯定判定し、ステップS4へ進む。
 ステップS4において、シーン判別部14eは、シーン判別処理を停止して、ロータリーマルチセレクター16cが回転操作された時点で判別された撮影シーンを、撮影シーンの判別結果として確定する。そして制御部14は、図4を用いて上述したように、当該確定した撮影シーンに応じた第1画像処理~第4画像処理をリング画像50に設定する。
 また、制御部14は、ステップS4で確定した撮影シーンに応じて撮像光学系11の絞り値を制御する。本実施形態では、撮影シーンごとに、最適な絞り値が予め対応付けられてデジタルカメラ1内の不図示のメモリに記憶されている。たとえば、撮影シーン「人物」に対しては開放絞り値が対応付けられ、撮影シーン「風景」に対しては絞り値F8が対応づけられている。制御部14は、上記確定した撮影シーンに対応付けられた絞り値となるように、撮像光学系11の絞り値を制御する。これ以降、制御部14は、スルー画用および静止画用の撮像処理において、絞り優先モードで露出制御(シャッタースピードやISO感度などの制御)を行う。
 ステップS5において、制御部14は、上述したように、カーソル52の位置に応じた画像処理を撮像画像に施す処理を行う。この処理の流れを、図6に示すフローチャートを用いて説明する。ステップS51において、位置選択部14bは、ロータリーマルチセレクター16cの回転操作に応じて、カーソル52(すなわち選択位置)を移動させ、ステップS52へ進む。
 ステップS52において、画像処理選択部14cは、上述の図2および図3を用いて説明したように、カーソル52の位置に応じて撮像画像に施す画像処理を選択し、ステップS53へ進む。
 ステップS53において、画像処理部14dは、ステップS52で選択された画像処理を撮像画像に施して、ステップS54へ進む。
 ステップS54において、表示制御部14aは、画像処理部14dによって画像処理が施された撮像画像を表示部17に表示する。これにより、ステップS53で選択された画像処理が施されたスルー画が表示部17に表示される。その後、制御部14は、図6の処理を終了して、図5のステップS6に進む。
 ステップS6において、制御部14は、シャッターボタン16aが半押し操作されたか否かを判定する。シャッターボタン16aが半押し操作されていない場合は、制御部14は、ステップS6を否定判定してステップS5に戻る。すなわち、制御部14は、シャッターボタン16aが半押し操作されるまでは、カーソル52の位置に応じた画像処理(図6)を繰り返し行う。一方、シャッターボタン16aが半押し操作された場合には、制御部14は、ステップS6を肯定判定し、ステップS7へ進む。
 ステップS7において、画像処理選択部14cは、シャッターボタン16aが半押し操作された時点のカーソル52の位置に応じて設定される画像処理(すなわちその時点で撮像画像に施されている画像処理)を、静止画に施す画像処理として確定する。そして、表示制御部14aは、リング画像50を非表示にして、ステップS8へ進む。
 ステップS8において、制御部14は、ピント位置を固定するシングルAFモードと動く被写体にピントを追従させるコンティニュアスAFモードとを自動で切り替える自動モード切替AFモードでAF処理を行い、ステップS9へ進む。自動モード切替AFモードでは、シャッターボタン16aの半押し操作時点で被写体にピントを合わせ、ピント位置をいったん固定する。その後、被写体が動き出して、デジタルカメラ1と被写体の距離が変わった場合には、自動的にコンティニュアスAFモードに切り替わり、被写体にピントを合わせ続ける。
 ステップS9において、シャッターボタン16aが全押し操作されたか否かを判定する。シャッターボタン16aが全押し操作されていない場合は、制御部14は、ステップS9を否定判定しステップS9の処理を繰り返す。一方、シャッターボタン16aが全押し操作された場合には、制御部14は、ステップS9を肯定判定し、ステップS10へ進む。
 ステップS10において、制御部14は、撮像素子12に静止画用の撮像処理を行わせる。画像処理部14dは、当該撮像処理により得られた撮像画像データに対して、ステップS7で確定された画像処理を施す。そして、制御部14は、当該画像処理が施された撮像画像データを、静止画データとして記録媒体18に記録して、ステップS11へ進む。
 ステップS11において、制御部14は、スルー画の表示と、リング画像50の表示とを再度開始して、ステップS5に戻る。すなわち、いったん静止画撮影が終了した後においても、リング画像50に設定される第1画像処理~第4画像処理については、ステップS4での設定が保持される。またカーソル52の位置については、ステップS5での設定が保持される。これは、静止画撮影が終了後すぐに同じ条件で次の静止画撮影を行いたい場合、すなわち連写撮影を行いたい場合に、リング画像50に設定される第1画像処理~第4画像処理やカーソル52の位置が変化してしまうと異なる画像処理が施された静止画像が撮影されてしまうので、これを防ぐためである。
 リング画像50の表示中において、ユーザが現在リング画像50に設定されている第1画像処理~第4画像処理を変更したい場合には、操作部材16のOKボタンを押下することで、第1画像処理~第4画像処理のリセット操作を行えるようになっている。リング画像50の表示中にOKボタンが押下されると、制御部14は、リング画像50における第1画像処理~第4画像処理の設定を解除(リセット)する。また、位置選択部14bは、カーソル52の位置を初期位置(第0位置)P0に戻す。その後、制御部14は図5に示す処理をステップS2から再度開始する。すなわち、シーン判別部14eはシーン判別処理を開始する。その後、ロータリーマルチセレクター16cが回転操作されると、制御部14は、その回転操作の時点で判別された撮影シーンに応じた第1画像処理~第4画像処理を、リング画像50に設定する。
 なお、クリエイティブモードにおいて、ロータリーマルチセレクター16cの操作が一度も行われないままシャッターボタン16aが半押し操作された場合には、制御部14は、リング画像50を非表示にして、通常モードと同様の処理を行う。すなわち、制御部14は、上記自動モード切替AFモードで、AF処理を行う。その後、シャッターボタン16aが全押し操作されると、制御部14は、撮像素子12に静止画用の撮像処理を行わせ、得られた撮像画像データを静止画像データとして記録媒体18に記録する。その後、制御部14は、再度、図5のステップS1に戻って処理を開始する。
 次に、図7に示すフローチャートを用いて、クリエイティブモードで動画を撮影する際の処理の流れを説明する。動画撮影モードがクリエイティブモードに切り替えられると、制御部14は、スルー画の表示を開始すると共に、不図示のメモリに記録された図7の処理を行うプログラムを起動して、図7の処理を開始する。
 制御部14は、ステップS21~ステップS25については、上述した図5のステップS11~S15と同様の処理を行う。すなわち、画像処理選択部14cは、動画撮影時においても、静止画撮影時と同様に、リング画像50のカーソル52の位置に応じて撮像画像に施す画像処理を選択する。
 ステップS26において、制御部14は、録画ボタン16bが押下されたか否かを判定する。録画ボタン16bが押下されていない場合は、制御部14は、ステップS26を否定判定してステップS25に戻る。すなわち、制御部14は、録画ボタン16bが押下されるまでは、カーソル52の位置に応じた画像処理(図6)を繰り返し行う。一方、録画ボタン16bが押下された場合には、制御部14は、ステップS26を肯定判定し、ステップS27へ進む。
 ステップS27において、画像処理選択部14cは、録画ボタン16bが押下された時点のカーソル52の位置に応じて設定される画像処理を、動画に施す画像処理として確定する。そして、表示制御部14aは、リング画像50を非表示にして、ステップS28へ進む。
 ステップS28において、制御部14は、動画の撮影を開始して、ステップS29へ進む。動画撮影において、画像処理部14dは、ステップS27で確定した画像処理を、撮影される動画の各フレーム画像データに施す。
 ステップS29において、制御部14は、繰り返しAF処理を行って任意の被写体にピントを合わせるAFモードでのAF処理を開始して、ステップS30へ進む。
 ステップS30において、制御部14は、シャッターボタン16aが全押し操作されたか否かを判定する。シャッターボタン16aが全押し操作されていない場合は、制御部14は、ステップS30を否定判定しステップS32へ進む。一方、シャッターボタン16aが全押し操作された場合には、制御部14は、ステップS30を肯定判定し、ステップS31へ進む。
 ステップS31において、制御部14は、動画撮影中の静止画撮影を行い、ステップS32へ進む。このとき、画像処理部14dは、シャッターボタン16aの全押し操作時点で撮像されたフレーム画像データに対して、ステップS27で確定した画像処理を施す。制御部14は、当該画像処理が施されたフレーム画像データを、静止画データとして不図示のメモリに一時的に記録する。
 ステップS32において、制御部14は、録画ボタン16bが押下されたか否かを判定する。録画ボタン16bが押下されていない場合は、制御部14は、ステップS32を否定判定しステップS30に戻る。録画ボタン16bが押下されるまで、制御部14は、ステップS30~S32の処理を繰り返す。そして、録画ボタン16bが押下されると、制御部14は、ステップS32を肯定判定し、ステップS33へ進む。
 ステップS33において、制御部14は、動画撮影を終了する。制御部14は、ステップS26で録画ボタン16bが押下されてからステップS32で再度録画ボタン16bが押下されるまでに撮像され、ステップS27で確定した画像処理を施した一連のフレーム画像データを、1つの動画データとして記録媒体18に記録する。またステップS31にて、不図示のメモリに一時的に記憶されていた静止画データを記録媒体18に記録する。そして、制御部14は、ステップS34へ進む。
 ステップS34において、制御部14は、スルー画の表示と、リング画像50の表示とを再度開始して、ステップS25に戻る。
 なお、クリエイティブモードにおいて、ロータリーマルチセレクター16cの操作が一度も行われないまま録画ボタン16bが押下された場合には、制御部14は、リング画像50を非表示にして、通常モードと同様の処理を行う。すなわち、制御部14は、動画撮影を開始し、繰り返しAF処理を行って任意の被写体にピントを合わせるAFモードでのAF処理を開始する。動画撮影中、シャッターボタン16aが全押し操作された場合、制御部14は、動画撮影中の静止画撮影を行う。録画ボタン16bが再度押下されると、制御部14は、動画撮影を終了し、録画ボタン16bが押下されてから再度録画ボタン16bが押下されるまでに撮像され一連のフレーム画像データを、動画データとして記録媒体18に記録する。その後、制御部14は、再度、図7のステップS21に戻って処理を開始する。
 以上説明した第一実施形態によれば、次の作用効果が得られる。
(1)デジタルカメラ1において、シーン判別部14eは、撮像素子12により撮像された撮像画像における撮影シーンが「人物」、「接写」、「風景」、および「その他」のいずれであるかを判別する。表示制御部14aは、シーン判別部14eにより判別された撮影シーンが「人物」であると判別された場合には、「人物」に応じた第1画像処理~第4画像処理(「ポートレート」、「モノクローム」、「ハイキー」、「クロスプロセス(R)」)の中から少なくとも1つの画像処理を選択するためのリング画像50を表示部17に表示する。画像処理選択部14cは、リング画像50に対するユーザ操作に応じて上記第1画像処理~第4画像処理の中から少なくとも1つの画像処理を選択する。画像処理部14dは、撮像画像に対して、画像処理選択部14cにより選択された画像処理を行う。なお、判別された撮影シーンが「接写」、「風景」、および「その他」である場合も同様である。このような構成により、デジタルカメラ1は、撮影シーンごとに、それぞれの撮影シーンに適した画像処理を選択するためのリング画像50を表示できる。したがって、ユーザに、撮影シーンに適した画像処理の中から所望の画像処理を選択させることができる。
(2)デジタルカメラ1において、画像処理選択部14cは、位置選択部14bにより、撮影シーン「人物」用のリング画像50p上の第1位置P1が選択された場合は、第1画像処理「ポートレート」を選択する。第17位置P7が選択された場合は、第2画像処理「モノクローム」を選択する。第1位置P1と第17位置P17の間の位置が選択された場合は、第1画像処理「ポートレート」および第2画像処理「モノクローム」の両方を選択する。画像処理選択部14cにより第1画像処理「ポートレート」および第2画像処理「モノクローム」の両方が選択された場合、画像処理部14dは、位置選択部14bにより選択された位置が第1位置P1に近いほど第1画像処理「ポートレート」の比率を高くして第2画像処理「モノクローム」の比率を低くする。一方、位置選択部14bにより選択された位置が第17位置P17に近いほど第2画像処理「モノクローム」の比率を高くして第1画像処理「ポートレート」の比率を低くする。なお、撮影シーン「接写」用のリング画像50n、撮影シーン「風景」用のリング画像50g、および撮影シーン「その他」用のリング画像50sの場合も同様である。このような構成により、デジタルカメラ1では、位置選択部14bによる選択位置(カーソル52の位置)が第1位置P1から第17位置P17に移動するとき、表示部17に表示されるスルー画は第1画像処理が施された状態から第2画像処理が施された状態へと滑らかに変化する。ユーザは、ロータリーマルチセレクター16cを回転操作するという簡単な操作を行うだけで、第1画像処理および第2画像処理のうちいずれか1つの画像処理を撮像画像に施すだけでなく、これら2つの画像処理の比率を変えて撮像画像に重ねがけすることもできる。したがって、本実施形態のデジタルカメラ1は、従来のデジタルカメラにおいてはたとえば設定メニューが異なっているために同時に設定することのできなかった画像処理同士(たとえば画作りと画像効果)について、同時に設定して撮像画像に重ねがけすることができる。また、画像処理を設定するための設定メニューが階層構造となっている場合はユーザ操作が複雑となってしまうのに対し、本実施形態のデジタルカメラ1は、1つのリング画像50においてカーソル52を移動させるだけでよいので、ユーザにとって操作が簡単である。また、本実施形態のデジタルカメラ1では、画像処理の変化をスルー画上でリアルタイムに確認することができるので、初心者のユーザであっても自分の好みの画像処理を簡単に見つけて設定することができる。
(3)デジタルカメラ1において、画像処理選択部14cは、撮影シーン「人物」用のリング画像50pにおいて、位置選択部14bにより第1位置P1に隣接する第0位置P0が選択された場合には、第1画像処理~第4画像処理(「ポートレート」、「モノクローム」、「ハイキー」、「クロスプロセス(R)」)のいずれも選択しない。したがって画像処理部14dは、撮像画像に対して上記第1画像処理~第4画像処理のいずれも行わない。なお、撮影シーン「接写」用のリング画像50n、撮影シーン「風景」用のリング画像50g、および撮影シーン「その他」用のリング画像50sの場合も同様である。このような構成により、デジタルカメラ1では、位置選択部14bによる選択位置(カーソル52の位置)が第0位置P0である場合は、第1画像処理~第4画像処理のいずれも施されていない状態の撮像画像、すなわち元画像が表示部17に表示される。また、カーソル52の位置が第0位置P0から第1位置P1に移動する際、表示部17に表示される撮像画像が、元画像の状態から第1画像処理のみが施された状態へと変化することになる。これにより、ユーザにとって、画像処理の変化が開始されたことをわかりやすくすることができる。
(4)デジタルカメラ1において、撮影シーン「人物」用のリング画像50pを、リング51とカーソル52とを表示する画像とした。なお、撮影シーン「接写」用のリング画像50n、撮影シーン「風景」用のリング画像50g、および撮影シーン「その他」用のリング画像50sの場合も同様とした。これにより、カーソル52がリング51に沿って1回転分移動すると、元画像から第1画像処理、第2画像処理、第3画像処理、第4画像処理を経て第1画像処理に戻り、元画像に戻るという画像処理の変化がユーザにとって直観的にわかりやすい。したがって、ユーザは、ロータリーマルチセレクター16cによる回転操作を直観的に行って、撮像画像に施す画像処理を簡単に設定することができる。
(変形例1)
 上述した実施の形態では、ロータリーマルチセレクター16cの回転操作に応じて、リング画像50のカーソル52を移動する例について説明した。しかしながら、これに限らなくてよく、たとえば、デジタルカメラ1にタッチパネルを設け、タッチパネルに対するタッチ操作に応じて、リング画像50のカーソル52を移動するようにしてもよい。
 図8は、変形例1の場合において、クリエイティブモードで静止画を撮影する際の処理の流れを説明するフローチャートである。なお、図8に示す処理は、スルー画に対するタッチ操作に応じてシャッターを切る、いわゆるタッチシャッター機能を有する例を示している。静止画撮影モードがクリエイティブモードに切り替えられると、制御部14は、スルー画の表示を開始すると共に、不図示のメモリに記録された図8の処理を行うプログラムを起動して、図8の処理を開始する。
 ステップS101において、表示制御部14aは、上述した図5のステップS1と同様に、リング画像50の表示を開始し、ステップS102へ進む。このとき表示部17には、図9に示すように、リング画像50およびカーソル52に加え、表示切替ボタン70が表示される。この表示切替ボタン70は、リング画像50を非表示にするためのボタンである。
 ステップS102において、制御部14は、上述した図5のステップS2と同様に、シーン判別処理を開始して、ステップS103へ進む。
 ステップS103において、制御部14は、タッチパネルを介して、リング画像50に対するタッチ操作が行われたか否かを判定する。リング画像50に対するタッチ操作が行われていない場合は、制御部14は、ステップS103を否定判定し、ステップS103の処理を繰り返すと共にシーン判別処理を継続する。一方、ロータリーマルチセレクター16cが回転操作された場合には、制御部14は、ステップS103を肯定判定し、ステップS104へ進む。
 ステップS104において、シーン判別部14eは、シーン判別処理を停止して、リング画像50がタッチ操作された時点で判別された撮影シーンを、撮影シーンの判別結果として確定する。そして制御部14は、上述した図5のステップS4と同様に、判別された撮影シーンに応じた第1画像処理~第4画像処理の設定と絞り制御を行って、ステップS105へ進む。
 ステップS105において、制御部14は、上述した図5のステップS4と同様に、リング画像50のカーソル52の位置に応じた画像処理を撮像画像に施す処理を行って、ステップS106へ進む。なお、変形例1の場合、制御部14は、リング51に対するタッチ操作が行われると、リング51上でタッチ操作された位置に向かって所定の速度でカーソル52を移動し、その位置でカーソル52を停止する。カーソル52の位置が移動している間、カーソル52の位置に応じて撮像画像に施す画像処理が連続的に変更される。
 ステップS106において、制御部14は、タッチパネルを介して、表示切替ボタン70に対するタッチ操作が行われたか否かを判定する。表示切替ボタン70に対するタッチ操作が行われていない場合は、制御部14は、ステップS106を否定判定して、ステップS106に戻る。すなわち、制御部14は、表示切替ボタン70が押下されるまでは、リング画像50のカーソル52の位置に応じた画像処理を繰り返し行う。一方、表示切替ボタン70に対するタッチ操作が行われた場合には、制御部14は、ステップS106を肯定判定し、ステップS107へ進む。
 ステップS107において、画像処理選択部14cは、表示切替ボタン70がタッチ操作された時点のカーソル52の位置に応じて設定される画像処理を、静止画に施す画像処理として確定する。そして、表示制御部14aは、リング画像50を非表示にして、ステップS108へ進む。
 ステップS108において、制御部14は、タッチパネルを介して、スルー画に対するタッチ操作が行われたか否かを判定する。スルー画に対するタッチ操作が行われていない場合は、制御部14は、ステップS108を否定判定しステップS108の処理を繰り返す。一方、スルー画に対するタッチ操作が行われた場合には、制御部14は、ステップS108を肯定判定し、ステップS109へ進む。
 ステップS109において、制御部14は、上記タッチ操作された位置にピントが合うようにAF処理を行って、ステップS110へ進む。
 ステップS110において、制御部14は、上述した図5のステップS10と同様に、記録用の撮像処理を行い、得られた撮像画像データに対して、ステップS107で確定された画像処理を施して、静止画データとして記録媒体18に記録して、ステップS111へ進む。
 ステップS111において、制御部14は、スルー画の表示と、リング画像50の表示とを再度開始して、ステップS105に戻る。
 なお、図8に示す処理では、表示切替ボタン70によりリング画像50を非表示にする例について説明したが、たとえば、タッチパネルを介して所定のジェスチャ操作(たとえば、リング画像50を払うようなタッチ操作など)が行われると、リング画像50を非表示にするようにしてもよい。また、たとえば、タッチパネルを介して、スルー画上で円を描くようなジェスチャ操作が行われると、リング画像50を表示するようにしてもよい。
(変形例2)
 ロータリーマルチセレクター16cの回転操作に応じて、リング画像50のカーソル52を移動するデジタルカメラ1において、表示切替ボタン70を設けるようにしてもよい。リング画像50を表示させることで、スルー画の視認性が悪い場合、たとえば被写体の顔領域にリング画像50が重なった場合などに、ユーザが表示切替ボタン70を操作することによって、リング画像50を非表示とする制御を行う。リング画像50を非表示とした状態で、ロータリーマルチセレクター16cを回転操作することで、撮像画像に施す画像処理を変更できるようにしてもよい。
(変形例3)
 また、デジタルカメラ1に、デジタルカメラ1の筐体の傾きを検出する傾き検出センサ(たとえば、加速度センサなど)を設け、デジタルカメラ1を傾けるアクション操作に応じて、リング画像50のカーソル52を移動するようにしてもよい。この場合、制御部14は、たとえば、ユーザによりデジタルカメラ1を右側が下となるように傾けられた場合はカーソル52を時計周りに移動し、左側が下となるように傾けられた場合はカーソル52を反時計周りに移動する。
(変形例4)
 また、デジタルカメラ1に、フォーカスレンズを手動で移動するためのフォーカス環が設けられている場合は、フォーカス環に対する操作に応じて、リング画像50のカーソル52を移動するようにしてもよい。この場合、クリエイティブモードの間は、フォーカス環を、フォーカスレンズを移動する操作部材ではなく、リング画像50のカーソル52を移動する操作部材として機能させる。クリエイティブモードにおいて、制御部14は、たとえば、フォーカス環が時計周りに回転操作された場合はカーソル52を時計周りに移動し、フォーカス環が反時計回りに回転操作された場合はカーソル52を反時計周りに移動する。
(変形例5)
 デジタルカメラ1において、さらに、お気に入りの画像処理の設定を登録したり呼び出したりできる機能を設けるようにしてもよい。この場合、制御部14は、たとえば図10に示すように、リング画像50のリング51の内側にお気に入りBOXと書かれたアイコン80を表示する。ユーザは、ロータリーマルチセレクター16cを回転操作して撮像画像に施す画像処理を所望の画像処理に変更したときに、タッチパネルを介して、カーソル52をアイコン80まで移動させるドラッグアンドドロップ操作を行う。すると、制御部14は、その時点のカーソル52の位置に応じて設定されていた画像処理を、お気に入りの画像処理設定として登録し、その設定内容を不図示のメモリに記憶する。たとえば、カーソル52が「ポートレート」75%且つ「モノクローム」25%の位置にあるときに上記ドラッグアンドドロップ操作が行われると、制御部14は、この「ポートレート」75%且つ「モノクローム」25%という設定を、お気に入りの画像処理設定として登録する。
 また、ユーザが、タッチパネルを介して、アイコン80に対してタッチ操作を行うと、制御部14は、上述したようにして登録したお気に入りの画像処理設定をメモリから呼び出し、その画像処理設定に応じた位置にカーソル52を表示すると共に、その画像処理設定に基づく画像処理を撮像画像に施す。なお、お気に入りの画像処理設定を複数登録できるようにしてもよく、その場合は、アイコン80がタッチ操作されると、呼び出す画像処理設定を選択することができる選択画面を表示部17に表示するようにしてもよい。また、現在の撮影シーンと同じ撮影シーンのときに登録された画像処理設定を呼び出すようにしてもよいし、現在の撮影シーンと同じかどうかにかかわらず、登録された画像処理設定を呼び出してもよい。また、お気に入りの画像処理設定として登録した内容を、後から調整できるようにしてもよい。
(変形例6)
 デジタルカメラ1において、さらに、現在のカーソル52の位置に応じて設定している(すなわち撮像画像に施している)画像処理の内容をユーザが確認できるように、その内容を示す情報を表示部17に表示するようにしてもよい。たとえば、表示を切り替えるための操作部材(ディスプレイボタンなど)が操作されると、制御部14は、図11(a)に示すように、リング画像50のリング51の内側に、現在設定している画像処理の内容を示すテキスト情報91(たとえば、「彩度+10、コントラスト+5、ポートレート」など)を表示する。また、制御部14は、図11(b)に示すように、リング画像50のリング51の内側に、現在設定している画像処理の内容を示すレーダーチャート92を表示するようにしてもよい。図11(b)に示す例では、レーダーチャート92は、正六角形のレーダーチャートであり、彩度、コントラスト、明るさ、色相、効果、シャープの6つの項目について数値を示している。ユーザは、このような現在設定している画像処理の内容を参照することで、リング画像50の表示されない通常の撮影モードにおいても、画像処理の設定メニューなどを用いて上記画像処理の設定を再現することができる。
(変形例7)
 上述した実施の形態では、デジタルカメラ1において予め用意された画像処理の組合せがリング画像50に設定されているが、ユーザが、リング画像50に設定する画像処理の組合せを自分で作成できるようにしてもよい。以下、ユーザがリング画像50用に作成する画像処理の組合せをユーザセットと呼ぶ。
 たとえば、図12(a)に示すようなユーザセットの編集画面において、ユーザがリング画像50に設定する4種類の画像処理の組合せを自由に選択できるようにしてもよいし、画像処理の内容を示す名前も自由に編集できるようにしてもよい。この場合、リング画像50に設定できる画像処理について、予めデジタルカメラ1で用意されたものだけではなく、アプリケーションプログラムなどでデジタルカメラ1に追加していくようにしてもよい。
 また、図12(b)に示すようなユーザセットの編集画面において、たとえば第1画像処理と第2画像処理とを両方行う場合の比率を自由に編集できるようにしてもよい。
 また、ユーザ自身で作成したユーザセットの情報をインターネット上で公開し、他のユーザとやりとりできるようにしてもよい。たとえば、他のユーザが作成したユーザセットの情報をデジタルカメラ1にダウンロードして、図12(c)に示すような選択画面において、リング画像50に設定するユーザセットとして選択できるようにしてもよい。
 また、デジタルカメラ1に学習機能を設けるようにして撮像画像に施す画像処理の割合を自動的に変更されるようにしてもよい。このとき、学習機能はON状態とOFF状態とに切り替えられるようにする。学習機能がON状態の場合、制御部14は、ユーザが撮影で使用した画像処理の履歴を不図示のメモリに記憶していき、使用頻度の高い画像処理の割合を高く設定するようにしてもよい。
(変形例8)
 制御部14は、カーソル52が時計周りに移動する場合でも反時計回りに移動する場合でも撮像画像に施す画像処理の変化する順番が同じとなるように、カーソル52の移動方向に応じてリング画像50に設定する4種類の画像処理の順番を変化させるようにしてもよい。たとえば、撮影シーン「人物」の場合において、「ポートレート」、「モノクローム」、「ハイキー」、「クロスプロセス(R)」の順番が設定されているとする。制御部14は、撮影シーンを確定した時点のロータリーマルチセレクター16cの操作が時計周り方向である場合、「ポートレート」、「モノクローム」、「ハイキー」、「クロスプロセス(R)」の順で第1画像処理~第4画像処理をリング画像50に設定する。この場合、カーソル52は時計周りに移動するので、「ポートレート」、「モノクローム」、「ハイキー」、「クロスプロセス(R)」の順で画像処理が変化することとなる。一方、制御部14は、撮影シーンの確定をした時点のロータリーマルチセレクター16cの操作が時計周り方向である場合、「ポートレート」、「クロスプロセス(R)」、「ハイキー」、「モノクローム」、の順で第1画像処理~第4画像処理をリング画像50に設定する。この場合、カーソル52は反時計周りに移動するので、「ポートレート」、「モノクローム」、「ハイキー」、「クロスプロセス(R)」の順で画像処理が変化することとなる。したがって、カーソル52が時計周りに移動する場合でも反時計回りに移動する場合でも、撮像画像に施す画像処理の変化する順番が同じとなる。
(変形例9)
 上述した実施の形態では、撮影シーンが変わってリング画像50に設定される第1画像処理~第4画像処理の内容が変わっても、リング画像50の表示内容自体は変化させない例について説明した。しかしながら、制御部14は、撮影シーンが変わってリング画像50に設定される第1画像処理~第4画像処理の内容が変わった場合に、リング画像50の色を変化させるようにしてもよい。また、制御部14は、リング画像50に設定される第1画像処理~第4画像処理の内容を示すテキストをリング画像50の周囲に表示するようにしてもよい。
(変形例10)
 上述した実施の形態では、クリエイティブモードに切替えられるとリング画像50を表示して、カーソル52の位置に応じた画像処理を行う例について説明した。しかしながら、制御部14は、通常の撮影モードにおいて、所定のユーザ操作が行われるとリング画像50を表示して、カーソル52の位置に応じた画像処理を行うようにしてもよい。
(変形例11)
 上述した実施の形態では、リング画像50のカーソル52の移動に応じて、4種類の画像処理(第1画像処理~第4画像処理)の中から、撮像画像に施す画像処理を選択するようにした。しかしながら、撮像画像に施す画像処理の選択肢の数はこれに限らなくてよく、2種類または3種類であってもよいし、5種類以上であってもよい。
(変形例12)
 上述した実施の形態では、撮像画像に施す画像処理を選択するための画像として、リング画像50を用いる例について説明した。しかしながら、リングに限らなくてもよく、たとえば、バーとカーソルとを有する画像を表示し、バー上におけるカーソルの位置に応じて、撮像画像に施す画像処理を選択するようにしてもよい。
(変形例13)
 上述した実施の形態では、位置選択部14bにより選択されている位置を示すマークとしてカーソル52を表示する例について説明した。しかしながら、位置選択部14bにより選択されている位置を示すマークはカーソル52に限らなくてもよく、たとえば、アイコンなどであってもよい。またたとえば、リング画像50の目盛の色を変えたり点滅させたりすることで、位置選択部14bにより選択されている位置を示すマークとして機能させるようにしてもよい。
(変形例14)
 上述した実施の形態では、デジタルカメラ1の制御部14が不図示のメモリに記録されたプログラムを実行することで、上述した図5~図7の処理を行う例について説明した。このプログラムは、製品出荷時に予め記録されていてもよいし、製品出荷後、メモリカードなどの記録媒体やインターネットなどのデータ信号を通じて提供されてもよい。図13はその様子を示す図である。デジタルカメラ1は、メモリカードなどの記録媒体18を介してプログラムの提供を受ける。また、デジタルカメラ1は通信回線101との接続機能を有する。コンピュータ102は上記プログラムを提供するサーバコンピュータであり、ハードディスク103などの記録媒体にプログラムを格納する。通信回線101は、インターネット、パソコン通信などの通信回線、あるいは専用通信回線などである。コンピュータ102はハードディスク103を使用してプログラムを読み出し、通信回線101を介してプログラムをデジタルカメラ1に送信する。すなわち、プログラムをデータ信号として搬送波を介して、通信回線101を介して送信する。このように、プログラムは、記録媒体やデータ信号(搬送波)などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
(変形例15)
 上述した第一実施形態では、デジタルカメラに本発明を適用する例について説明したが、これに限らなくてよく、この他の撮像装置(たとえばカメラ付き携帯端末など、撮像手段を有する電子機器)に本発明を適用するようにしてもよい。
(第二実施形態)
 図14は、第二実施形態に係るデジタルカメラ1Bの構成を示すブロック図である。図14は、図1に例示した一部の構成が異なるのみであるが、別の実施形態として説明する。なお、図14において図1で用いた符号と共通する符号があるが、本実施形態の説明を適用する。
 デジタルカメラ1Bは、撮像光学系11と、撮像素子12と、レンズ駆動回路13と、制御部14と、操作部材16と、表示部17とを備えている。デジタルカメラ1Bには、例えばメモリカードなどの記録媒体18が着脱可能である。
 撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図14を簡単にするため、撮像光学系11を単レンズとして図示している。
 レンズ駆動回路13は、制御部14の制御のもと、撮像光学系11のズームレンズを駆動して焦点距離を調節するとともに、撮像光学系11のフォーカシングレンズを駆動して焦点調節を行う。
 撮像素子12は、例えばCMOS撮像素子などのイメージセンサであり、撮像光学系11により結像した被写体像を撮像して、得られた画像信号を制御部14へ出力する。
 制御部14は、表示制御部14aと、位置選択部14bと、画像処理部14cと、パラメータ変更部14dと、処理実行部14eとを有する。制御部14は、CPU、メモリ、およびその周辺回路から構成され、メモリに格納された制御プログラムを実行することにより、これらの各部の機能を実現している。各部の機能の内容については、後で詳しく説明する。
 操作部材16は、シャッターボタン16aと、表示部17上に配置されたタッチパネル16bと、を含む。タッチパネル16bは、タッチペンや指などの接触物が接触した接触位置を検出して、制御部14に接触位置を出力する。また、操作部材16は、この他、録画ボタン、モード切替ボタン、十字キー、OKボタン、ディスプレイボタンなどを含む。操作部材16は、ユーザ操作に応じた操作信号を制御部14へ出力する。
 表示部17は、デジタルカメラ1Bの背面に搭載された液晶モニタ(背面モニタ)等で構成され、撮像素子12で撮像された撮像画像や各種設定メニューなどが表示される。
 操作部材16からの操作信号に応じて撮影モードに設定されると、制御部14は、撮像素子12に所定のフレームレートでスルー画用の撮像処理を行わせ、撮像素子12から時系列で得られる各フレーム画像から表示用のフレーム画像を生成して表示部17に出力する。これによって表示部17には、スルー画がリアルタイムで表示される。
 撮影モードにおいてシャッターボタン16aが全押し操作されて静止画の撮影が指示されると、制御部14は、撮像素子12に静止画用の撮像処理を行わせ、撮像素子12から取得した画像信号に対して所定の画像処理を行って静止画データを生成し、JPEGなどの所定の方式により圧縮処理を行って、記録媒体18に記録する。
 また、操作部材16からの操作信号に応じて再生モードに設定されると、制御部14は、記録媒体18に記録された静止画データまたは動画データを読み出して再生し、表示部17に表示する。
 本実施形態のデジタルカメラ1Bでは、撮影モードとして、通常モードの他に、クリエイティブモードが設けられている。以下、このクリエイティブモードについて説明する。
 クリエイティブモードにおいて、制御部14の表示制御部14aは、図15に示すように、撮像画像に対して行う画像処理を変更するための画像(以下、リング画像と表記する)50を表示部17に表示する。リング画像50は、リング51とカーソル52とから構成される。カーソル52は、リング51上において、制御部14の位置選択部14bにより現在選択されている位置を示す。位置選択部14bは、タッチパネル16b上でのカーソル52に対するドラッグ操作(カーソル52の表示位置を指でタッチした後、タッチしたまま指を移動する操作)に応じて、選択位置(カーソル52の表示位置)をリング51に沿って移動させる。
 制御部14の画像処理部14cは、位置選択部14bによる選択位置(すなわちカーソル52の表示位置)に応じて、リング画像50に設定された4つの画像処理(以下、第1画像処理~第4画像処理と表記する)の中から1つまたは2つの画像処理を選択する。画像処理部14cは、表示部17に表示されるスルー画に対して、上記選択した画像処理を行う。
 リング画像50には、リング51の頂上地点P0から時計周りに第0位置~第65位置の66か所の位置が設定されており、その位置を示す目盛がリング51の内側に表示されている。リング51の頂上地点P0が第0位置であり、その右隣の位置P1が第1位置である。第0位置P0から時計周りに90度離れた位置P17が第17位置である。第1位置P1から第17位置P17の間には、第2位置~第16位置の15か所の位置が等間隔に設定される。第0位置P0から180度離れた位置P33が第33位置である。第17位置P17から第33位置P33の間には、第18位置~第32位置の15か所の位置が等間隔に設定される。第0位置P0から時計周りに270度離れた位置P49が第49位置である。第33位置P33から第49位置P49の間には、第34位置~第48位置の15か所の位置が等間隔に設定される。第0位置P0の左隣の位置P65は第65位置である。第49位置P49から第65位置P65の間には、第50位置~第64位置の15か所の位置が等間隔に設定される。カーソル52の各位置において選択される画像処理は、第一実施形態において図3を参照して説明したものと同様である。
 クリエイティブモードを開始した時点では、リング51の頂上地点(第0位置)P0にカーソル52が表示される。すなわち、位置選択部14bが第0位置を選択した状態となる。このとき、画像処理部14cは、スルー画に対して第1画像処理~第4画像処理を行わない。したがって、表示部17には、第1画像処理~第4画像処理のいずれも施していない状態のスルー画、すなわち元画像が表示される。
 カーソル52が第0位置P0の右隣の第1位置P1にある場合、すなわち位置選択部14bが第1位置P1を選択している場合には、画像処理部14cは第1画像処理のみを(すなわち第1画像処理を100%の比率で)撮像画像に施す。したがって、カーソル52が第0位置P0から第1位置P1に時計周りに移動すると、表示部17に表示されるスルー画は、元画像の状態から第1画像処理のみを施した状態へと変化する。
 カーソル52が第0位置P0から時計周りに90度離れた第17位置P17にある場合、すなわち位置選択部14bが第17位置P17を選択している場合には、画像処理部14cは第2画像処理のみを(すなわち第2画像処理を100%の比率で)撮像画像に施す。したがって、カーソル52が第1位置P1から第17位置P17へと時計周りに移動すると、表示部17に表示されるスルー画は、第1画像処理のみを施した状態から第2画像処理のみを施した状態へと変化する。このとき、表示部17に表示されるスルー画は、第1画像処理のみを施した状態から第2画像処理のみを施した状態へ16段階で徐々に遷移するようになっている。すなわち、カーソル52が第2位置から第16位置のいずれかにある間(位置選択部14bが第1位置P1と第17位置P17との間の位置を選択している場合には)、画像処理部14cは第1画像処理および第2画像処理の両方を撮像画像に対して行う(すなわち第1画像処理および第2画像処理を撮像画像に重ねがけする)。
 このとき画像処理部14cは、カーソル52の位置(すなわち位置選択部14bによる選択位置)に応じて、第1画像処理と第2画像処理の比率を変化させる。具体的には、画像処理部14cは、カーソル52の位置が第17位置P17へ向かう方向に移動する場合には、第1画像処理の比率を下げると共に第2画像処理の比率を上げるように変化させる。一方、画像処理部14cは、カーソル52の位置が第1位置P1へ向かう方向に移動する場合には、第1画像処理の比率を上げると共に第2画像処理の比率を下げるように変化させる。たとえば、画像処理部14cは、カーソル52が第5位置にあるときは、第1画像処理を75%、第2画像処理を25%の比率で、撮像画像に施す。また、画像処理部14cは、カーソル52が第9位置にあるときは、第1画像処理を50%、第2画像処理を50%の比率で、撮像画像に施す。また、画像処理部14cは、カーソル52が第13位置にあるときは、第1画像処理を25%、第2画像処理を75%の比率で、撮像画像に施す。なお、第1画像処理を75%の比率で行うとは、たとえば、撮像画像に第1画像処理のみを施したとき(すなわち第1画像処理を100%施したとき)における撮像画像の変化の度合いを100%としたときに、その度合いの75%程度撮像画像が変化するように第1画像処理を施すことである。
 カーソル52が第0位置P0から180度離れた第33位置P33にある場合、すなわち位置選択部14bが第33位置P33を選択している場合には、画像処理部14cは第3画像処理のみを撮像画像に施す。したがって、カーソル52が第17位置P17から第33位置P33へと時計周りに移動すると、表示部17に表示されるスルー画は、第2画像処理のみを施した状態から第3画像処理のみを施した状態へと変化する。
 このとき、表示部17に表示されるスルー画は、第2画像処理のみを施した状態から第3画像処理のみを施した状態へ16段階で徐々に遷移するようになっている。すなわち、カーソル52が第18位置から第32位置にある間(すなわち位置選択部14bが第17位置P17と第33位置P33との間の位置を選択している場合には)、画像処理部14cは第2画像処理および第3画像処理の両方を撮像画像に施す。このとき画像処理部14cは、カーソル52の位置が第17位置P17から第33位置P33へ向かう方向に移動する場合には、第2画像処理の比率を下げると共に第3画像処理の比率を上げるように変化させる。一方、画像処理部14cは、カーソル52の位置が第33位置P33から第17位置P17へ向かう方向に移動する場合には、第2画像処理の比率を上げると共に第3画像処理の比率を下げるように変化させる。
 カーソル52が第0位置P0から時計周りに270度離れた第49位置P49にある場合、すなわち、位置選択部14bが第49位置P49を選択している場合には、画像処理部14cは第4画像処理のみを撮像画像に施す。したがって、カーソル52が第33位置P33から第49位置P49へと時計周りに移動されると、表示部17に表示されるスルー画は、第3画像処理のみを施した状態から第4画像処理のみを施した状態へと変化する。
 このとき、表示部17に表示されるスルー画は、第3画像処理のみを施した状態から第4画像処理のみを施した状態へ16段階で徐々に遷移するようになっている。すなわち、カーソル52が第34位置から第48位置にある間(位置選択部14bが第33位置P33と第49位置P49との間の位置を選択している場合には)、画像処理部14cは第3画像処理および第4画像処理の両方を撮像画像に施す。このとき画像処理部14cは、カーソル52の位置が第33位置P33から第49位置P49へ向かう方向に移動する場合には、第3画像処理の比率を下げると共に第4画像処理の比率を上げるように変化させる。一方、画像処理部14cは、カーソル52の位置が第49位置P49から第33位置P33へ向かう方向に移動する場合には、第3画像処理の比率を上げると共に第4画像処理の比率を下げるように変化させる。
 カーソル52が第0位置P0の左隣の第65位置P65にある場合、すなわち、位置選択部14bが第65位置P65を選択している場合には、画像処理部14cは第1画像処理のみを撮像画像に施す。したがって、カーソル52が第49位置P49から第65位置P65へと時計周りに移動すると、表示部17に表示されるスルー画は、第4画像処理のみを施した状態から第1画像処理のみを施した状態へと変化する。
 このとき、表示部17に表示されるスルー画は、第4画像処理のみを施した状態から第1画像処理のみを施した状態へ16段階で徐々に遷移するようになっている。すなわち、カーソル52が第50位置から第64位置にある間(位置選択部14bが第49位置P49と第65位置P65との間の位置を選択している場合には)、画像処理部14cは第4画像処理および第1画像処理の両方を撮像画像に施す。このとき画像処理部14cは、カーソル52の位置が第49位置P49から第65位置P65へ向かう方向に移動する場合には、第4画像処理の比率を下げると共に第1画像処理の比率を上げるように変化させる。一方、画像処理部14cは、カーソル52の位置が第65位置P65から第49位置P49へ向かう方向に移動する場合には、第4画像処理の比率を上げると共に第1画像処理の比率を下げるように変化させる。
 また、カーソル52が第65位置P65から第0位置P0へと時計周りに移動すると、表示部17に表示するスルー画は、第1画像処理のみ施した状態から元画像の状態へと戻る。
 このように、カーソル52が第0位置P0から時計周りに1回転すると、撮像画像に施される画像処理が、元画像から、第1画像処理、第2画像処理、第3画像処理、第4画像処理の順で連続的に変更された後、再度第1画像処理に戻って、元画像に戻る。また、カーソル52が反時計回りに1回転する場合は、撮像画像に施される画像処理は、上述した時計周りに1回転する場合と逆の順で変化する。また、必ずしもカーソル52が1回転しなくてもよく、たとえば、カーソル52が時計周りに半周回転した後に反時計回りに移動して、画像処理の変化を戻すことも可能となっている。
 次に、リング画像50に設定される第1画像処理~第4画像処理の内容について、詳しく説明する。なお、本説明において、画像処理には、たとえば彩度やコントラスト、ホワイトバランスなどのパラメータを変えることで画作りを行う処理や、たとえばフィルタをかけてぼかしたり周辺を暗くしてトイカメラ風にしたりするなど画像効果をかける処理が含まれるとする。クリエイティブモードでは、撮影シーンを判別するシーン判別処理を行い、判別した撮影シーンに応じた4つの画像処理を、第1画像処理~第4画像処理としてリング画像50に設定するようになっている。すなわち、判別される撮影シーンによって、リング画像50に設定される第1画像処理~第4画像処理の内容が異なっている。
 判別される撮影シーンとしては、人物を撮影するシーンである「ポートレート」、被写体に接近して撮影するシーンである「接写」、風景を撮影するシーンである「風景」、「ポートレート」、「接写」、「風景」のいずれでもないシーンである「その他」の4種類である。なお、判別される撮影シーンの種類は一例であり、この他種々の撮影シーンを判別してもよい。撮影シーンの判別方法は、公知の方法を用いるものとする。制御部14は、たとえば、撮像素子12からの画像信号に基づく情報(輝度や色バランス(R/G比、B/G比)など)や、カメラ設定情報(撮像光学系11の焦点距離や撮影倍率など)に基づいて撮影シーンを判別する。
 図4を参照して、撮影シーンに応じた第1画像処理~第4画像処理の組合せを説明する。デジタルカメラ1Bでは、撮影シーンごとに、それぞれの撮影シーンに適した4種類の画像処理が第1画像処理~第4画像処理として予め設定されている。たとえば、撮影シーン「人物」用のリング画像50pには、第1画像処理として「ポートレート」、第2画像処理として「モノクローム」、第3画像処理として「ハイキー」、第4画像処理として「クロスプロセス(R)」が設定される。撮影シーン「接写」用のリング画像50nには、第1画像処理として「ビビッド」、第2画像処理として「ハイキー」、第3画像処理として「トイカメラ」、第4画像処理として「セレクトカラー」が設定される。撮影シーン「風景」用のリング画像50gには、第1画像処理として「クロスプロセス(B)」、第2画像処理として「風景」、第3画像処理として「フィルターモノクロ(セピア)」、第4画像処理として「アヴァンギャルド」が設定される。撮影シーン「その他」用のリング画像50sには、第1画像処理として「アヴァンギャルド」、第2画像処理として「モノクローム」、第3画像処理として「トイカメラ」、第4画像処理として「クロスプロセス(G)」が設定される。なお、図4では説明のため、撮影シーンおよび第1画像処理~第4画像処理の内容を示すテキストを記載しているが、実際の表示部17の表示画面では、当該テキストは表示されず、リング51とカーソル52のみが表示される。すなわち、リング画像50p、50n、50g、50sは、表示部17の表示画面ではどの撮影シーンでも同じ画像として(すなわち同じ表示内容で)表示される。
 「ポートレート」は、人物の肌をきれいに見せる画作りを行うための画像処理である。「モノクローム」は、白黒の濃淡のみの画作りを行うための画像処理である。「ハイキー」は、画面全体が明るく陰影の少ない画作りを行うための画像処理である。「クロスプロセス(R)」、「クロスプロセス(G)」、および「クロスプロセス(B)」は、クロスプロセス(ポジフィルムを使いネガ用の現像を行う銀塩写真の手法)を行ったような画像効果を得るための画像処理である。なお、「クロスプロセス(R)」では赤みの強い画像が得られ、「クロスプロセス(G)」では緑みの強い画像が得られ、「クロスプロセス(B)」では青みの強い画像が得られる。「ビビッド」は、コントラストが強調された色鮮やかな画作りを行うための画像処理である。「トイカメラ」は、トイカメラで撮影したような画像効果を得るための画像処理である。「セレクトカラー」は、特定の色だけを残してその他をモノクロに変化した画像効果を得るための画像処理である。「風景」は、自然や街並みなどの景観に適した画作りを行うための画像処理である。「フィルターモノクロ(セピア)」は、セピア色の濃淡のみの画作りを行うための画像処理である。「アヴァンギャルド」は、「ビビッド」よりもさらにコントラストと彩度を上げて独特の画作りを行うための画像処理である。
 なお、リング画像50に第1画像処理~第4画像処理として設定する画像処理の組合せの情報は、撮影シーンごとにデジタルカメラ1B内の不図示のメモリに予め記憶されており、この情報とシーン判別結果に基づいて、第1画像処理~第4画像処理がリング画像50に設定される。
 また、クリエイティブモードにおいて、表示制御部14aは、図16に示すようなダイヤル画像60を表示部17に表示する。ダイヤル画像60は、「-3」~「+3」の数値が表示されたダイヤル61と、矢印マーク62とから構成される。制御部14のパラメータ変更部14dは、タッチパネル16b上でのダイヤル61に対するドラッグ操作に応じてダイヤル61を回転させ、ダイヤル61において矢印マーク62の最も近傍の数値を、ダイヤル画像60の設定値とする。
 次に、ダイヤル画像60の機能について、図17を用いて説明する。図17に示すように、リング画像50においてカーソル52の位置が第0位置P0にある状態では、ダイヤル画像60の機能は、デジタルカメラ1Bの撮影設定機能となる。撮影設定とは、たとえば、明るさ設定(すなわち露出設定)またはフォーカス位置の設定である。
 ダイヤル画像60の機能が露出設定機能である場合、制御部14の処理実行部14eは、ダイヤル画像60の設定値に応じて、撮像画像の露出を設定する露出設定処理を実行する。たとえば、設定値が「0」である場合、処理実行部14eは撮像画像の露出設定を適正露出とする。設定値がプラス(「+1」,「+2」,「+3」)である場合は、処理実行部14eは撮像画像の露出設定を適正露出よりも露出オーバーとし、設定値が大きいほど明るくなるように設定する。一方、設定値がマイナス(「-1」,「-2」,「-3」)である場合は、処理実行部14eは撮像画像の露出設定を適正露出よりも露出アンダーとし、設定値が小さい(すなわち絶対値が大きい)ほど暗くなるように設定する。
 ダイヤル画像60の機能がフォーカス位置設定機能である場合、制御部14の処理実行部14eは、ダイヤル画像60の設定値に応じて、撮像画像のフォーカス位置を設定するフォーカス位置設定処理を実行する。たとえば、設定値が「0」である場合、処理実行部14eは、たとえば被写体検出処理によって検出された被写体にピントが合うようにフォーカス位置を設定する。設定値がプラス(「+1」,「+2」,「+3」)である場合は、処理実行部14eは、フォーカス位置を設定値が「0」の場合よりも後ピン側とし、設定値が大きいほどより後ピン側となるように設定する。一方、設定値がマイナス(「-1」,「-2」,「-3」)である場合は、処理実行部14eは、フォーカス位置を設定値が「0」の場合よりも前ピン側とし、設定値が大きいほどより前ピン側となるように設定する。
 上述したように、リング画像50においてカーソル52が第0位置P0にある状態では、表示部17に表示されるスルー画が元画像となる。この状態で、ユーザがダイヤル画像60を操作して撮影設定を変更すると、スルー画として表示される元画像にその変更が反映される。したがって、ユーザは、当該変更の結果をスルー画で確認しながら、ダイヤル画像60を操作して、撮影設定を好みの設定に変更することができる。
 なお、カーソル52が第0位置P0にあるときのダイヤル画像60の機能を、露出設定機能またはフォーカス位置設定機能のどちらにするかについては、たとえば、予めデジタルカメラ1Bの設定メニューなどでユーザに設定させるようにしてもよい。
 また、リング画像50においてカーソル52の位置が第1位置P1にある状態では、ダイヤル画像60の機能は、リング画像50に第1画像処理として設定する画像処理を切り替える機能となる。処理実行部14eは、ダイヤル画像60の設定値に応じて第1画像処理として用いる画像処理を変更する処理を行う。たとえば、撮影シーンが「人物」と判別されたとき、リング画像50において、第1画像処理は「ポートレート」に設定されている。この場合、処理実行部14eは、設定値が「0」のときは、第1画像処理として「ポートレート」を設定する(すなわち第1画像処理として用いる画像処理を変更しない)。また、処理実行部14eは、設定値が「+1」のときは、第1画像処理として「ビビッド」を選択し、設定値が「+2」のときは第1画像処理として「トイカメラ」を選択し、設定値が「+3」のときは第1画像処理として「セレクトカラー」を設定する。また、処理実行部14eは、設定値が「-1」のときは第1画像処理として「クロスプロセス(B)」を選択し、設定値が「-2」のときは第1画像処理として「フィルターモノクロ(セピア)」を選択し、設定値が「-3」のときは第1画像処理として「アヴァンギャルド」を設定する。すなわち、処理実行部14eは、設定値が「0」以外のときは、第1画像処理として用いる画像処理を変更する。
 上述したように、リング画像50においてカーソル52が第1位置P1にある状態では、第1画像処理のみが施されたスルー画が表示部17に表示される。この状態で、ユーザがダイヤル画像60を操作して、リング画像50の第1画像処理として用いる画像処理を変更すると、スルー画にその変更が反映される。したがってユーザは、当該変更の結果をスルー画で確認しながら、ダイヤル画像60を操作して、リング画像50に第1画像処理として設定する画像処理を好みの画像処理に変更することができる。
 また、リング画像50においてカーソル52の位置が第2位置~第16位置(すなわち第1位置P1と第17位置P17の間)にある状態では、ダイヤル画像60の機能は、画像処理部14cがカーソル52の位置に応じて第1画像処理と第2画像処理の比率を変化させる際の変化の仕方を変更する機能となる。処理実行部14eは、ダイヤル画像60の設定値に応じて、第1画像処理と第2画像処理の比率の変化の仕方を変更する処理を行う。
 図18は、第1画像処理および第2画像処理の比率を変化させるための変化曲線を説明する図である。ここでは3種類の変化曲線K0,K+,K-が用意されている。図18において、横軸はリング画像50上での位置を示す。縦軸は、変化曲線から上側が第1画像処理の比率を示し、変化曲線から下側が第2画像処理の比率を示す。どの変化曲線においても、第1位置P1では第1画像処理が100%で第2画像処理が0%であり、第17位置P17では第1画像処理が0%で第2画像処理が100%である。
 処理実行部14eは、設定値が「0」のときは、第1画像処理および第2画像処理の比率を変化曲線K0に沿って変化させる。変化曲線K0は直線である。したがって、変化曲線K0では、カーソル52が第1位置P1から第17位置P17まで移動する際、第1画像処理の比率は100%から0%まで直線的に変化し、第2画像処理の比率は0%から100%まで直線的に変化する。すなわち、カーソル52の移動距離に対するスルー画の変化の度合いは一定となっている。
 処理実行部14eは、設定値がプラス(「+1」,「+2」,「+3」)のときは、第1画像処理および第2画像処理の比率を変化曲線K+に沿って変化させる。変化曲線K+は、図18において上側に膨らんだ曲線である。したがって、変化曲線K+では、カーソル52が第1位置P1から第17位置P17まで移動する際、変化曲線K0に比べて第1画像処理の比率が低くなる(つまり第2画像処理の比率が高くなる)のが速くなっている。すなわち、カーソル52が第1位置P1の近くにいるほどカーソル52の移動距離に対するスルー画の変化の度合いが大きく、第17位置P17の近くにいるほどカーソル52の移動距離に対するスルー画の変化の度合いが小さくなっている。
 処理実行部14eは、設定値がマイナス(「-1」,「-2」,「-3」)のときは、第1画像処理および第2画像処理の比率を変化曲線K-に沿って変化させる。変化曲線K-は、図18において下側に膨らんだ曲線である。したがって、変化曲線K-では、カーソル52が第1位置P1から第17位置P17まで移動する際、変化曲線K0に比べて第1画像処理の比率が低くなる(つまり第2画像処理の比率が高くなる)のが遅くなっている。すなわち、カーソル52が第1位置P1の近くにいるほどカーソル52の移動距離に対するスルー画の変化の度合いが小さく、第17位置P17の近くにいるほどカーソル52の移動距離に対するスルー画の変化の度合いが大きくなっている。
 このように、リング画像50においてカーソル52が第2位置から第16位置にある状態では、ユーザは、ダイヤル画像60を操作して、第1画像処理と第2画像処理の比率の変化の仕方を、所望に応じて調整することができる。
 また、リング画像50においてカーソル52の位置が第17位置P17にある状態では、ダイヤル画像60の機能は、リング画像50に第2画像処理として設定する画像処理を変更する機能となる。すなわち、処理実行部14eは、ダイヤル画像60の設定値に応じて、リング画像50に第2画像処理として設定する画像処理を変更する処理を行う。具体的な処理は、カーソル52の位置が第1位置P1にある場合と同様であるため、説明を省略する。
 また、リング画像50においてカーソル52の位置が第18位置~第32位置にある状態では、ダイヤル画像60の機能は、画像処理部14cがカーソル52の位置に応じて第2画像処理と第3画像処理の比率を変化させる際の変化の仕方を変更する機能となる。すなわち、処理実行部14eは、ダイヤル画像60の設定値に応じて、第2画像処理と第3画像処理の比率の変化の仕方を変更する処理を行う。具体的な処理は、カーソル52の位置が第2位置~第16位置にある場合と同様であるため、説明を省略する。
 また、リング画像50においてカーソル52の位置が第33位置P33にある状態では、ダイヤル画像60の機能は、リング画像50に第3画像処理として設定する画像処理を変更する機能となる。すなわち、処理実行部14eは、ダイヤル画像60の設定値に応じて、リング画像50に第3画像処理として設定する画像処理を変更する処理を行う。具体的な処理は、カーソル52の位置が第1位置P1にある場合と同様であるため、説明を省略する。
 また、リング画像50においてカーソル52の位置が第34位置~第48位置にある状態では、ダイヤル画像60の機能は、画像処理部14cがカーソル52の位置に応じて第3画像処理と第4画像処理の比率を変化させる際の変化の仕方を変更する機能となる。すなわち、処理実行部14eは、ダイヤル画像60の設定値に応じて、第3画像処理と第4画像処理の比率の変化の仕方を変更する処理を行う。具体的な処理は、カーソル52の位置が第2位置~第16位置にある場合と同様であるため、説明を省略する。
 また、リング画像50においてカーソル52の位置が第49位置P49にある状態では、ダイヤル画像60の機能は、リング画像50に第4画像処理として設定する画像処理を変更する機能となる。すなわち、処理実行部14eは、ダイヤル画像60の設定値に応じて、リング画像50に第4画像処理として設定する画像処理を変更する処理を行う。具体的な処理は、カーソル52の位置が第1位置P1にある場合と同様であるため、説明を省略する。
 また、リング画像50においてカーソル52の位置が第50位置~第64位置にある状態では、ダイヤル画像60の機能は、画像処理部14cがカーソル52の位置に応じて第4画像処理と第1画像処理の比率を変化させる際の変化の仕方を変更する機能となる。すなわち、処理実行部14eは、ダイヤル画像60の設定値に応じて、第4画像処理と第1画像処理の比率の変化の仕方を変更する処理を行う。具体的な処理は、カーソル52の位置が第2位置~第16位置にある場合と同様であるため、説明を省略する。
 また、リング画像50においてカーソル52の位置が第65位置P65にある状態では、ダイヤル画像60の機能は、リング画像50に第1画像処理として設定する画像処理を変更する機能となる。すなわち、処理実行部14eは、ダイヤル画像60の設定値に応じて、リング画像50に第1画像処理として設定する画像処理を変更する処理を行う。具体的な処理は、カーソル52の位置が第1位置P1にある場合と同様であるため、説明を省略する。
 以上のように、ダイヤル画像60の機能は、リング画像50のカーソル52の位置、すなわち位置選択部14bによる選択位置に応じて異なっている。
 次に、クリエイティブモードにおいて、制御部14が実行する処理の流れを、図19および図20に示すフローチャートを用いて説明する。撮影モードがクリエイティブモードに切り替えられると、制御部14は、スルー画の表示を開始すると共に、不図示のメモリに記録された図19および図20の処理を行うプログラムを起動して、当該処理を開始する。
 ステップS1において、表示制御部14aは、リング画像50の表示を開始して、ステップS2へ進む。
 ステップS2において、制御部14は、撮影シーンを判別するシーン判別処理を開始して、ステップS3へ進む。なお、シーン判別処理は、所定時間おきに繰り返し行う。また、制御部14は、シーン判別処理を適切に行うために、繰り返しAF(Auto Focus)処理を行って、任意の被写体にピントを合わせる。
 ステップS3において、制御部14は、タッチパネル16bを介して、リング画像50のカーソル52に対するドラッグ操作が行われたか否かを判定する。当該ドラッグ操作が行われていない場合は、制御部14は、ステップS3を否定判定し、ステップS3の処理を繰り返すと共にシーン判別処理を継続する。一方、当該ドラッグ操作が行われた場合には、制御部14は、ステップS3を肯定判定し、ステップS4へ進む。
 ステップS4において、制御部14は、シーン判別処理を停止して、上記ドラッグ操作が行われた時点で判別された撮影シーンを、撮影シーンの判別結果として確定する。そして制御部14は、図4を用いて上述したように、当該確定した撮影シーンに応じた第1画像処理~第4画像処理をリング画像50に設定する。
 また、制御部14は、ステップS4で確定した撮影シーンに応じて撮像光学系11の絞り値を制御する。本実施形態では、撮影シーンごとに、最適な絞り値が予め対応付けられてデジタルカメラ1B内の不図示のメモリに記憶されている。たとえば、撮影シーン「人物」に対しては開放絞り値が対応付けられ、撮影シーン「風景」に対しては絞り値F8が対応づけられている。制御部14は、上記確定した撮影シーンに対応付けられた絞り値となるように、撮像光学系11の絞り値を制御する。これ以降、制御部14は、スルー画用および静止画用の撮像処理において、絞り優先モードで露出制御(シャッタースピードやISO感度などの制御)を行う。
 ステップS5において、制御部14は、上述したように、リング画像50のカーソル52の位置に応じた画像処理を撮像画像に施す処理を行う。この処理の流れを、図21に示すフローチャートを用いて説明する。ステップS51において、位置選択部14bは、リング画像50のカーソル52に対するドラッグ操作に応じて、カーソル52の位置(すなわち選択位置)を移動させ、ステップS52へ進む。
 ステップS52において、画像処理部14cは、上記図15および図3を用いて説明したように、カーソル52の位置に応じた画像処理を撮像画像に施して、ステップS53へ進む。
 ステップS53において、表示制御部14aは、画像処理部14cによって画像処理が施された撮像画像をスルー画として表示部17に表示する。その後、制御部14は、図21の処理を終了して、図19のステップS6に進む。
 ステップS6において、制御部14は、上述したように、ダイヤル画像60の設定値に応じた処理を行う。この処理の流れを図22に示すフローチャートを用いて説明する。ステップS61において、パラメータ変更部14dは、ダイヤル画像60のダイヤル61に対するドラッグ操作に応じてダイヤル61を回転させて、ダイヤル画像60の設定値を変更して、ステップS62に進む。
 ステップS62において、処理実行部14eは、上記図17を用いて説明したように、リング画像50のカーソル52の位置、すなわち位置選択部14bが選択している位置に対応する処理を、ダイヤル画像60の設定値に応じて行う。その後、制御部14は、図22の処理を終了して、図20のステップS7に進む。
 ステップS7において、制御部14は、シャッターボタンが半押し操作されたか否かを判定する。シャッターボタンが半押し操作されていない場合は、制御部14は、ステップS7を否定判定してステップS5に戻る。すなわち、制御部14は、シャッターボタンが半押し操作されるまでは、リング画像50のカーソル52の位置に応じた画像処理(図21)とダイヤル画像60の設定値に応じた処理(図22)を繰り返し行う。一方、シャッターボタンが半押し操作された場合には、制御部14は、ステップS7を肯定判定し、ステップS8へ進む。
 ステップS8において、画像処理部14cは、シャッターボタンが半押し操作された時点でリング画像50のカーソル52の位置に応じて設定される画像処理(すなわちその時点で撮像画像に施されている画像処理)を、静止画に施す画像処理として確定する。そして、表示制御部14aは、リング画像50およびダイヤル画像60を非表示にして、ステップS9へ進む。
 ステップS9において、制御部14は、ピント位置を固定するシングルAFモードと動く被写体にピントを追従させるコンティニュアスAFモードとを自動で切り替える自動モード切替AFモードでAF処理を行い、ステップS10へ進む。自動モード切替AFモードでは、シャッターボタンの半押し操作時点で被写体にピントを合わせ、ピント位置をいったん固定する。その後、被写体が動き出して、デジタルカメラ1Bと被写体の距離が変わった場合には、自動的にコンティニュアスAFモードに切り替わり、被写体にピントを合わせ続ける。
 ステップS10において、シャッターボタンが全押し操作されたか否かを判定する。シャッターボタンが全押し操作されていない場合は、制御部14は、ステップS10を否定判定しステップS10の処理を繰り返す。一方、シャッターボタンが全押し操作された場合には、制御部14は、ステップS10を肯定判定し、ステップS11へ進む。
 ステップS11において、制御部14は、撮像素子12に静止画用の撮像処理を行わせる。画像処理部14cは、当該撮像処理により得られた撮像画像データに対して、ステップS8で確定した画像処理を施す。そして、制御部14は、当該画像処理が施された撮像画像データを、静止画データとして記録媒体18に記録して、ステップS12へ進む。
 ステップS12において、制御部14は、スルー画の表示と、リング画像50およびダイヤル画像60の表示とを再度開始して、図19のステップS5に戻る。すなわち、いったん静止画撮影が終了した後においても、リング画像50に設定される第1画像処理~第4画像処理については、ステップS4での設定が保持される。これは、静止画撮影のたびに、リング画像50に設定される第1画像処理~第4画像処理が変化すると、ユーザにとってわかりにくくなることを考慮したためである。
 リング画像50の表示中において、ユーザが現在リング画像50に設定されている第1画像処理~第4画像処理を変更したい場合には、操作部材16のOKボタンを押下することで、第1画像処理~第4画像処理のリセット操作を行えるようになっている。リング画像50の表示中にOKボタンが押下されると、制御部14は、リング画像50における第1画像処理~第4画像処理の設定を解除(リセット)する。また、位置選択部14bは、カーソル52の位置を初期位置(第0位置)P0に戻す。その後、制御部14は図19に示す処理をステップS2から再度開始する。
 なお、クリエイティブモードにおいて、リング画像50のカーソル52に対するドラッグ操作が一度も行われないままシャッターボタンが半押し操作された場合には、制御部14は、リング画像50を非表示にして、通常モードと同様の処理を行う。すなわち、制御部14は、上記自動モード切替AFモードで、AF処理を行う。その後、シャッターボタンが全押し操作されると、制御部14は、撮像素子12に静止画用の撮像処理を行わせ、得られた撮像画像データを静止画像データとして記録媒体18に記録する。その後、制御部14は、再度、図19のステップS1に戻って処理を開始する。
 以上説明した第二実施形態によれば、次の作用効果が得られる。
 デジタルカメラ1Bにおいて、画像処理部14cは、リング画像50のカーソル52の位置、すなわち位置選択部14bによる選択位置に応じて、撮像画像に施す画像処理を変更する。また、表示制御部14aは、第1画像処理~第4画像処理とは異なり且つ撮像画像に対する所定の処理用のパラメータ(設定値)を変更するためのダイヤル画像60を表示部17に表示する。パラメータ変更部14dは、ダイヤル画像60に対するドラッグ操作に応じて、上記パラメータ(設定値)を変更する。処理実行部14eは、パラメータ変更部14dにより変更されたパラメータ(設定値)を用いて上記所定の処理を行う。上記所定の処理は、位置選択部14bが第0位置P0を選択している場合と、第1位置P1、第17位置P17、第33位置P33、第49位置P49、第65位置P65のいずれかを選択している場合と、第2位置~第16位置、第18位置~第32位置、第34位置~第48位置、第50位置~第64位置のいずれかを選択している場合とで異ならせる。位置選択部14bが第0位置P0を選択している場合には、上記所定の処理は、上述した撮影設定処理となる。位置選択部14bが第1位置P1、第17位置P17、第33位置P33、第49位置P49、第65位置P65のいずれかを選択している場合には、上記所定の処理は、リング画像50に第1画像処理~第4画像処理として設定する画像処理を変更する処理となる。位置選択部14bが、第2位置~第16位置、第18位置~第32位置、第34位置~第48位置、第50位置~第64位置のいずれかを選択している場合には、上記所定の処理は、撮像画像に施す2つの画像処理の比率における変化の仕方を変更する処理となる。以上のように、デジタルカメラ1Bでは、リング画像50のカーソル52の位置を移動するという簡単な操作によって、撮像画像に施す画像処理の内容を変更することができる。また、デジタルカメラ1Bでは、ダイヤル画像60に対する操作によって、他の設定(撮影設定の変更や、リング画像50に設定する画像処理の変更、撮像画像に施す2つの画像処理の比率の変更など)も簡易な操作で行うことができる。さらに、ダイヤル画像60はリング画像50のカーソル52の位置に応じて機能が変わるので、ユーザは、ダイヤル画像60を操作するだけで種々の設定を行うことができる。したがって、設定メニューが多数設けられていたり、設定メニューが階層的に設けられていたりする場合と比較して、本実施形態のデジタルカメラ1Bでは、ダイヤル画像60を操作するだけでよいので、ユーザが迷うことなく簡単に種々の設定を行うことができる。
 また、上述した特許文献1に記載の従来技術では、色々な画像効果を組み合わせて使用する場合の操作方法として、以下の方法が開示されている。デジタルカメラは、複数用意された画像効果の中から1つ以上を選択するエフェクトメニュー、または、選択した画像効果の効果レベルを調整するスライドメニューをライブビュー画像の上に表示する。デジタルカメラは、エフェクトメニューとスライドメニューで選択した画像効果をライブビュー画像に反映する。
 しかしながら、上記従来技術では、複数の画像効果を選択する際に、どのエフェクトメニューを選択したら好みの画像処理になるかをユーザがあらかじめ知っておかないと、ユーザ好みの画像効果を設定できないという問題がある。また、複数の画像効果レベルについても、画像効果と同様のことが言え、画像効果レベルを変えるとどの程度変化するのかをユーザがあらかじめ知っておかないと、ユーザ好みの画像効果レベルを設定できないという問題がある。これに対して、本実施形態のデジタルカメラ1Bでは、撮影シーンごとに、それぞれの撮影シーンに適した画像処理をリング画像50に設定する。したがって、ユーザは、画像処理に関する知識がなくても、撮影シーンに適した画像処理の中から所望の画像処理を選択することができる。
 さらに、上記従来技術では、複数の画像効果はエフェクトメニューで設定できるが、画像効果レベルは1階層下のスライドメニューで設定するため、階層を移動させる操作が必要になるという問題がある。また、画像効果と画像効果レベル以外は、デジタルカメラの仕様にもよるが、別のメニューでの設定となるか、または、設定不可であるため、ユーザの操作が煩雑になる、または、設定できないという問題がある。これに対して、本実施形態のデジタルカメラ1Bでは、リング画像50に加えてダイヤル画像60を表示するようにした。そして、デジタルカメラ1Bでは、ダイヤル画像60に対する操作に応じて、撮影設定の変更や、リング画像50に設定する画像処理の変更、撮像画像に施す画像処理の比率における変化の仕方の変更を行えるようにした。これにより、撮像画像に施す画像処理に加え、他の設定についても簡単な操作で行うことができる。
(変形例1)
 たとえばリング画像50のカーソル52が第1位置P1にあるときに、ダイヤル画像60の操作によって選択できる画像処理の選択肢として、第2~第4画像処理として設定されている画像処理が含まれていてもよい。この場合、処理実行部14eは、カーソル52が第1位置P1にあるときのダイヤル画像60に対する操作によって、第1画像処理として、現在第2画像処理として設定されている画像処理が選択された場合には、第1画像処理および第2画像処理として設定する画像処理を入れ替えるようにしてもよい。
 たとえば、撮影シーンが「人物」と判別されたときには、リング画像50において、第1画像処理は「ポートレート」に設定されており、第2画像処理は「モノクローム」に設定されている。この場合に、カーソル52が第1位置P1にあるときのダイヤル画像60に対する操作によって、第1画像処理として「モノクローム」が設定された場合には、第2画像処理を「ポートレート」に設定する。
 なお、リング画像50のカーソル52が第17位置P17、第33位置P33、第49位置P49、第65位置P65にある場合も、第1位置P1の場合と同様にしてもよい。
(変形例2)
 上述した実施の形態では、リング画像50のカーソル52が第1位置P1にある場合は、ダイヤル画像60の操作によって第1画像処理のみを変更する例について説明したが、第1画像処理~第4画像処理の全てを一度に変更するようにしてもよい。たとえば、撮影シーンが「人物」と判別されている場合には、「人物」に対応する4つの画像処理が第1画像処理~第4画像処理として設定されている。このとき、処理実行部14eは、たとえば、設定値が「+1」のときは、第1画像処理~第4画像処理を、撮影シーン「接写」に対応する4つの画像処理に変更する。
 リング画像50のカーソル52が第17位置P17、第33位置P33、第49位置P49、第65位置P65にある場合も同様に、ダイヤル画像60の操作によって第1画像処理~第4画像処理の全てを一度に変更するようにしてもよい。
(変形例3)
 リング画像50のカーソル52が第17位置P17にある場合は、ダイヤル画像60の操作によって第2画像処理を他の画像処理に変更可能となるが、選択肢の一つとして「なし」を選択できるようにしてもよい。たとえば、処理実行部14eは、ダイヤル画像60の設定値が「+3」のときには第2画像処理を「なし」に設定する。この設定の場合、画像処理部14cは、カーソル52が第2位置から第32位置のいずれかにあるとき、スルー画に第1画像処理と第3画像処理を重ね掛けするようにする。また、画像処理部14cは、カーソル52が第33位置P33へ向かう方向に移動する場合には、第1画像処理の比率を下げると共に第3画像処理の比率を上げるように変化させ、カーソル52が第1位置P1へ向かう方向に移動する場合には、第1画像処理の比率を上げると共に第3画像処理の比率を下げるように変化させる。
 なお、リング画像50のカーソル52が第33位置P33、第49位置P49にある場合も同様に、ダイヤル画像60において選択肢の一つとして「なし」を選択できるようにしてもよい。
(変形例4)
 上述した実施の形態では、リング画像50のカーソル52が第2位置~第16位置のいずれかにある場合は、ダイヤル画像60の操作によって、第1画像処理および第2画像処理の比率を変化させるための変化曲線を3種類の中から選択できる例について述べた。しかしながら、処理実行部14eは、リング画像50のカーソル52の位置とダイヤル画像60の設定値に応じて、上記変化曲線の形状を変更するようにしてもよい。
 この場合、処理実行部14eは、リング画像50のカーソル52の位置における第1画像処理と第2画像処理の比率がダイヤル画像60の設定値に応じて上下するように、変化曲線の形状を変化させる。たとえば、上記変化曲線は、何も変更していない状態では直線形状であるとする。ここで、リング画像50のカーソル52が第2位置~第16位置のいずれかにある状態で、ダイヤル画像60が操作されて設定値がプラスの値になったとする。すると、処理実行部14eは、現在のカーソル52の位置において上記変化曲線が直線形状であるときよりも第1画像処理の比率が所定値下がり第2画像処理の比率が所定値上がるように、上記変化曲線の形状を変化させる。このとき処理実行部14eは、設定値が大きいほど比率の変化を大きくする。一方、リング画像50のカーソル52が第2位置~第16位置のいずれかにある状態で、ダイヤル画像60が操作されて設定値がマイナスの値になったとする。すると、処理実行部14eは、現在のカーソル52の位置において上記変化曲線が直線形状であるときよりも第1画像処理の比率が所定値上がり第2画像処理の比率が所定値下がるように、上記変化曲線の形状を変化させる。このとき処理実行部14eは、設定値が小さい(絶対値が大きい)ほど比率の変化を大きくする。
 なお、リング画像50のカーソル52が第18位置~第32位置、第34位置~第48位置、第50位置~第64位置にある場合についても、上述した第2位置~第16位置の場合と同様にしてもよい。
(変形例5)
 上述した実施の形態では、リング画像50のカーソル52が第2位置~第16位置のいずれかにある場合は、ダイヤル画像60の機能が、第1画像処理と第2画像処理の比率の変化の仕方を変更する機能となる例について説明した。しかしながら、ダイヤル画像60の機能が、現在のカーソル52の位置に応じて画像処理部14cが実行する第1画像処理と第2画像処理の比率を微調整する機能となってもよい。
 この場合、処理実行部14eは、ダイヤル画像60の設定値に応じて、現在のリング画像50のカーソル52の位置に隣接する位置での比率の範囲内で、第1画像処理と第2画像処理の比率を微調整する処理を行う。上述した実施の形態のように、第1位置P1から第17位置まで16段階で第1画像処理と第2画像処理の比率が変化する場合、たとえば、第8位置では「第1画像処理56.25%、第2画像処理43.75%」、第9位置では「第1画像処理50%、第2画像処理50%」、第10位置では「第1画像処理43.75%、第2画像処理56.25%」となる。ここで、カーソル52の位置が第9位置の場合には、ダイヤル画像60において、「第1画像処理56.25%、第2画像処理43.75%」~「第1画像処理43.75%、第2画像処理56.25%」の範囲内において、ダイヤル画像60の設定値に応じて、第1画像処理と第2画像処理の比率を微調整可能とする。
 なお、リング画像50のカーソル52が第18位置~第32位置、第34位置~第48位置、第50位置~第64位置にある場合についても、上述した第2位置~第16位置の場合と同様にしてもよい。
(変形例6)
 上述した実施の形態では、リング画像50のカーソル52が第2位置~第16位置のいずれかにある場合は、ダイヤル画像60の機能が、第1画像処理と第2画像処理の比率の変化の仕方を変更する機能となる例について説明した。しかしながら、ダイヤル画像60の機能が、第1画像処理と第2画像処理のレベルを変更する機能となるようにしてもよい。また、この場合、ダイヤルを2つ設け、第1画像処理と第2画像処理とで別々にレベルを変更できるようにしてもよい。
 この場合、処理実行部14eは、第1画像処理に対応するダイヤルの設定値に応じて、第1画像処理のレベルを変更し、第2画像処理に対応するダイヤルの設定値に応じて、第2画像処理のレベルを変更する。たとえば、ダイヤルの設定値が大きいほどレベルを大きくし、ダイヤルの設定値が小さいほどレベルを小さくする。
 なお、第1画像処理のレベルを変更するとは、第1画像処理として設定される画像処理のレベルを変更することである。第2画像処理についても同様である。たとえば、第1画像処理が「ビビッド」に設定されている場合は、第1画像処理のレベルとは「ビビッド」処理における彩度レベルであり、第1画像処理が「トイカメラ」に設定されている場合には、第1画像処理のレベルとは「トイカメラ」処理におけるトイカメラ効果の強度である。
 なお、リング画像50のカーソル52が第18位置~第32位置、第34位置~第48位置、第50位置~第64位置にある場合についても、上述した第2位置~第16位置の場合と同様にしてもよい。
(変形例7)
 リング画像50のカーソル52が第1位置P1にある場合において、たとえば、第1画像処理に「セレクトカラー」が設定されている場合には、ダイヤル画像60の機能が、「セレクトカラー」で残す特定色を変更する機能となるようにしてもよい。また、リング画像50のカーソル52が第1位置P1にある場合において、たとえば、第1画像処理に「クロスプロセス(B)」が設定されている場合には、ダイヤル画像60の機能が、第1画像処理に設定する画像処理を、「クロスプロセス(R)」および「クロスプロセス(G)」のいずれかに切り替える機能となるようにしてもよい。
 なお、リング画像50のカーソル52が第17位置P17、第33位置P33、第49位置P49、第65位置P65にある場合についても、上述した第1位置P1の場合と同様にしてもよい。
(変形例8)
 上述した実施の形態では、リング画像50とダイヤル画像60とを同時に表示する例について説明したが、リング画像50の表示とダイヤル画像60の表示とを切り替えボタンなどで切り替えられるようにして、別々に表示させるようにしてもよい。
(変形例9)
 上述した実施の形態では、静止画を撮影するモードにおいて、リング画像50によって撮像画像に施す画像処理を変更できる例について説明したが、動画を撮影するモードにおいてもリング画像50によって撮像画像に施す画像処理を変更できるようにしてもよい。
(変形例10)
 上述した実施の形態では、シャッターボタン16aの押下操作に応じてシャッターを切る例について説明したが、タッチパネル16bに対するタッチ操作に応じてシャッターを切る、いわゆるタッチシャッターであってもよい。
(変形例11)
 上述した実施の形態では、リング画像50のカーソル52の移動に応じて、4種類の画像処理(第1画像処理~第4画像処理)の中から、撮像画像に施す画像処理を選択するようにした。しかしながら、リング画像50における画像処理の選択肢の数はこれに限らなくてよく、2種類または3種類であってもよいし、5種類以上であってもよい。
 また、上述した実施の形態では、リング画像50において、第0位置P0~第65位置P65を選択できる例について説明したが、選択可能な位置の数はこれに限らなくてもよい。また、ダイヤル画像60においては、「-3」~「+3」のいずれかを設定できる例について説明したが、設定可能な設定値の数はこれに限らなくてもよい。
(変形例12)
 上述した実施の形態では、撮像画像に施す画像処理を選択するための画像として、リング画像50を用いる例について説明した。しかしながら、リング形状に限らなくてもよく、たとえば、バー形状などであってもよい。また、カーソル52を移動させる例について説明したが、カーソル52を固定としてリング51を移動させるようにしてもよい。
 また、上述した実施の形態では、リング画像50のカーソル52の位置に応じて機能が変わる画像としてダイヤル画像60を用いる例について説明した。しかしながら、ダイヤル形状に限らなくてもよく、たとえばバー形状などであってもよい。また、ダイヤル61を移動させる例について説明したが、ダイヤル61を固定として矢印マーク62を移動させるようにしてもよい。
(変形例13)
 上述した実施の形態では、リング画像50およびダイヤル画像60に対する操作を、タッチパネル16bに対するタッチ操作によって行う例について説明したが、これに限らなくてよい。たとえばロータリーマルチセレクタなどの操作部材の操作や、デジタルカメラ1Bの筐体を傾けるなどのアクション操作などによって行うようにしてもよい。
(変形例14)
 上述した実施の形態では、デジタルカメラ1Bの制御部14が不図示のメモリに記録されたプログラムを実行することで、上述した図19~図22の処理を行う例について説明した。このプログラムは、製品出荷時に予め記録されていてもよいし、製品出荷後、メモリカードなどの記録媒体やインターネットなどのデータ信号を通じて提供されてもよい。デジタルカメラ1Bに対するプログラムの提供方法は、上述した図13の場合と同様である。ただし、図13におけるデジタルカメラ1をデジタルカメラ1Bと置き換える。このように、プログラムは、記録媒体やデータ信号(搬送波)などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
(変形例15)
 上述した第二実施形態では、デジタルカメラに本発明を適用する例について説明したが、これに限らなくてよい。たとえば携帯電話機、スマートフォン、タブレット端末などに本発明を適用するようにしてもよい。
(第三実施形態)
 図23は、第三実施形態に係るデジタルカメラ1Cの構成を示すブロック図である。図23は、図1に例示した一部の構成が異なるのみであるが、別の実施形態として説明する。なお、図23において図1で用いた符号と共通する符号があるが、本実施形態の説明を適用する。
 デジタルカメラ1Cは、撮像光学系11と、撮像素子12と、レンズ駆動回路13と、制御部14と、操作部材16と、表示部17とを備えている。デジタルカメラ1Cには、例えばメモリカードなどの記録媒体18が着脱可能である。
 撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図23を簡単にするため、撮像光学系11を単レンズとして図示している。
 レンズ駆動回路13は、制御部14の制御のもと、撮像光学系11のズームレンズを駆動して焦点距離を調節するとともに、撮像光学系11のフォーカシングレンズを駆動して焦点調節を行う。
 撮像素子12は、例えばCMOS撮像素子などのイメージセンサであり、撮像光学系11により結像した被写体像を撮像して、得られた画像信号を制御部14へ出力する。
 制御部14は、表示制御部14a、選択部14b、パラメータ変更部14c、画像処理部14d、および操作検出部14eを有する。制御部14は、CPU、メモリ、およびその周辺回路から構成され、メモリに格納された制御プログラムを実行することにより、これらの各部の機能を実現している。各部の機能の内容については、後で詳しく説明する。
 表示部17は、デジタルカメラ1の背面に搭載された液晶モニタ(背面モニタ)等で構成され、撮像素子12により撮像された撮像画像や各種設定メニューなどが表示される。
 操作部材16は、シャッターボタン16aと、表示部17上に配置されたタッチパネル16bと、を含む。タッチパネル16bは、指などが接触された接触位置を検出して、制御部14に接触位置を出力する。本実施形態のタッチパネル16bは、いわゆるマルチタッチに対応するタッチパネルである。つまり、タッチパネル16bは、表示部17の表示画面において指等により同時に接触される少なくとも2点の接触位置を検出することができる。また、操作部材16は、この他、録画ボタン、モード切替ボタン、十字キー、OKボタン、ディスプレイボタンなどを含む。操作部材16は、ユーザ操作に応じた操作信号を制御部14へ出力する。制御部14の操作検出部14eは、この操作信号に応じて、操作部材16に対してどのような操作が行われたかを検出する。
 また、操作部材16からの操作信号に応じて撮影モードに設定されると、制御部14は、撮像素子12に所定のフレームレートでスルー画用の撮像処理を行わせ、撮像素子12から時系列で得られる各フレーム画像から表示用のフレーム画像を生成して表示部17に出力する。これによって表示部17には、スルー画がリアルタイムで表示される。
 そして、シャッターボタンが押下操作されることにより撮影指示が行われると、制御部14は、撮像素子12に記録用の撮像処理を行わせ、撮像素子12から取得した画像信号に対して所定の画像処理を行って静止画データを生成し、JPEGなどの所定の方式により圧縮処理を行って、記録媒体18に記録する。
 また、操作部材16からの操作信号に応じて再生モードに設定されると、制御部14は、記録媒体18に記録された静止画データを読み出して再生し、表示部17に表示する。
 ところで、本実施形態のデジタルカメラ1Cでは、撮影モードとして、通常モードの他に、種々の画像処理を施した撮像画像を得ることのできるクリエイティブモードが設けられている。以下、このクリエイティブモードについて説明する。
 クリエイティブモードにおいて、制御部14の表示制御部14aは、図24に示すように、撮像画像に施す画像処理に係る画像処理パラメータを変更するための画像(以下、リング画像と表記する)50を表示部17に表示する。リング画像50は、円形状のリング51と、カーソル52とを表示する画像である。カーソル52は、選択部14bによる選択位置を示す。操作検出部14eは、カーソル52に対するドラッグ操作(カーソル52の表示位置をたとえば1本の指でタッチした後、タッチしたまま指を移動する操作)を検出する。選択部14bは、操作検出部14eにより検出されたカーソル52に対するドラッグ操作に応じて、選択位置(カーソル52の表示位置)をリング51に沿って移動させる。
 制御部14のパラメータ変更部14cは、カーソル52の表示位置(すなわち選択部14bの選択位置)の移動に応じて、撮像画像に施す画像処理の画像処理パラメータを変更する。制御部14の画像処理部14dは、撮像画像に対して、パラメータ変更部14cにより変更された画像処理パラメータに基づいて画像処理を行う。表示制御部14aは、画像処理部14dによる画像処理後の撮像画像を表示部17に表示する。
 本実施形態において、画像処理パラメータは、リング画像50に設定された4つの画像処理(以下、第1画像処理~第4画像処理と表記する)のうち、どの画像処理をどのくらいの比率で行うかを示すパラメータである。第1画像処理~第4画像処理の内容について、詳しくは後述する。
 リング画像50のリング51は、第1リング部分51a~第4リング部分51dから構成されている。第1リング部分51a~第4リング部分51dは、それぞれ中心角が90度の円弧形状(1/4円形状)でなる。第1リング部分51aは、リング51の頂上地点(第1位置)P1から時計周りに90度離れた第2位置P2までの部分である。第2リング部分51bは、リング51の第2位置P2からさらに時計周りに90度離れた第3位置P3までの部分である。第3リング部分51cは、リング51の第3位置P3からさらに時計周りに90度離れた第4位置P4までの部分である。第4リング部分51dは、リング51の第4位置P4から第1位置P1までの部分である。なお、リング画像50では、たとえばリング51を4分割する線によって、第1リング部分51a~第4リング部分51dの範囲を表示するようになっている。
 次に、図25を用いて、カーソル52の位置に応じて設定される画像処理パラメータを説明する。なお、リング画像50では、画像処理パラメータを段階的に変更可能となっており、変更可能な段階数は、ユーザの操作によって増減可能となっている。画像処理パラメータを変更可能な段階数を増減する処理については、後述する。
 リング画像50の第1リング部分51aでは、第1画像処理と第2画像処理の比率を示すパラメータである第1画像処理パラメータを変更可能となっている。パラメータ変更部14cは、選択部14bにより選択された選択位置(カーソル52の表示位置)が第1リング部分51aにある場合に当該選択位置に応じて第1画像処理パラメータを変更する。カーソルが第1位置P1に移動すると、パラメータ変更部14cは、第1画像処理パラメータを「第1画像処理100%(第1画像処理のみを行う設定)」に設定する。カーソルが第2位置P2に移動すると、パラメータ変更部14cは、第1画像処理パラメータを「第2画像処理100%(第2画像処理のみを行う設定)」に設定する。また、パラメータ変更部14cは、第1画像処理パラメータを、カーソル52の第1位置P1から第2位置P2への移動に応じて、「第1画像処理100%」から「第2画像処理100%」へ段階的に変更する。
 たとえば、リング画像50全体において画像処理パラメータを16段階で変更可能な場合、第1画像処理パラメータは、「第1画像処理100%」から「第2画像処理100%」へ4段階で変更可能とされる。すなわち、「第1画像処理100%」から、「第1画像処理75%、第2画像処理25%(第1画像処理を75%、第2画像処理25%の比率で行う設定)」、「第1画像処理50%、第2画像処理50%」、「第1画像処理25%、第2画像処理75%」を経て、「第2画像処理100%」に変更される。この場合、第1位置P1から第2位置P2までの間を4分割するような3点(A位置、B位置、C位置と表記する)が設定される。カーソル52がA位置に移動すると「第1画像処理75%、第2画像処理25%」、B位置に移動すると「第1画像処理50%、第2画像処理50%」、C位置に移動すると「第1画像処理25%、第2画像処理75%」が設定される。
 なお、「第1画像処理75%、第2画像処理25%」、「第1画像処理50%、第2画像処理50%」、および「第1画像処理25%、第2画像処理75%」は、第1画像処理および第2画像処理の両方を行う(すなわち第1画像処理および第2画像処理を重ねがけする)設定である。また、第1画像処理を75%の比率で行うとは、たとえば、撮像画像に第1画像処理のみを施したとき(すなわち第1画像処理を100%施したとき)における撮像画像の変化の度合いを100%としたときに、その度合いの75%程度撮像画像が変化するように第1画像処理を施すことである。
 このようにパラメータ変更部14cは、第1リング部分51aにおけるカーソル52の位置に応じて、第1画像処理パラメータを段階的に変更する。これにより、カーソル52が第1位置P1から第2位置P2へと時計周りに移動するのに伴って、表示部17に表示される撮像画像が、第1画像処理のみを施した状態から第2画像処理のみを施した状態へと徐々に遷移する。
 リング画像50の第2リング部分51bでは、第2画像処理と第3画像処理の比率を示すパラメータである第2画像処理パラメータを変更可能となっている。パラメータ変更部14cは、選択部14bにより選択された選択位置(カーソル52の表示位置)が第2リング部分51bにある場合に当該選択位置に応じて第2画像処理パラメータを変更する。パラメータ変更部14cは、カーソルが第2位置P2に移動すると、第2画像処理パラメータを「第2画像処理100%」に設定する。パラメータ変更部14cは、カーソルが第3位置P3に移動すると、第2画像処理パラメータを「第3画像処理100%」に設定する。また、パラメータ変更部14cは、第2画像処理パラメータを、カーソル52の第2位置P2から第3位置P3への移動に応じて、「第2画像処理100%」から「第3画像処理100%」へ段階的に変更する。なお、具体的な変更例については、上述した第1リング部分51aの場合と同様であるので説明を省略する。第2リング部分51bでは、カーソル52が第2位置P2から第3位置P3へと時計周りに移動するのに伴って、表示部17に表示される撮像画像が、第2画像処理のみを施した状態から第3画像処理のみを施した状態へと徐々に遷移する。
 リング画像50の第3リング部分51cでは、第3画像処理と第4画像処理の比率を示すパラメータである第3画像処理パラメータを変更可能となっている。パラメータ変更部14cは、選択部14bにより選択された選択位置(カーソル52の表示位置)が第3リング部分51cにある場合に当該選択位置に応じて第3画像処理パラメータを変更する。パラメータ変更部14cは、カーソルが第3位置P3に移動すると、第3画像処理パラメータを「第3画像処理100%」に設定する。パラメータ変更部14cは、カーソルが第4位置P4に移動すると、第3画像処理パラメータを「第4画像処理100%」に設定する。また、パラメータ変更部14cは、第3画像処理パラメータを、カーソル52の第3位置P3から第4位置P4への移動に応じて、「第3画像処理100%」から「第4画像処理100%」へ段階的に変更する。なお、具体的な変更例については、上述した第1リング部分51aの場合と同様であるので説明を省略する。第3リング部分51cでは、カーソル52が第3位置P3から第4位置P4へと時計周りに移動するのに伴って、表示部17に表示される撮像画像が、第3画像処理のみを施した状態から第4画像処理のみを施した状態へと徐々に遷移する。
 リング画像50の第4リング部分51dでは、第4画像処理と第1画像処理の比率を示すパラメータである第4画像処理パラメータを変更可能となっている。パラメータ変更部14cは、選択部14bにより選択された選択位置(カーソル52の表示位置)が第4リング部分51dにある場合に当該選択位置に応じて第4画像処理パラメータを変更する。パラメータ変更部14cは、カーソルが第4位置P4に移動すると、第4画像処理パラメータを「第4画像処理100%」に設定する。パラメータ変更部14cは、カーソルが第1位置P1に移動すると、第4画像処理パラメータを「第1画像処理100%」に設定する。また、パラメータ変更部14cは、第4画像処理パラメータを、カーソル52の第4位置P4から第1位置P1への移動に応じて、「第4画像処理100%」から「第1画像処理100%」へ段階的に変更する。なお、具体的な変更例については、上述した第1リング部分51aの場合と同様であるので説明を省略する。第4リング部分51dでは、カーソル52が第4位置P4から第1位置P1へと時計周りに移動するのに伴って、表示部17に表示される撮像画像が、第4画像処理のみを施した状態から第1画像処理のみを施した状態へと徐々に遷移する。
 このような構成により、カーソル52が第1位置P1から時計周りに1回転すると、撮像画像に施される画像処理は、第1画像処理、第2画像処理、第3画像処理、第4画像処理の順で徐々に変更された後、第1画像処理に戻る。なお、カーソル52が反時計回りに1回転する場合は、撮像画像に施される画像処理は、上述した時計周りに1回転する場合と逆の順で変化する。また、必ずしもカーソル52が1回転しなくてもよく、たとえば、カーソル52が時計周りに半周回転した後に反時計回りに移動して、画像処理の変化を戻すことも可能となっている。
 リング画像50に設定される第1画像処理~第4画像処理の内容は、第二の実施形態において説明した内容と同様である。このため、第1画像処理~第4画像処理の内容の詳細については説明を省略する。
 図26は、撮影シーンに応じた第1画像処理~第4画像処理の組合せを説明する図である。デジタルカメラ1Cでは、撮影シーンごとに、それぞれの撮影シーンに適した4種類の画像処理が第1画像処理~第4画像処理として予め設定されている。たとえば、撮影シーン「人物」用のリング画像50pには、第1画像処理として「ポートレート」、第2画像処理として「モノクローム」、第3画像処理として「ハイキー」、第4画像処理として「クロスプロセス(R)」が設定される。撮影シーン「接写」用のリング画像50nには、第1画像処理として「ビビッド」、第2画像処理として「ハイキー」、第3画像処理として「トイカメラ」、第4画像処理として「セレクトカラー」が設定される。撮影シーン「風景」用のリング画像50gには、第1画像処理として「クロスプロセス(B)」、第2画像処理として「風景」、第3画像処理として「フィルターモノクロ(セピア)」、第4画像処理として「アヴァンギャルド」が設定される。撮影シーン「その他」用のリング画像50sには、第1画像処理として「アヴァンギャルド」、第2画像処理として「モノクローム」、第3画像処理として「トイカメラ」、第4画像処理として「クロスプロセス(G)」が設定される。なお、図26では説明のため、撮影シーンおよび第1画像処理~第4画像処理の内容を示すテキストを記載しているが、実際の表示部17の表示画面では当該テキストは表示されず、リング51とカーソル52のみが表示される。すなわち、リング画像50p、50n、50g、50sは、表示部17の表示画面ではどの撮影シーンでも同じ画像として(すなわち同じ表示内容で)表示される。
 「ポートレート」は、人物の肌をきれいに見せる画作りを行うための画像処理である。「モノクローム」は、白黒の濃淡のみの画作りを行うための画像処理である。「ハイキー」は、画面全体が明るく陰影の少ない画作りを行うための画像処理である。「クロスプロセス(R)」、「クロスプロセス(G)」、および「クロスプロセス(B)」は、クロスプロセス(ポジフィルムを使いネガ用の現像を行う銀塩写真の手法)を行ったような画像効果を得るための画像処理である。なお、「クロスプロセス(R)」では赤みの強い画像が得られ、「クロスプロセス(G)」では緑みの強い画像が得られ、「クロスプロセス(B)」では青みの強い画像が得られる。「ビビッド」は、コントラストが強調された色鮮やかな画作りを行うための画像処理である。「トイカメラ」は、トイカメラで撮影したような画像効果を得るための画像処理である。「セレクトカラー」は、特定の色だけを残してその他をモノクロに変化した画像効果を得るための画像処理である。「風景」は、自然や街並みなどの景観に適した画作りを行うための画像処理である。「フィルターモノクロ(セピア)」は、セピア色の濃淡のみの画作りを行うための画像処理である。「アヴァンギャルド」は、「ビビッド」よりもさらにコントラストと彩度を上げて独特の画作りを行うための画像処理である。
 なお、撮影シーンごとの第1画像処理~第4画像処理の組合せに関する情報は、デジタルカメラ1C内の不図示のメモリに予め記憶されている。
 また、クリエイティブモードでは、ユーザがタッチパネル16b上でピンチイン操作またはピンチアウト操作を行うことにより、リング画像50の表示サイズを変更すると共に、リング画像50において画像処理パラメータを変更可能な段階数を増減できるようになっている。以下、図27を用いて、この点について説明する。
 制御部14の操作検出部14eは、タッチパネル16bの出力信号に基づいて、同時に検出された複数の接触位置の間隔が狭められる操作をピンチイン操作として検出し、同時に検出された複数の接触位置が広げられる操作をピンチアウト操作として検出する。
 クリエイティブモードを開始した時点では、リング画像50は表示部17に表示されていない。リング画像50が表示されていない状態において、操作検出部14eによりピンチアウト操作が検出された場合に、表示制御部14aは、リング画像50を表示する。このとき、表示制御部14aは、リング画像50を所定の第1サイズで表示する。第1サイズは、後述する第2サイズおよび第3サイズよりも小さいサイズである。また、表示制御部14aは、リング画像50を第1サイズで表示するとき、第1~第4リング部分51a~51dにおいて第1~第4画像処理パラメータを変更可能な段階数をそれぞれ所定の下限値、たとえば1段階とする。このとき、リング画像50全体では、画像処理パラメータを4段階で変更可能となる。第1サイズで表示されたリング画像50では、第1画像処理パラメータ~第4画像処理パラメータについて、簡便な調整(荒い調整)を行うことができる。
 また、操作検出部14eにより、第1サイズで表示されているリング画像50上においてピンチアウト操作が検出された場合には、表示制御部14aは、リング画像50の表示サイズを第1サイズよりも大きい第2サイズに拡大する。このとき表示制御部14aは、第1~第4リング部分51a~51dにおいて第1~第4画像処理パラメータを変更可能な段階数をそれぞれ第1サイズのときよりも増やして、たとえば4段階とする。このとき、リング画像50全体では、画像処理パラメータが16段階で変更可能となる。第2サイズで表示されたリング画像50では、第1画像処理パラメータ~第4画像処理パラメータについて、第1サイズのときよりも細かい調整を行うことができる。
 また、操作検出部14eにより、第2サイズで表示されているリング画像50上においてピンチアウト操作が検出された場合には、表示制御部14aは、リング画像50の表示サイズを第2サイズよりも大きい第3サイズに拡大する。このとき表示制御部14aは、第1~第4リング部分51a~51dにおいて第1~第4画像処理パラメータを変更可能な段階数をそれぞれ第2サイズのときよりも増やして、所定の上限値、たとえば16段階とする。このとき、リング画像50全体では、画像処理パラメータが64段階で変更可能となる。第3サイズで表示されたリング画像50では、第1画像処理パラメータ~第4画像処理パラメータについて、第2サイズのときよりもさらに細かい調整を行うことができる。
 また、操作検出部14eにより、第3サイズで表示されているリング画像50上においてピンチアウト操作が検出された場合には、表示制御部14aは、カーソル52が表示されている(すなわち選択部14bによる選択位置がある)リング部分(図27では第1リング部分51a)のみを抜き出して拡大すると共に、この他のリング部分(図27では第2リング部分51b~第4リング部分51d)を非表示にする。このとき、リング画像50は第1リング部分51aのみとなるので、1/4円形状となる。また、このとき、表示制御部14aは、拡大した第1リング部分51aにおいて第1画像処理パラメータを変更可能な段階数を第3サイズのときよりも増やして、たとえば32段階とする。したがって、第1画像処理パラメータについて、第3サイズのときよりもさらに細かい調整を行うことができる。
 また、操作検出部14eにより、1つのリング部分のみが拡大されて表示されているリング画像50上においてピンチイン操作が検出された場合には、表示制御部14aは、リング画像50全体を第3サイズで表示する状態に戻し、第1~第4リング部分51a~51dにおいて第1~第4画像処理パラメータを変更可能な段階数をそれぞれ上述した所定の上限値(たとえば16段階)とする。
 また、操作検出部14eにより、第3サイズで表示されているリング画像50上において、ピンチイン操作が検出された場合には、表示制御部14aは、リング画像50を上記第2サイズに縮小し、第1~第4リング部分51a~51dにおいて第1~第4画像処理パラメータを変更可能な段階数をそれぞれ上述した所定の段階数(たとえば4段階)に減らす。
 また、操作検出部14eにより、第2サイズで表示されているリング画像50上において、ピンチイン操作が検出された場合には、表示制御部14aは、リング画像50を上記第1サイズに縮小し、第1~第4リング部分51a~51dにおいて第1~第4画像処理パラメータを変更可能な段階数をそれぞれ上述した所定の下限値(たとえば1段階)に減らす。
 また、操作検出部14eにより、第1サイズで表示されているリング画像50上において、操作検出部14eによりピンチイン操作が検出された場合には、表示制御部14aは、リング画像50を非表示にする。
 次に、クリエイティブモードにおいて制御部14が実行する処理の流れを、図28に示すフローチャートを用いて説明する。なお、図28に示す処理は、撮影モードがクリエイティブモードに設定されている間、繰り返し行われる。撮影モードがクリエイティブモードに切り替えられると、制御部14は、スルー画の表示処理を開始すると共に、不図示のメモリに記録された図28に示す処理を行うプログラムを起動して、当該処理を開始する。
 ステップS1において、操作検出部14eは、タッチパネル16bの出力信号に基づいて、ピンチアウト操作が行われたか否かを判定する。操作検出部14eは、ピンチアウト操作が行われていない場合にはステップS1を否定判定してステップS1の処理を繰り返し、ピンチアウト操作が行われるとステップS1を肯定判定して、ステップS2へ進む。
 ステップS2において、表示制御部14aは、スルー画に重ねて、リング画像50を第1サイズで表示して、ステップS3へ進む。またこのとき、制御部14は、上述したように、シーン判別処理を行って、判別した撮影シーンに応じた第1画像処理~第4画像処理をリング画像50に設定する。
 ステップS3において、制御部14は、タッチパネル16bに対して、リング画像50のカーソル52を移動するための操作(すなわちカーソル52に対するドラッグ操作)が行われたか否かを判定する。制御部14は、当該操作が行われた場合にはステップS4へ進み、当該操作が行われていない場合にはステップS5へ進む。
 ステップS4において、制御部14は、上述したように、リング画像50のカーソル52の位置に応じて画像処理を行う。この処理の流れを、図29に示すフローチャートを用いて説明する。ステップS41において、選択部14bは、上記カーソル52に対するドラッグ操作に応じて、選択位置(カーソル52の表示位置)を移動させ、ステップS42へ進む。
 ステップS42において、パラメータ変更部14cは、上述したように、選択位置(カーソル52の表示位置)の移動に応じて、撮像画像に施す画像処理の画像処理パラメータを変更し、ステップS43へ進む。
 ステップS43において、画像処理部14dは、撮像素子12から撮像画像を取得し、取得した撮像画像に対してステップS42で変更された画像処理パラメータに基づいて画像処理を行い、ステップS44へ進む。
 ステップS44において、表示制御部14aは、ステップS43での画像処理後の撮像画像をスルー画として表示部17に表示し、図29に示す処理を終了して、図28のステップS5へ進む。
 図28のステップS5において、操作検出部14eは、タッチパネル16bに対して、リング画像50の表示サイズを変更するための操作(すなわちリング画像50上におけるピンチイン操作またはピンチアウト操作)が行われたか否かを判定する。操作検出部14eは、当該操作を検出した場合にはステップS6へ進み、当該操作を検出していない場合にはステップS7へ進む。
 ステップS6において、表示制御部14aは、上述したように、リング画像50に対するピンチイン操作またはピンチアウト操作に応じて、リング画像50の表示サイズを変更するサイズ変更処理を行う。このサイズ変更処理の流れを、図30および図31に示すフローチャートを用いて説明する。図30のステップS61において、表示制御部14aは、表示しているリング画像50のサイズが第1サイズであるか否かを判定し、第1サイズである場合はステップS62へ進み、第1サイズではない場合はステップS65へ進む。
 ステップS62において、表示制御部14aは、ステップS5で操作検出部14eにより検出された操作がピンチイン操作であるかピンチアウト操作であるかを判定する。表示制御部14aは、検出された操作がピンチイン操作である場合はステップS63へ進み、リング画像50を非表示にして、サイズ変更処理を終了する。一方、表示制御部14aは、検出された操作がピンチアウト操作である場合はステップS64へ進み、リング画像50を第2サイズに拡大して第1~第4画像処理パラメータを変更可能な段階数をそれぞれ所定数増やし、サイズ変更処理を終了する。
 ステップS61を否定判定した場合に進むステップS65において、表示制御部14aは、表示しているリング画像50のサイズが第2サイズであるか否かを判定し、第2サイズである場合はステップS66へ進み、第2サイズではない場合はステップS69(図31)へ進む。
 ステップS66において、表示制御部14aは、ステップS5で操作検出部14eにより検出された操作がピンチイン操作であるかピンチアウト操作であるかを判定する。表示制御部14aは、検出された操作がピンチイン操作である場合はステップS67へ進み、リング画像50を第1サイズに縮小して第1~第4画像処理パラメータを変更可能な段階数をそれぞれ所定数減らし、サイズ変更処理を終了する。一方、表示制御部14aは、検出された操作がピンチアウト操作である場合はステップS68へ進み、リング画像50を第3サイズに拡大して第1~第4画像処理パラメータを変更可能な段階数をそれぞれ所定数増やし、サイズ変更処理を終了する。
 ステップS65を否定判定した場合に進む図31のステップS69において、表示制御部14aは、表示しているリング画像50のサイズが第3サイズであるか否かを判定し、第3サイズである場合はステップS70へ進み、第3サイズではない場合はステップS73へ進む。
 ステップS70において、表示制御部14aは、ステップS5で操作検出部14eにより検出された操作がピンチイン操作であるかピンチアウト操作であるかを判定する。表示制御部14aは、検出された操作がピンチイン操作である場合はステップS71へ進み、リング画像50を第2サイズに縮小して第1~第4画像処理パラメータを変更可能な段階数をそれぞれ所定数減らし、サイズ変更処理を終了する。一方、表示制御部14aは、検出された操作がピンチアウト操作である場合はステップS72へ進み、カーソル52が表示されているリング部分のみを抜き出して拡大し、拡大したリング部分において画像処理パラメータを変更可能な段階数を増やして、サイズ変更処理を終了する。
 ステップS69を否定判定してステップS73に進む場合とは、表示しているリング画像50が1つのリング部分のみを抜き出して拡大した形状(すなわち1/4円形状)の場合となる。ステップS73において、表示制御部14aは、ステップS5で操作検出部14eにより検出された操作がピンチイン操作であるかピンチアウト操作であるかを判定する。表示制御部14aは、検出された操作がピンチイン操作である場合はステップS74へ進み、リング画像50を第3サイズで表示する状態に戻して、サイズ変更処理を終了する。一方、表示制御部14aは、検出された操作がピンチアウト操作である場合は、サイズ変更処理を終了する。すなわち、表示制御部14aは、リング画像50が1つのリング部分のみを拡大して表示している状態では、ピンチアウト操作が行われてもリング画像50の表示サイズを変更せず、そのままの状態とする。
 このようにして、リング画像50のサイズ変更処理を終了すると、制御部14は、ステップS7(図28)へ進む。
 ステップS7において、操作検出部14eは、ユーザにより撮影指示が行われたか(すなわちシャッターボタン16aが押下されたか)否かを判定する。操作検出部14eは、撮影指示が行われた場合にはステップS8へ進み、撮影指示が行われていない場合にはステップS9へ進む。
 ステップS8において、制御部14は、撮像素子12に記録用の撮像処理を行わせる。画像処理部14dは、当該撮像処理により得られた撮像画像データに対して、上記撮影指示の時点でリング画像50において設定されていた画像処理パラメータに基づく画像処理を行う。そして、制御部14は、当該画像処理が施された撮像画像データを、静止画データとして記録媒体18に記録し、図28に示す処理を終了する。
 一方、ステップS9において、制御部14は、リング画像50が表示中であるか否かを判定する。リング画像50が表示中である場合には、制御部14はステップS9を肯定判定してステップS3に戻る。一方、上記ステップS6の処理によって、リング画像50が非表示にされた場合には、制御部14は、ステップS9を否定判定してステップS1に戻る。
 以上説明した第三実施形態によれば、次の作用効果が得られる。
(1)デジタルカメラ1Cにおいて、表示制御部14aは、第1画像処理パラメータ~第4画像処理パラメータをそれぞれ段階的に変更するための第1リング部分51a~第4リング部分51dを有するリング画像50を表示する。表示制御部14aは、操作検出部14eによりリング画像50を縮小するための操作(ピンチイン操作)が検出された場合には、第1リング部分51a~第4リング部分51dにおいてそれぞれ第1画像処理パラメータ~第4画像処理パラメータを変更可能な段階数を減らして表示する。また、表示制御部14aは、操作検出部14eによりリング画像50を拡大するための操作(ピンチアウト操作)が検出された場合には、第1リング部分51a~第4リング部分51dにおいてそれぞれ第1画像処理パラメータ~第4画像処理パラメータを変更可能な段階数を増やして表示する。このような構成により、デジタルカメラ1Cでは、第1画像処理パラメータ~第4画像処理パラメータを変更するための操作系(リング画像50)において、第1画像処理パラメータ~第4画像処理パラメータを変更可能な段階数を簡単な操作で調整することができる。また、表示制御部14aは、第1画像処理パラメータ~第4画像処理パラメータを変更可能な段階数が所定の上限値となった状態においてさらに操作検出部14eによりピンチアウト操作が検出された場合には、第1リング部分51a~第4リング部分51dのうち、選択部14bによる選択位置があるリング部分を拡大すると共に画像処理パラメータを変更可能な段階数を増やして表示し、この他のリング部分を非表示にする。これにより、デジタルカメラ1Cでは、カーソル52によって選択されたリング部分に対応する画像処理パラメータを、より細かく調整することができる。また、デジタルカメラ1Cは、残りのリング部分を非表示にすることにより、残りのリング部分を表示している場合よりも表示画面内でリング画像50が占める割合を減らすことができるので、表示画面を有効活用することができる。
(2)デジタルカメラ1Cにおいて、表示制御部14aは、画像処理パラメータを変更可能な段階数が所定の下限値となった状態(すなわち第1サイズでリング画像50を表示する状態)において、操作検出部14eによりピンチイン操作が検出された場合には、リング画像50を非表示にする。これにより、デジタルカメラ1Cでは、ピンチイン操作を行うだけで、リング画像50を縮小して非表示にするという一連の操作を行うことができるので、ユーザにとって操作が簡単である。
(3)デジタルカメラ1Cにおいて、表示制御部14aは、リング画像50が表示されていない状態において、操作検出部14eによりピンチアウト操作が検出された場合には、リング画像50を第1サイズで表示する。これにより、デジタルカメラ1Cでは、ピンチアウト操作を行うだけで、リング画像50を表示して拡大するという一連の操作を行うことができるので、ユーザにとって操作が簡単である。
(変形例1)
 上述した実施の形態では、表示制御部14aは、第3サイズで表示されているリング画像50上でピンチアウト操作された場合に、カーソル52が表示されているリング部分のみを抜き出して拡大する例について説明した。しかしながら、表示制御部14aは、図32に示すように、カーソル52が表示されているリング部分のみを抜き出し、抜き出したリング部分の形状を1/4円形状から円形状に変更して表示するようにしてもよい。なお、図32では、第1リング部分51aを抜き出して1/4円形状から円形状に変更した例について示している。
 このとき、表示制御部14aは、円形状に変更した第1リング部分51aにおいて第1画像処理パラメータを変更可能な段階数を第3サイズのときよりも増やす。なお、円形状に変更した第1リング部分51aでは、たとえば、カーソル52がリング画像50の頂点地点から時計周りに1回転することにより、第1画像処理パラメータが「第1画像処理100%」から「第2画像処理100%」へ段階的に変更される。
(変形例2)
 上述した実施の形態では、表示制御部14aは、第3サイズで表示されているリング画像50上でピンチアウト操作された場合に、カーソル52が表示されているリング部分を抜き出して拡大する例について説明した。しかしながら、表示制御部14aは、たとえば、ピンチアウト操作された位置に対応するリング部分を抜き出して拡大するようにしてもよい。
(変形例3)
 上述した実施の形態では、表示制御部14aは、第3サイズで表示されているリング画像50上でピンチアウト操作された場合に、1つのリング部分を抜き出して拡大する例について説明した。しかしながら、表示制御部14aは、この場合に、たとえばピンチアウト操作において複数のリング部分がタッチされている場合は、タッチされている複数のリング部分を抜き出して拡大するようにしてもよい。
 たとえば、2つの指のうち一方が第4リング部分51d上をタッチし他方が第1リング部分51a上をタッチした状態でピンチアウト操作が行われたとする。この場合、表示制御部14aは、図33に示すように、第4リング部分51dと第1リング部分51aとを両方とも抜き出して拡大し、この他のリング部分を非表示にする。したがって、リング画像50は半円形状で表示される。このとき、表示制御部14aは、抜き出した第4リング部分51dと第1リング部分51aの両方において画像処理パラメータを変更可能な段階数を第3サイズのときよりも増やす。
(変形例4)
 上述した実施の形態では、表示制御部14aは、第3サイズで表示されているリング画像50上でピンチアウト操作された場合に、カーソル52が表示されているリング部分のみを抜き出して拡大し、この他のリング部分を非表示にする例について説明した。しかしながら、表示制御部14aは、この他のリング部分についても表示しておくようにしてもよい。
 表示制御部14aは、たとえば、図34に示すように、カーソル52が表示されている第1リング部分51aを1/4円形状から中心角を広げる(たとえば半円形状とする)と共に、この他の3つのリング部分(第2リング部分51b~第4リング部分51d)をそれぞれ1/4円形状から中心角を狭めて(たとえば半円を3分割した、中心角60度の円弧形状として)表示するようにしてもよい。このとき表示制御部14aは、半円形状とした第1リング部分51aにおいて第1画像処理パラメータを変更可能な段階数を第3サイズのときよりも増やすと共に、この他のリング部分においては第1画像処理パラメータを変更可能な段階数を第3サイズのときよりも減らす。
 このように、図34に示す例では、リング画像50において、カーソル52が表示されているリング部分に対応する画像処理パラメータについてより細かく調整可能とすると共に、この他のリング部分に対応する画像処理パラメータについても荒い調整を可能とする。
(変形例5)
 ピンチイン操作およびピンチアウト操作によってスルー画の電子ズームも行う場合については、たとえばこれらの操作の指の本数(タッチパネル16bの接触位置の数)によって、電子ズームとリング画像50の表示制御とを切り分けるようにしてもよい。たとえば、2本の指でピンチイン操作またはピンチアウト操作が行われた場合には電子ズームを行い、3本の指でピンチイン操作またはピンチアウト操作が行われた場合にはリング画像50の表示を制御する。
(変形例6)
 上述した実施の形態では、リング画像50の表示サイズについて、第1サイズ、第2サイズ、第3サイズの3段階を設けるようにしたが、表示サイズを変更する段階数はこれに限らなくてもよい。たとえば、2段階であってもよいし、4段階以上であってもよい。
(変形例7)
 上述した実施の形態では、リング画像50によって変更できる第1画像処理パラメータ~第4画像処理パラメータが、2つの画像処理の比率を示すパラメータである例について説明した。しかしながら、第1画像処理パラメータ~第4画像処理パラメータは、この他のパラメータであってもよい。
 たとえば、第1画像処理パラメータが、上述した第1画像処理の強度を示すパラメータであってもよい。この場合、第1画像処理パラメータは、たとえば、カーソル52が第1位置P1から第2位置P2に移動すると、第1画像処理の強度が段階的に高くなるように変更される。
(変形例8)
 上述した実施の形態では、リング画像50において第1画像処理パラメータ~第4画像処理パラメータを変更可能とする例について説明した。しかしながら、リング画像50において変更可能とする画像処理パラメータの数はこれに限らなくてよく、2種類または3種類であってもよいし、5種類以上であってもよい。
(変形例9)
 上述した実施の形態では、カーソル52の表示位置を移動させることによりリング51上におけるカーソル52の位置(選択位置)を変更する例について説明した。しかしながら、カーソル52を動かさずにリング51を回転させて、リング51上の各位置とカーソル52との相対位置を変更することで、選択位置を変更するようにしてもよい。
(変形例10)
 上述した実施の形態では、画像処理パラメータを変更可能とするためのパラメータ画像として、円形状のリング画像50を表示する例について説明した。しかしながら、パラメータ画像は、円形状の画像に限らなくてもよく、たとえば、バー形状の画像などであってもよい。
(変形例11)
 上述した実施の形態では、デジタルカメラ1Cの制御部14が不図示のメモリに記録されたプログラムを実行することで、上述した図28~図31の処理を行う例について説明した。このプログラムは、製品出荷時に予め記録されていてもよいし、製品出荷後、メモリカードなどの記録媒体やインターネットなどのデータ信号を通じて提供されてもよい。デジタルカメラ1Cに対するプログラムの提供方法は、上述した図13の場合と同様である。ただし、図13におけるデジタルカメラ1をデジタルカメラ1Cと置き換える。
(変形例12)
 上述した第三実施形態では、デジタルカメラに本発明を適用する例について説明したが、これに限らなくてよく、たとえば携帯電話機やタブレット端末などに本発明を適用するようにしてもよい。
(第四実施形態)
 図35は、第四実施形態に係るデジタルカメラ1Dの構成を示すブロック図である。図35は、図1に例示した一部の構成が異なるのみであるが、別の実施形態として説明する。なお、図35において図1で用いた符号と共通する符号があるが、本実施形態の説明を適用する。
 デジタルカメラ1Dは、撮像光学系11と、撮像素子12と、レンズ駆動回路13と、制御部14と、操作部材16と、表示部17とを備えている。デジタルカメラ1Dには、例えばメモリカードなどの記録媒体18が着脱可能である。
 撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図35を簡単にするため、撮像光学系11を単レンズとして図示している。
 レンズ駆動回路13は、制御部14の制御のもと、撮像光学系11のズームレンズを駆動して焦点距離を調節するとともに、撮像光学系11のフォーカシングレンズを駆動して焦点調節を行う。
 撮像素子12は、例えばCMOS撮像素子などのイメージセンサであり、撮像光学系11により結像した被写体像を撮像して、得られた画像信号を制御部14へ出力する。
 制御部14は、表示制御部14a、画像処理設定部14b、画像処理部14c、およびカスタマイズ処理部14dを有する。制御部14は、CPU、メモリ、およびその周辺回路から構成され、メモリに格納された制御プログラムを実行することにより、これらの各部の機能を実現している。各部の機能の内容については、後で詳しく説明する。
 操作部材16は、シャッターボタン16aと、表示部17上に配置されたタッチパネル16bと、を含む。タッチパネル16bは、指などが接触された接触位置を検出して、制御部14に接触位置を出力する。本実施形態のタッチパネル16bは、いわゆるマルチタッチに対応するタッチパネルである。つまり、タッチパネル16bは、表示部17の表示画面において指等により同時に接触される複数の接触位置を検出することができる。また、操作部材16は、この他、録画ボタン、モード切替ボタン、十字キー、OKボタン、ディスプレイボタンなどを含む。操作部材16は、ユーザ操作に応じた操作信号を制御部14へ出力する。
 表示部17は、デジタルカメラ1Dの背面に搭載された液晶モニタ(背面モニタ)等で構成され、撮像素子12により撮像された撮像画像や各種設定メニューなどが表示される。
 操作部材16からの操作信号に応じて撮影モードに設定されると、制御部14は、撮像素子12に所定のフレームレートでスルー画用の撮像処理を行わせ、撮像素子12から時系列で得られる各フレーム画像から表示用のフレーム画像を生成して表示部17に出力する。これによって表示部17には、スルー画がリアルタイムで表示される。
 撮影モードにおいてシャッターボタン16aが全押し操作されて静止画の撮影が指示されると、制御部14は、撮像素子12に静止画用の撮像処理を行わせ、撮像素子12から取得した画像信号に対して所定の画像処理を行って静止画データを生成し、JPEGなどの所定の方式により圧縮処理を行って、記録媒体18に記録する。
 また、操作部材16からの操作信号に応じて再生モードに設定されると、制御部14は、記録媒体18に記録された静止画データを読み出して再生し、表示部17に表示する。
<クリエイティブモード>
 本実施形態のデジタルカメラ1Dでは、撮影モードとして、通常モードの他に、クリエイティブモードが設けられている。以下、このクリエイティブモードについて説明する。まず、クリエイティブモードにおいて、制御部14が実行する処理の流れを、図36に示すフローチャートを用いて説明する。図36に示す処理は、撮影モードがクリエイティブモードに設定されている間、繰り返し行われる。撮影モードがクリエイティブモードに切り替えられると、制御部14は、メモリに記録された図36の処理を行うプログラムを起動して、当該処理を開始する。
 ステップS1において、制御部14は、撮像素子12に時系列で被写体像を撮像させて撮像画像を取得し、スルー画として表示部17に表示する処理を開始する。
 ステップS2において、制御部14の表示制御部14aは、図37に示すように、撮像画像に対して行う画像処理を設定するための画像50をスルー画に重ねて表示部17に表示する処理を開始する。画像50は、リングを表示する画像であり、以下、リング画像50と表記する。また、表示制御部14aは、リング画像50のリング上にカーソル51を表示する。
 ステップS3において、制御部14は、タッチパネル16bから出力される操作信号に基づいて、カーソル51を移動するユーザ操作が行われたか否かを判定する。カーソル51を移動する操作とは、たとえば、カーソル51に対するドラッグ操作(ユーザがカーソル51をたとえば1本の指でタッチした後、タッチしたまま指を移動する操作)である。制御部14は、カーソル51に対するドラッグ操作が行われた場合にはステップS4へ進み、カーソル51に対するドラッグ操作が行われていない場合にはステップS8へ進む。
 ステップS4において、表示制御部14aは、上記ドラッグ操作に応じて、カーソル51をリング画像50のリングに沿って移動させる。
 ステップS5において、制御部14の画像処理設定部14bは、リング画像50に対するカーソル51の位置に応じて、撮像画像に対して行う画像処理を設定する。この点について、詳しくは後述する。
 ステップS6において、制御部14の画像処理部14cは、撮像画像に対して、画像処理設定部14bにより設定された画像処理を行う。
 ステップS7において、表示制御部14aは、画像処理部14cによる画像処理後の撮像画像をスルー画として表示部17に表示する。このようにデジタルカメラ1Dでは、リング画像50上でカーソル51を移動させることで撮像画像に施す画像処理の内容を変更することができ、変更後の画像処理が行われた撮像画像を、スルー画においてリアルタイムで確認させることができる。
 ステップS8において、制御部14は、ユーザにより撮影指示が行われたか(すなわちシャッターボタン16aが押下されたか)否かを判定する。制御部14は、撮影指示が行われた場合にはステップS9へ進み、撮影指示が行われていない場合にはステップS3へ戻る。
 ステップS9において、制御部14は、撮像素子12に記録用の撮像処理を行わせる。画像処理部14cは、当該撮像処理により得られた撮像画像データに対して、上記撮影指示の時点でのカーソル51の位置に応じた画像処理を行う。そして、制御部14は、当該画像処理が施された撮像画像データを、静止画データとして記録媒体18に記録し、図36に示す処理を終了する。
 このように、クリエイティブモードでは、ユーザがリング画像50上でカーソル51を移動させて所望の画像処理を設定した後、シャッターボタン16aを押下することで、所望の画像処理を施した静止画を記録することができるようになっている。
 なお、本説明において、画像処理には、たとえば彩度やコントラスト、ホワイトバランスなどのパラメータを変えることで画作りを行う処理や、たとえばフィルタをかけてぼかしたり周辺を暗くしてトイカメラ風にしたりするなど画像効果をかける処理が含まれるとする。
 次に、リング画像50について説明する。リング画像50内には、各種の画像処理を設定するための設定用領域52が設定される。設定用領域52については、ユーザが所望に応じてカスタマイズできるようになっている(詳しくは後述する)。デフォルトでは、一例として、図37に示すように、リング画像50に4つの設定用領域52a~設定用領域52dが設定されている。設定用領域52a~設定用領域52dは、リング画像50を4等分に分割する形状、すなわち中心角が90度の円弧形状(1/4円形状)でそれぞれ設定されている。ここでは、リング画像50の頂点から時計周り順に、設定用領域52a、設定用領域52b、設定用領域52c、設定用領域52dが設定されているとする。リング画像50では、たとえばリング画像50を分割する線によって、設定用領域52a~設定用領域52dの範囲が表示される。
 また、たとえば、設定用領域52aは「ポートレート」を設定するための領域として設定されている。設定用領域52bは「モノクローム」を設定するための領域として設定されている。設定用領域52cは「ハイキー」を設定するための領域として設定されている。設定用領域52dは「クロスプロセス」を設定するための領域として設定されている。リング画像50において、設定用領域52a~設定用領域52d内には、それぞれに対応する画像処理の名称がそれぞれ表示されている。
 なお、「ポートレート」は、人物の肌をきれいに見せる画作りを行うための画像処理である。「モノクローム」は、白黒の濃淡のみの画作りを行うための画像処理である。「ハイキー」は、画面全体が明るく陰影の少ない画作りを行うための画像処理である。「クロスプロセス」は、クロスプロセス(ポジフィルムを使いネガ用の現像を行う銀塩写真の手法)を行ったような画像効果を得るための画像処理である。これらの画像処理は、たとえば、輪郭強調、コントラスト、明るさなどの複数のパラメータをそれぞれ調整して、それぞれ目的とする画作りまたは画像効果を実現する画像処理である。たとえば、「ポートレート」では、輪郭強調、コントラスト、明るさ、彩度、色相をそれぞれ調整して、人物の肌をきれいに見せる画作りを実現する。
 ユーザは、カーソル51を所望の画像処理に対応する設定用領域52内に移動することで、撮像画像に対して行う画像処理を指定する。画像処理設定部14bは、カーソル51が位置する設定用領域52に対応する画像処理を、撮像画像に対して行う画像処理として設定する。たとえば、カーソル51が設定用領域52a内にある場合には、画像処理設定部14bは、設定用領域52aに対応する「ポートレート」を、撮像画像に対して行う画像処理として設定する。カーソル51が設定用領域52b~設定用領域52dにある場合も上記と同様に画像処理の設定が行われる。
 さらに画像処理設定部14bは、設定用領域52内におけるカーソル51の位置に応じて、撮像画像に対して行う画像処理の画像処理パラメータを設定する。画像処理パラメータとは、たとえば、効果レベルである。たとえば、カーソル51が設定用領域52a内にある場合には、画像処理設定部14bは、設定用領域52a内におけるカーソル51の位置に応じて、「ポートレート」の効果レベルを設定する。画像処理設定部14bは、設定用領域52a内において、時計周り方向側に隣接する設定用領域52bに近いほど効果レベルを大きく設定し、カーソル51が反時計周り方向側に隣接する設定用領域52d側に近いほど効果レベルを小さく設定する。すなわち、画像処理設定部14bは、設定用領域52a内において、カーソル51が時計周りに移動されると効果レベルを大きくし、カーソル51が反時計回りに移動されると効果レベルを小さくする。画像処理設定部14bは、設定用領域52a内におけるカーソル51の移動に応じて、「ポートレート」の効果レベルを、最小値から最大値の間で所定の段階数で段階的に変化させるようになっている。カーソル51が設定用領域52b~設定用領域52dにある場合も上記と同様に画像処理パラメータ(効果レベル)の設定が行われる。
 このように画像処理設定部14bは、リング画像50におけるカーソル51の位置に応じて、撮像画像に対して行う画像処理の種類とその画像処理パラメータを設定する。
<カスタマイズモード>
 また、デジタルカメラ1Dには、リング画像50をカスタマイズ可能なカスタマイズモードが設けられている。ユーザが操作部材16に対して所定の操作を行うことによりカスタマイズモードへの移行が指示されると、制御部14はカスタマイズモードに移行する。
 カスタマイズモードに移行すると、図38(a)に示すように、リング画像50の右側に、リング画像50に設定可能な画像処理を一覧表示する一覧表示領域54が設けられる。表示制御部14aは、一覧表示領域54に、リング画像50に設定可能な画像処理の名称が表示された画像処理アイコン53(53a~55d)を複数並べて表示する。なお、一覧表示領域54には、リング画像50において既に設定用領域52がある画像処理とは異なる画像処理の画像処理アイコン53が表示される。図38(a)では、画像処理アイコン53a~53dとして、「ビビッド」、「トイカメラ」、「風景」、「アヴァンギャルド」が表示されている。「ビビッド」は、コントラストが強調された色鮮やかな画作りを行うための画像処理である。「トイカメラ」は、トイカメラで撮影したような画像効果を得るための画像処理である。「風景」は、自然や街並みなどの景観に適した画作りを行うための画像処理である。「アヴァンギャルド」は、「ビビッド」よりもさらにコントラストと彩度を上げて独特の画作りを行うための画像処理である。なお、図38(a)では4種類の画像処理が表示されているが、リング画像50に設定可能な画像処理の数はこれに限らない。たとえば、ユーザが一覧表示領域54に対してフリック操作(指をタッチして弾く操作)を行うことで、一覧表示領域54内に表示されている画像処理アイコン53がスクロールされる(すなわち切り替えられる)ようにしてもよい。
 カスタマイズモードでは、リング画像50に対して、画像処理を設定するための設定用領域52を追加したり、削除したりできるようになっている。
 ユーザは、リング画像50に新たな設定用領域52を追加したい場合、一覧表示領域54に表示された画像処理アイコン53の中から、所望の画像処理に対応する画像処理アイコン53をリング画像50内へ移動するドラッグアンドドロップ操作を行う。このドラッグアンドドロップ操作とは、たとえば、タッチパネル16b上で、ドラッグ対象(ここでは画像処理アイコン53)を指でタッチしたまま指を移動させ、ドロップ箇所(ここではリング画像50内)で指を離す操作である。
 たとえば、画像処理アイコン53a(「ビビッド」)を、リング画像50内の設定用領域52a(「ポートレート」)内へ移動するドラッグアンドドロップ操作が行われたとする。制御部14のカスタマイズ処理部14dは、タッチパネル16bを介して上記操作を検出すると、図38(b)に示すように、画像処理アイコン53aに対応する画像処理「ビビッド」を設定するための設定用領域52eをリング画像50に追加する。設定用領域52eは、画像処理アイコン53aがドロップされた設定用領域52aの時計周り方向に隣接する箇所(図38(b)では設定用領域52aと設定用領域52bとの間)に追加される。このとき、設定用領域52a~設定用領域52eは、リング画像50を5等分に分割する形状、すなわち中心角が72度の円弧形状で設定される。また、ドラッグアンドドロップ操作が行われた画像処理アイコン53aは非表示となる。
 このようにユーザは、画像処理アイコン53をリング画像50内にドラッグアンドドロップする操作を行うことで、画像処理アイコン53に対応する画像処理を、リング画像50内に設定する画像処理として指定する。カスタマイズ処理部14dは、このようにユーザ操作によりリング画像50内に追加する画像処理が指定されると、既にリング画像50に設定されていた設定用領域52に加えて、上記ユーザ操作によって指定された画像処理を設定するための設定用領域52をリング画像50に新たに追加する。
 また、ユーザは、リング画像50から設定用領域52を削除したい場合、削除したい設定用領域52をリング画像50の外へ移動するドラッグアンドドロップ操作を行う。たとえば、図39(a)に示すように、リング画像50に4つの設定用領域52a~52dが設定されている状態で、設定用領域52d(「クロスプロセス」)をリング画像50の外へ移動するドラッグアンドドロップ操作が行われたとする。カスタマイズ処理部14dは、タッチパネル16bを介して上記操作を検出すると、図39(b)に示すように、設定用領域52d(「クロスプロセス」)」をリング画像50から削除する。このとき、残りの設定用領域52a~設定用領域52cは、リング画像50を3等分に分割する形状、すなわち中心角が120度の円弧形状に変更される。
 このようにユーザは、設定用領域52をリング画像50外にドラッグアンドドロップする操作を行うことで、リング画像50から削除する設定用領域52を指定する。カスタマイズ処理部14dは、このようにユーザ操作によりリング画像50から削除する設定用領域52が指定されると、上記ユーザ操作によって指定された設定用領域52をリング画像50から削除する。
 なお、各設定用領域52では、設定用領域52のサイズの変化(中心角の変化)に応じて、設定用領域52で設定可能な画像処理パラメータ(効果レベル)の段階数が増減される。設定用領域52のサイズが大きくなるほど、設定可能な画像処理パラメータ(効果レベル)の段階数が増え、設定用領域52のサイズが小さくなるほど、設定可能な画像処理パラメータ(効果レベル)の段階数が減る。たとえば、図38(a)から図38(b)の状態に変化するとき、設定用領域52が1つ追加される分、各設定用領域52のサイズは小さくなるため、各設定用領域52で設定可能な画像処理パラメータの段階数は減らされる。一方、図39(a)から図39(b)の状態に変化するとき、設定用領域52が1つ削除される分、各設定用領域52のサイズは大きくなるため、各設定用領域52で設定可能な画像処理パラメータの段階数は増やされる。
 ユーザが操作部材16を介して所定の操作を行うことによりカスタマイズモードの終了が指示されると、制御部14は、カスタマイズモードを終了し、表示画面内から一覧表示領域54を削除する。これ以降、カスタマイズモードでカスタマイズされたリング画像50を用いて、上述したように撮像画像に対して行う画像処理を設定できるようになる。
 以上説明したカスタマイズモードにおいて、制御部14が実行する処理の流れを、図40に示すフローチャートを用いて説明する。カスタマイズ処理部14dは、ユーザ操作によりカスタマイズモードへの移行が指示されると、メモリに記録された図40に示す処理を行うプログラムを起動して、当該処理を開始する。
 ステップS11において、表示制御部14aは、リング画像50の右側に設けられた一覧表示領域54に、リング画像50に設定可能な画像処理の名称が表示された複数の画像処理アイコン53を表示する。
 ステップS12において、カスタマイズ処理部14dは、一覧表示領域54内の画像処理アイコン53をリング画像50内にドラッグアンドドロップする操作が行われたか否かを判定する。カスタマイズ処理部14dは、上記操作が行われた場合にはステップS13に進み、上記操作が行われていない場合にはステップS14に進む。
 ステップS13において、カスタマイズ処理部14dは、上述したように、上記操作が行われた画像処理アイコン53に対応する画像処理を設定するための設定用領域52をリング画像50に追加する。
 ステップS14において、カスタマイズ処理部14dは、リング画像50内の設定用領域52をリング画像50の外にドラッグアンドドロップする操作が行われたか否かを判定する。カスタマイズ処理部14dは、上記操作が行われた場合にはステップS15に進み、上記操作が行われていない場合にはステップS16に進む。
 ステップS15において、カスタマイズ処理部14dは、上述したように、上記操作が行われた設定用領域52をリング画像50から削除する。
 ステップS16において、カスタマイズ処理部14dは、カスタマイズモードの終了が指示されたか否かを判定する。カスタマイズ処理部14dは、カスタマイズモードの終了が指示されていない場合にはステップS12に戻り、カスタマイズモードの終了が指示された場合には図40の処理を終了して、カスタマイズモードを終了する。
 以上説明した第四実施形態によれば、次の作用効果が得られる。
(1)デジタルカメラ1Dにおいて、表示制御部14aは、画像処理を設定するための設定用領域52が設定された設定用画像(リング画像50)を表示部17に表示させる。画像処理部14cは、ユーザ操作(カーソル51を移動する操作)により任意の設定用領域52が指定されると、指定された設定用領域52に対応する画像処理を撮像画像に対して行う。カスタマイズ処理部14dは、ユーザ操作(画像処理アイコン53を移動する操作)によりリング画像50内に設定されていない任意の画像処理が指定されると、指定された画像処理を設定するための設定用領域52をリング画像50に設定する。このように、デジタルカメラ1Dでは、画像処理を設定するためのリング画像50をユーザ操作に応じてカスタマイズすることができるので、個々のユーザごとにリング画像50を使いやすくすることができる。
(2)デジタルカメラ1Dにおいて、表示制御部14aは、複数の画像処理の各々に対応する複数の画像処理アイコン53を表示部17に表示させる。カスタマイズ処理部14dは、画像処理アイコン53をリング画像50内に移動するドラッグアンドドロップ操作が行われると、当該画像処理アイコン53に対応する画像処理を設定するための設定用領域52をリング画像50に追加する。また、カスタマイズ処理部14dは、設定用領域52をリング画像50外へ移動するドラッグアンドドロップ操作が行われると、当該設定用領域52を削除する。このようにデジタルカメラ1Dでは、ドラッグアンドドロップ操作を使って簡単にリング画像50をカスタマイズすることができる。
(第五実施形態)
 次に、図面を参照して本発明の第五実施形態について説明する。なお、第五実施形態において、デジタルカメラ1Dの構成(図35)については同様であるため、同一の符号を付して説明を省略する。また、図36で説明したクリエイティブモードにおける処理の流れも同様であるため、説明を省略する。第五実施形態では、リング画像50のカーソル51の位置に応じて画像処理を設定する処理について、第四実施形態と異なる点があるため、この点について詳しく説明する。
 図41を用いて、第五実施形態におけるリング画像50について説明する。第五実施形態では、第四実施形態と異なり、1つの設定用領域52において、1つの画像処理または2つの画像処理が設定できるようになっている。1つの設定用領域52に1つの画像処理が設定されている場合は、第四実施形態と同様に、その設定用領域52において、1つの画像処理が設定されると共に、その画像処理の画像処理パラメータ(効果レベル)が設定される。また、1つの設定用領域52に2つの画像処理が設定されている場合は、その設定用領域52において、2つの画像処理が設定されると共に、その2つの画像処理の画像処理パラメータ(2つの画像処理の比率)が設定される。
 第五実施形態においても、リング画像50の設定用領域52を、ユーザが所望に応じてカスタマイズできるようになっている(詳しくは後述する)。デフォルトでは、一例として、図41に示すように、リング画像50に4つの設定用領域52f~設定用領域52iが設定されている。設定用領域52f~設定用領域52iは、リング画像50を4等分に分割する形状、すなわち中心角が90度の円弧形状(1/4円形状)でそれぞれ設定されている。ここでは、リング画像50の頂点から時計周り順に、設定用領域52f、設定用領域52g、設定用領域52h、設定用領域52iが設定されているとする。リング画像50では、たとえばリング画像50を分割する線によって、設定用領域52f~設定用領域52iの範囲が表示される。
 また、たとえば、設定用領域52fは「ポートレート」および「モノクローム」を設定するための領域として設定されている。設定用領域52gは「モノクローム」および「ハイキー」を設定するための領域として設定されている。設定用領域52hは「ハイキー」および「クロスプロセス」を設定するための領域として設定されている。設定用領域52iは「クロスプロセス」および「ポートレート」を設定するための領域として設定されている。リング画像50において、設定用領域52f~設定用領域52i内には、それぞれに対応する画像処理の名称が表示されている。
 ユーザは、カーソル51を所望の設定用領域52内に移動することで、撮像画像に対して行う画像処理を指定する。画像処理設定部14bは、カーソル51が位置する設定用領域52に対応する画像処理を、撮像画像に対して行う画像処理として設定する。たとえば、カーソル51が設定用領域52f内にある場合には、画像処理設定部14bは、設定用領域52fに対応する「ポートレート」および「モノクローム」の2つの画像処理を、撮像画像に対して行う画像処理として設定する。カーソル51が設定用領域52g~設定用領域52iにある場合も上記と同様に画像処理の設定が行われる。
 さらに画像処理設定部14bは、設定用領域52内におけるカーソル51の位置に応じて、撮像画像に対して行う画像処理の画像処理パラメータを設定する。第五実施形態では、画像処理パラメータとして、2つの画像処理の比率が設定される。たとえば、カーソル51が設定用領域52f内にある場合には、画像処理設定部14bは、設定用領域52f内におけるカーソル51の位置に応じて、「ポートレート」と「モノクローム」の比率を設定する。画像処理設定部14bは、設定用領域52f内において、カーソル51が時計周り方向に隣接する設定用領域52g側に近いほど「ポートレート」の比率を低くして「モノクローム」の比率を高くする。一方、画像処理設定部14bは、設定用領域52f内において、カーソル51が反時計周り方向に隣接する設定用領域52i側に近いほど「ポートレート」の比率を高くして「モノクローム」の比率を低くする。すなわち、画像処理設定部14bは、設定用領域52f内において、カーソル51が時計周りに移動されると「ポートレート」の比率を低くして「モノクローム」の比率を高くする。一方、画像処理設定部14bは、設定用領域52f内において、カーソル51が反時計周りに移動されると「ポートレート」の比率を高くして「モノクローム」の比率を低くする。また、このような処理が行われることをユーザに直感的にわかりやすくするため、設定用領域52f内には、反時計周り方向側に「ポートレート」の文字が表示され、時計周り方向側に「モノクローム」の文字が表示される。
 画像処理設定部14bは、設定用領域52f内におけるカーソル51の移動に応じて、「ポートレート」および「モノクローム」の比率を、所定の段階数で段階的に変化させる。たとえば、カーソル51が時計周りに移動されると、「ポートレート100%」から、「ポートレート75%、モノクローム25%(「ポートレート」を75%、「モノクローム」を25%の比率で行う設定)」、「ポートレート50%、モノクローム50%」、「ポートレート25%、モノクローム75%」を経て、「モノクローム100%」に設定が変化される。
 なお、「ポートレート75%、モノクローム25%」、「ポートレート50%、モノクローム50%」、および「ポートレート25%、モノクローム75%」は、「ポートレート」および「モノクローム」の両方を行う(すなわち「ポートレート」および「モノクローム」を重ねがけする)設定である。また、「ポートレート」を75%の比率で行うとは、たとえば、撮像画像に「ポートレート」のみを施したとき(すなわち「ポートレート」を100%施したとき)における撮像画像の変化の度合いを100%としたときに、その度合いの75%程度撮像画像が変化するように「ポートレート」を施すことである。
 このように画像処理設定部14bは、設定用領域52fにおけるカーソル51の位置に応じて、2つの画像処理「ポートレート」および「モノクローム」の比率を設定する。画像処理部14cは、画像処理設定部14bにより設定された比率でこれら2つの画像処理を撮像画像に対して重ね掛けする。このような処理により、カーソル51が設定用領域52fにおいて時計周りに移動するのに伴って、表示部17に表示される撮像画像が、「ポートレート」のみを施した状態から「モノクローム」のみを施した状態へと徐々に遷移するようになっている。
 なお、カーソル51が設定用領域52h~設定用領域52iにある場合も上記と同様にして、それぞれに対応する2つの画像処理の比率が設定される。したがってデフォルトのリング画像50では、カーソル51が時計周りに設定用領域52f~52iを移動する(すなわち時計周りに1回転する)と、撮像画像に施される画像処理が「ポートレート」、「モノクローム」、「ハイキー」、「クロスプロセス」の順で徐々に変化された後、「ポートレート」に戻るようになっている。
<カスタマイズモード>
 第五実施形態のデジタルカメラ1Dにおいても、リング画像50をカスタマイズ可能なカスタマイズモードが設けられている。ユーザが操作部材16に対して所定の操作を行うことによりカスタマイズモードへの移行が指示されると、制御部14はカスタマイズモードに移行する。
 カスタマイズモードに移行すると、図42(a)に示すように、リング画像50の右側に、一覧表示領域54が設けられる。表示制御部14aは、一覧表示領域54に、リング画像50に設定可能な画像処理の名称が表示された複数の画像処理アイコン53(53a~55d)を縦一列に並べて表示する。図42(a)では、画像処理アイコン53a~53dとして、「ビビッド」、「トイカメラ」、「風景」、「アヴァンギャルド」が表示されている。
 第五実施形態においても、カスタマイズモードでは、リング画像50において、画像処理を設定するための設定用領域52を追加したり、削除したりできるようになっている。
 ユーザは、リング画像50に新たな設定用領域52を追加したい場合には、一覧表示領域54に表示された画像処理アイコン53の中から、所望の画像処理に対応する画像処理アイコン53を、リング画像50内へ移動するドラッグアンドドロップ操作を行う。たとえば、画像処理アイコン53a(「ビビッド」)を、リング画像50内の設定用領域52f(「ポートレート」および「モノクローム」)内へ移動するドラッグアンドドロップ操作が行われたとする。カスタマイズ処理部14dは、タッチパネル16bを介して上記操作を検出すると、図42(b)に示すように、画像処理アイコン53aに対応する画像処理「ビビッド」を設定するための設定用領域52jをリング画像50に追加する。このとき、設定用領域52f~設定用領域52jは、リング画像50を5等分に分割する形状、すなわち中心角が72度の円弧形状に設定される。また、設定用領域52jは、画像処理アイコン53aがドロップされた設定用領域52fの時計周り方向に隣接する箇所(図42(b)では設定用領域52fと設定用領域52gとの間)に追加される。
 また、このとき、設定用領域52f~設定用領域52iについてはそれぞれ2つの画像処理が設定されているが、追加される設定用領域52jについては1つの画像処理(「ビビッド」)のみが設定された状態となる。このとき、設定用領域52j内には、画像処理の名称「ビビッド」が表示される。設定用領域52j内においてカーソル51が反時計周りに移動されると「ビビッド」の効果レベルが低くなり、時計周りに移動されると「ビビッド」の効果レベルが高くなるように設定される。
 ここで、ユーザが設定用領域52jにもう1つ画像処理を設定したい場合には、設定したい画像処理に対応する画像処理アイコン53を、設定用領域52j内へ移動するドラッグアンドドロップ操作を行う。たとえば、図43(a)に示すように、画像処理アイコン53b(「トイカメラ」)を、設定用領域52j(「ビビッド」)内へ移動するドラッグアンドドロップ操作が行われたとする。カスタマイズ処理部14dは、タッチパネル16bを介して上記操作を検出すると、図43(b)に示すように、画像処理アイコン53bに対応する画像処理「トイカメラ」を、設定用領域52jに追加で設定する。すなわち、カスタマイズ処理部14dは、設定用領域52jを、「ビビッド」と「トイカメラ」の両方を設定するための設定用領域に変更する。このとき、設定用領域52j内には、たとえば、反時計周り方向側に「ビビッド」の文字が表示され、時計周り方向側に「トイカメラ」の文字が表示される。したがって、設定用領域52j内においてカーソル51が反時計周りに移動されると「ビビッド」の比率が高く「トイカメラ」の比率が低くなり、時計周りに移動されると「トイカメラ」の比率が高く「ビビッド」の比率が低くなるように設定される。
 また、図42(b)に示したように、2つの画像処理が設定されている設定用領域52f~52iと1つの画像処理のみが設定されている設定用領域52jとの両方がリング画像50に設定されている状態がある。この状態で、ユーザがさらに新たな設定用領域52をリング画像50に追加したい場合には、所望の画像処理に対応する画像処理アイコン53を、2つの画像処理が設定されている設定用領域(ここでは設定用領域52f~設定用領域52iのいずれか)へ移動するドラッグアンドドロップ操作を行うようにする。たとえば、図45(a)に示すように、リング画像50に5つの設定用領域52f~52jが設定されているとする。この状態で、画像処理アイコン53b(「トイカメラ」)を、設定用領域52h(「ハイキー」および「クロスプロセス」)内へ移動するドラッグアンドドロップ操作が行われたとする。カスタマイズ処理部14dは、タッチパネル16bを介して上記操作を検出すると、図44(b)に示すように、画像処理アイコン53bに対応する画像処理「トイカメラ」を設定するための設定用領域52kをリング画像50に追加する。このとき、設定用領域52f~設定用領域52kは、リング画像50を6等分に分割する形状、すなわち中心角が60度の円弧形状に設定される。また、設定用領域52kは、画像処理アイコン53bがドロップされた設定用領域52hの時計周り方向に隣接する箇所(図44(b)では設定用領域52hと設定用領域52iとの間)に追加される。
 以上のように、カスタマイズ処理部14dは、画像処理アイコン53を、2つの画像処理が設定されている設定用領域52へ移動するドラッグアンドドロップ操作が行われた場合には、当該画像処理アイコン53に対応する設定用領域52をリング画像50に追加する。一方、カスタマイズ処理部14dは、画像処理アイコン53を、1つの画像処理が設定されている設定用領域52へ移動するドラッグアンドドロップ操作が行われた場合には、当該設定用領域52を、既に設定されている画像処理と、当該画像処理アイコン53に対応する画像処理の両方を設定するための設定用領域52に変更する。
 また、ユーザは、リング画像50から設定用領域52を削除したい場合には、第四実施形態と同様に、削除したい設定用領域52をリング画像50の外へ移動するドラッグアンドドロップ操作を行う。カスタマイズ処理部14dは、タッチパネル16bを介して上記操作を検出すると、上記操作が行われた設定用領域52をリング画像50から削除する。
 なお、第五実施形態においても、第四実施形態と同様に、各設定用領域52では、設定用領域52のサイズの変化(中心角の変化)に応じて、設定用領域52で設定可能な画像処理パラメータの段階数が増減される。
 以上説明したカスタマイズモードにおいて、制御部14が実行する処理の流れを、図45に示すフローチャートを用いて説明する。カスタマイズ処理部14dは、ユーザ操作によりカスタマイズモードへの移行が指示されると、メモリに記録された図45に示す処理を行うプログラムを起動して、当該処理を開始する。
 ステップS21において、表示制御部14aは、リング画像50の右側に設けられた一覧表示領域54に、リング画像50に設定可能な画像処理の名称が表示された複数の画像処理アイコン53を表示する。
 ステップS22において、カスタマイズ処理部14dは、一覧表示領域54内の画像処理アイコン53をリング画像50内にドラッグアンドドロップする操作が行われたか否かを判定する。カスタマイズ処理部14dは、上記操作が行われた場合にはステップS23に進み、上記操作が行われていない場合にはステップS26に進む。
 ステップS23において、カスタマイズ処理部14dは、画像処理アイコン53の移動先の設定用領域52に設定されている画像処理の数を判定する。画像処理アイコン53の移動先の設定用領域52に1つの画像処理が設定されている場合には、カスタマイズ処理部14dはステップS24へ進む。一方、画像処理アイコン53の移動先の設定用領域52に2つの画像処理が設定されている場合には、カスタマイズ処理部14dはステップS25へ進む。
 ステップS24において、カスタマイズ処理部14dは、上述したように、画像処理アイコン53の移動先の設定用領域52に、当該画像処理アイコン53に対応する画像処理を追加で設定する。すなわち、カスタマイズ処理部14dは、上記移動先の設定用領域52を、既に設定されている画像処理と、当該画像処理アイコン53に対応する画像処理との両方を設定するための設定用領域52に変更する。
 ステップS25において、カスタマイズ処理部14dは、上述したように、移動された画像処理アイコン53に対応する画像処理を設定するための設定用領域52をリング画像50に追加する。
 ステップS26において、カスタマイズ処理部14dは、リング画像50内の設定用領域52をリング画像50の外にドラッグアンドドロップする操作が行われたか否かを判定する。カスタマイズ処理部14dは、上記操作が行われた場合にはステップS27に進み、上記操作が行われていない場合にはステップS28に進む。
 ステップS27において、カスタマイズ処理部14dは、上述したように、上記操作が行われた設定用領域52をリング画像50から削除する。
 ステップS28において、カスタマイズ処理部14dは、カスタマイズモードの終了が指示されたか否かを判定する。カスタマイズ処理部14dは、カスタマイズモードの終了が指示されていない場合にはステップS22に戻り、カスタマイズモードの終了が指示された場合には図45の処理を終了して、カスタマイズモードを終了する。
 なお、上述したカスタマイズモードにおいて、1つの画像処理が設定された設定用領域52が2つある場合に、これら2つの設定用領域52を合成して1つにするようなユーザ操作を行えるようにしてもよい。この場合、カスタマイズ処理部14dは、たとえば、異なる2つの設定用領域52内の任意の位置を同時に長押しする操作を、これら2つの設定用領域52を合成する操作として受け付ける。ここで、長押し操作とは、指などをタッチパネル16b上の任意の位置に所定時間以上継続して接触させる操作であるとする。
 たとえば、図46(a)に示すように、リング画像50内に、1つの画像処理(「ビビッド」)が設定されている設定用領域52jと、1つの画像処理(「トイカメラ」)が設定されている設定用領域52kとが設定されているとする。リング画像50には、この他に4つの設定用領域52f~52iが設定されているとする。この状態で、ユーザが設定用領域52j内の任意の位置と設定用領域52k内の任意の位置とを、異なる2つの指で同時に長押し操作したとする。カスタマイズ処理部14dは、タッチパネル16bを介して上記操作を検出すると、図46(b)に示すように、設定用領域52jと設定用領域52kを合成して、設定用領域52jに対応する画像処理「ビビッド」と設定用領域52kに対応する画像処理「トイカメラ」の2つを設定するための設定用領域52lとする。すなわち、カスタマイズ処理部14dは、設定用領域52jおよび設定用領域52kを削除し、代わりに設定用領域52jが配置されていた位置に、新たな設定用領域52lを追加する。
 また、上述した処理では、画像処理アイコン53を1つの画像処理が設定されている設定用領域52へ移動するドラッグアンドドロップ操作が行われた場合には、当該画像処理アイコン53に対応する画像処理を、設定用領域52へ追加で設定するようにした。しかしながら、移動された画像処理アイコン53に対応する画像処理と、設定用領域52に既に設定されている画像処理とが、撮像画像に対して互いに重ね掛けできないような画像処理(たとえば「モノクローム」と「ビビッド」など)である場合もある。そこで、このような場合には、カスタマイズ処理部14dは、移動された画像処理アイコン53に対応する画像処理を移動先の設定用領域52に追加するのではなく、当該画像処理を設定するための新たな設定用領域52をリング画像50に追加するようにしてもよい。また、このような場合には、カスタマイズ処理部14dは、画像処理アイコン53を移動先の設定用領域52から弾くような表示を行うようにしてもよい。こうすることで、画像処理アイコン53に対応する画像処理が移動先の設定用領域52に追加できないことをユーザに報知することができる。なお、撮像画像に対して互いに重ね掛けできないような画像処理の情報については、予め不図示のメモリに記憶しておき、カスタマイズ処理部14dがメモリに記憶された当該情報を参照すればよい。
 以上説明した第五実施形態によれば、次の作用効果が得られる。
 デジタルカメラ1Dにおいて、カスタマイズ処理部14dは、第1画像処理(たとえば「トイカメラ」)に対応する画像処理アイコン53を、第2画像処理(たとえば「ビビッド」)を設定するための設定用領域52内に移動するドラッグアンドドロップ操作が行われると、当該設定用領域52を、第1画像処理と第2画像処理との両方を設定するための設定用領域52に変更する。また、カスタマイズ処理部14dは、第3画像処理(たとえば「風景」)に対応する画像処理アイコン53を、第1画像処理(たとえば「トイカメラ」)と第2画像処理(たとえば「ビビッド」)との両方を設定するための設定用領域52内に移動するドラッグアンドドロップ操作が行われると、当該設定用領域52に加えて、第3画像処理を設定するための設定用領域52をリング画像50に追加する。このようにデジタルカメラ1Dでは、ドラッグアンドドロップ操作を使って簡単にリング画像50をカスタマイズすることができる。
(変形例1)
 上述した第五実施形態では、一覧表示領域54に、リング画像50において既に設定用領域52がある画像処理の画像処理アイコン53も表示されてもよい。そして、リング画像50内の設定用領域52へ、当該設定用領域52に対応する画像処理と同じ画像処理の画像処理アイコン53を移動するドラッグアンドドロップ操作を行えるようにしてもよい。この場合、たとえば、カスタマイズ処理部14dは、上記操作を、上記設定用領域52において設定可能な画像処理パラメータの変化の仕方を変更する指示として受け付ける。
 たとえば、図47に示すように、リング画像50内に4つの設定用領域52f~設定用領域52iが設定された状態であるとする。設定用領域52fは「ポートレート」および「モノクローム」を設定するための領域である。設定用領域52fでは、撮像画像に対して行う「ポートレート」および「モノクローム」の比率を画像処理パラメータとして設定可能である。また、一覧表示領域54には、「ポートレート」に対応する画像処理アイコン53iと、「モノクローム」に対応する画像処理アイコン53jとが表示されているとする。
 図48は、設定用領域52f内のカーソル51の位置に応じて「ポートレート」および「モノクローム」の比率を設定する際の、これらの比率の変化曲線を説明する図である。ここでは3種類の変化曲線K0,K1,K2が用意されているとする。図48において、横軸は設定用領域52f内でのカーソル51の位置を示す。左から右へ向かう方向がリング画像50での時計周り方向に対応する。縦軸は、変化曲線から上側が「ポートレート」の比率を示し、変化曲線から下側が「モノクローム」の比率を示す。どの変化曲線においても、左端の位置では「ポートレート」が100%で「モノクローム」が0%であり、右端の位置では「ポートレート」が0%で「モノクローム」が100%である。
 設定用領域52fにおいて、デフォルトの状態では、画像処理設定部14bが「ポートレート」および「モノクローム」の比率を変化曲線K0に沿って変化させるようになっている。変化曲線K0は直線である。したがって、変化曲線K0では、カーソル51が時計周り方向(図48における左から右へ向かう方向)に移動する際、「ポートレート」の比率は100%から0%まで直線的に変化し、「モノクローム」の比率は0%から100%まで直線的に変化する。
 図47に示した状態において、画像処理アイコン53j(「モノクローム」)を設定用領域52fへ移動するドラッグアンドドロップ操作が行われたとする。カスタマイズ処理部14dは、上記操作を検出すると、画像処理設定部14bが「ポートレート」および「モノクローム」の比率を変化曲線K1に沿って変化させるように、設定用領域52fにおける画像処理パラメータ(2つの画像処理の比率)の変化の仕方を変更する。変化曲線K1は、図48において上側に膨らんだ曲線である。したがって、変化曲線K1では、カーソル51が時計周り方向に移動する際、変化曲線K0に比べて「モノクローム」比率が高くなる(つまり「ポートレート」の比率が低くなる)のが速くなっている。
 一方、図47に示した状態において、画像処理アイコン53i(「ポートレート」)を設定用領域52fへ移動するドラッグアンドドロップ操作が行われたとする。カスタマイズ処理部14dは、上記操作を検出すると、画像処理設定部14bが「ポートレート」および「モノクローム」の比率を変化曲線K2に沿って変化させるように、設定用領域52fにおける画像処理パラメータ(2つの画像処理の比率)の変化の仕方を変更する。変化曲線K2は、図48において下側に膨らんだ曲線である。したがって、変化曲線K2では、カーソル51が時計周り方向に移動する際、変化曲線K0に比べての「ポートレート」の比率が低くなる(つまり「モノクローム」の比率が高くなる)のが遅くなっている。
 このように、カスタマイズ処理部14dは、2つの画像処理が設定された設定用領域52に、当該設定用領域52に設定された画像処理と同じ画像処理の画像処理アイコン53を移動するドラッグアンドドロップ操作が行われた場合には、当該設定用領域52においてカーソル51の位置に応じて変化される画像処理パラメータ(2つの画像処理の比率)の変化の仕方を変更する。
 また、カスタマイズ処理部14dは、1つの画像処理が設定された設定用領域52に、当該設定用領域52に設定された画像処理と同じ画像処理の画像処理アイコン53を移動するドラッグアンドドロップが行われた場合には、当該設定用領域52においてカーソル51の位置に応じて変化される画像処理パラメータ(効果レベル)の変化の仕方を変更するようにしてもよい。たとえば、「ビビッド」が設定された設定用領域52jに「ビビッド」の画像処理アイコン53aを移動するドラッグアンドドロップが行われたとする。この場合、カスタマイズ処理部14dは、設定用領域52jにおいて設定可能な「ビビッド」の効果レベルの最大値を変更する(たとえば最大値を高くする)ようにしてもよい。また、この場合、カスタマイズ処理部14dは、設定用領域52jにおいてカーソル51の位置に応じて変化される効果レベルの変化曲線の形状を変更するようにしてもよい。
(変形例2)
 上述した第四実施形態および第五実施形態では、リング画像50を等分割するように各設定用領域52のサイズを設定する例について説明したが、これに限らなくてよい。たとえば、新たに追加する設定用領域52を、既に設定されている設定用領域52よりも大きなサイズで追加するようにしてもよい。
 たとえば、第四実施形態において、図49(a)に示すように、リング画像50に4つの設定用領域52a~52dが設定されている状態で、画像処理アイコン53a(「ビビッド」)をリング画像50内へ移動するドラッグアンドドロップ操作が行われたとする。すると、カスタマイズ処理部14dは、図49(b)に示すように、画像処理アイコン53aに対応する設定用領域52eを、既に設定されていた設定用領域52a~52dよりも大きいサイズとなる(すなわち円弧の中心角が大きくなる)ようにして追加する。このとき、カスタマイズ処理部14dは、上述したように、設定用領域52のサイズの変化に応じて、設定用領域52で設定可能な画像処理パラメータの段階数を増減させる。このような処理により、ユーザがドラッグアンドドロップ操作を行った画像処理アイコン53に対応する画像処理については、設定用領域52で設定可能な画像処理パラメータの段階数を比較的多くすることができ、画像処理パラメータの細かい調整を行えるようにできる。
 また、リング画像50内に設定されている設定用領域52のサイズを、たとえばピンチイン操作やピンチアウト操作などのユーザ操作によって自由に変更できるようにしてもよい。なお、ピンチイン操作は、タッチパネル16bで同時に2つの指を接触させ、その2つの接触位置の間隔を狭める操作である。ピンチアウト操作は、タッチパネル16bで同時に2つの指を接触させ、その2つの接触位置の間隔を広げる操作である。たとえば、カスタマイズ処理部14dは、設定用領域52内でピンチアウト操作が行われると、当該操作に応じてその設定用領域52のサイズを大きくすると共に、これに応じて他の設定用領域52のサイズを小さくする。また、カスタマイズ処理部14dは、設定用領域52内でピンチイン操作が行われると、当該操作に応じてその設定用領域52のサイズを小さくすると共に、これに応じて他の設定用領域52のサイズを大きくする。さらに、カスタマイズ処理部14dは、設定用領域52のサイズが最小値である場合にさらにその設定用領域52内でピンチイン操作が行われた場合には、その設定用領域52を削除するようにしてもよい。
(変形例3)
 上述した第四実施形態および第五実施形態において、ユーザによりリング画像50内の異なる複数の位置が同時に長押し操作されると、当該複数の位置に応じた複数の画像処理を重ね掛けした画像を撮影するようにしてもよい。たとえば、第四実施形態において、図37に示したように、リング画像50に設定用領域52a~52dが設定されているとする。この状態において、ユーザが設定用領域52a(「ポートレート」)内の位置と、設定用領域52d(「クロスプロセス」)内の位置とを同時に長押し操作したとする。すると、制御部14は、上記長押し操作を、複数の画像処理を重ね掛けした画像の撮影指示として受け付ける。画像処理設定部14bは、設定用領域52a内で長押し操作された位置に応じて「ポートレート」の効果レベルを設定し、設定用領域52d内で長押し操作された位置に応じて「クロスプロセス」の効果レベルを設定する。画像処理部14cは、上記長押し操作の時点で撮像素子12により撮像された撮像画像に対して、「ポートレート」と「クロスプロセス」の画像処理を、画像処理設定部14bにより設定された効果レベルで重ね掛けする。制御部14は、画像処理部14cによる画像処理後の撮像画像を記録媒体18に記録する。
 このように、画像処理部14cは、リング画像50において第1の設定用領域52内の位置と、第2の設定用領域52内の位置との両方がユーザ操作(ここでは長押し操作)により指定されると、第1の設定用領域52に対応する画像処理と第2の設定用領域52に対応する画像処理の両方を撮像画像に対して行う。これにより、ユーザが簡単な操作を行うだけで、デジタルカメラ1Dにおいて複数の画像処理を施した撮像画像を取得することができる。
(変形例4)
 上述した第四実施形態および第五実施形態において、デジタルカメラ1Dは、ユーザによりリング画像50内の異なる複数の位置が同時に長押し操作されると、連写撮影を行うようにしてもよい。そして、デジタルカメラ1Dは、連写撮影された複数の撮像画像に対して、当該複数の位置に応じた複数の画像処理のそれぞれを施して記録するようにしてもよい。
 たとえば、第五実施形態において、図37に示したように、リング画像50に設定用領域52a~52dが設定されているとする。この状態において、ユーザが設定用領域52a(「ポートレート」)内の位置と、設定用領域52d(「クロスプロセス」)内の位置とを同時に長押し操作したとする。すると、制御部14は、上記長押し操作を連写撮影指示として受け付け、長押し操作された位置の数の撮像画像が得られるような回数の連写撮影を行う。ここでは、長押し操作された位置が2箇所であるため、制御部14は、撮像素子12に静止画用の撮像処理を2回連続して行わせる連写撮影を行い、2枚の撮像画像を得る。
 画像処理設定部14bは、設定用領域52a内で長押し操作された位置に応じて「ポートレート」の効果レベルを設定し、設定用領域52d内で長押し操作された位置に応じて「クロスプロセス」の効果レベルを設定する。画像処理部14cは、上記連写撮影により取得された2枚の撮像画像のうち、1枚の撮像画像に対しては「ポートレート」の画像処理を、画像処理設定部14bにより設定された効果レベルで施す。一方、画像処理部14cは、上記連写撮影により取得された2枚の撮像画像のうち、別のもう1枚の撮像画像に対しては「クロスプロセス」の画像処理を、画像処理設定部14bにより設定された効果レベルで施す。制御部14は、画像処理部14cによる画像処理後の2枚の撮像画像を記録媒体18に記録する。
(変形例5)
 上述した第四実施形態および第五実施形態において、カスタマイズ処理部14dは、リング画像50に設定用領域52を追加する際、設定用領域52の配置を自動的に並べ替えるようにしてもよい。カスタマイズ処理部14dは、たとえば、互いに画像効果が似ている画像処理など互いに親和性の高い画像処理を設定するための設定用領域52同士が隣接するように配置並べ替える。
(変形例6)
 上述した第四実施形態および第五実施形態では、リング画像50の各設定用領域52内に、各設定用領域52で設定可能な画像処理の名称を表示する例について説明したが、リング画像50における表示方法はこれに限らなくてよい。たとえば、図50に示すように、リング画像50内には画像処理の名称は表示させず、リング形状と、各設定用領域52f~52iの境界を表す線と、カーソル51とを表示させるようにしてもよい。リング画像50はスルー画に重ねて表示されるため、画像処理の名称などを表示しない方がスルー画が見やすいと考えられる。また、この場合、表示制御部14aは、カーソル51の位置に応じて設定される画像処理とその画像処理パラメータの内容を、表示部17の表示画面上部に設けられた内容表示領域55に表示させるようにしてもよい。たとえば、図50では、内容表示領域55に、「ポートレート70%&モノクローム30%」のように、設定される2つの画像処理の名称とこれら2つの画像処理の比率とが表示されている。なお、テキストで表示させるのではなく、画像処理の内容を表すようなマークなどで表示させるようにしてもよい。
(変形例7)
 上述した第四実施形態および第五実施形態では、カスタマイズモードにおいて、リング画像50における設定用領域52の数を増減可能である例について説明したが、リング画像50における設定用領域52の数が固定されていてもよい。この場合において、たとえば、図51(a)に示すように、リング画像50に4つの設定用領域52a~52dが設定されているとする。この状態において、画像処理アイコン53a(「ビビッド」)を設定用領域52a(「ポートレート」)に移動するドラッグアンドドロップ操作が行われたとする。すると、カスタマイズ処理部14dは、図51(b)に示すように、設定用領域52aにおいて設定可能な画像処理を「ポートレート」から「ビビッド」に変更する。このように、カスタマイズ処理部14dは、画像処理アイコン53を設定用領域52に移動するドラッグアンドドロップ操作に応じて、当該設定用領域52で設定可能な画像処理を変更するようにしてもよい。
(変形例8)
 上述した第四実施形態および第五実施形態では、予めデフォルトで所定の設定用領域52がリング画像50に設定された状態からリング画像50のカスタマイズを行う例について説明した。しかしながら、リング画像50に設定用領域52が全く設定されていない状態からリング画像50のカスタマイズを行えるようにしてもよい。
(変形例9)
 上述した第四実施形態および第五実施形態では、設定用領域52のサイズの変化に応じて、設定用領域52で設定可能な画像処理パラメータの段階数を増減させる例について説明したが、増減させずに固定であってもよいし、適宜、最適な数へ自動的に変更するようにしてもよい。
(変形例10)
 上述した実施の形態では、リング画像50内に設定した設定用領域52に画像処理を対応付ける例について説明したが、リング画像50内に設定した設定用点に画像処理を対応付けるようにしてもよい。たとえば、図52(a)に、変形例9におけるリング画像50を示す。デフォルトでは、リング画像50のリング上に、画像処理が対応付けられる4つの設定用点56a~56dが設定されているとする。設定用点56a~設定用点56dは、リング画像50のリングを4等分に分割する位置にそれぞれ設定されている。具体的に、設定用点56aはリング画像50の頂上地点に設定される。設定用点56bは設定用点56aから時計周りに90度離れた位置に設定される。設定用点56cは設定用点56aから180度離れた位置に設定される。設定用点56dは設定用点56aから反時計回りに90度離れた位置に設定される。また、設定用点56aには「ポートレート」が対応付けられている。設定用点56bには「モノクローム」が対応付けられている。設定用点56cには「ハイキー」が対応付けられている。設定用点56dには「クロスプロセス」が対応付けられている。各設定用点56a~56dの近傍には、それぞれに対応付けられた画像処理の名称が表示される。また、各設定用点56a~56dの位置がわかりやすいように、それぞれを通る線分が表示される。
 画像処理設定部14bは、カーソル51が設定用点56aに位置するときは、撮像画像に対して行う画像処理を、「ポートレート100%(「ポートレート」のみを行う設定)」に設定する。画像処理設定部14bは、カーソル51が設定用点56bに位置するときは、撮像画像に対して行う画像処理を、「モノクローム100%」に設定する。また画像処理設定部14bは、カーソル51が設定用点56aと設定用点56bとの間に位置するときは、撮像画像に対して行う「ポートレート」と「モノクローム」の両方を行うように設定する。このとき画像処理設定部14bは、カーソル51の位置に応じて「ポートレート」および「モノクローム」の比率を設定する。画像処理設定部14bは、カーソル51の位置が設定用点56aに近いほど「ポートレート」の比率を高くして「モノクローム」の比率を低くする。一方、画像処理設定部14bは、カーソル51の位置が設定用点56bに近いほど「モノクローム」の比率を高くして「ポートレート」の比率を低くする。
 同様に、画像処理設定部14bは、カーソル51が設定用点56cに位置するときは、撮像画像に対して行う画像処理を、「ハイキー100%」に設定する。画像処理設定部14bは、カーソル51が設定用点56dに位置するときは、撮像画像に対して行う画像処理を、「クロスプロセス100%」に設定する。カーソル51が設定用点56bと設定用点56cの間、設定用点56cと設定用点56dの間、設定用点56dと設定用点56aの間に位置する場合は、それぞれ、上述した設定用点56aと設定用点56bの間に位置する場合と同様にして、画像処理の設定が行われる。
 変形例9においても、リング画像50のカスタマイズが可能となっている。ユーザは、リング画像50に新たな設定用点56を追加したい場合には、一覧表示領域54に表示された画像処理アイコン53の中から、所望の画像処理に対応する画像処理アイコン53を、リング画像50内へ移動するドラッグアンドドロップ操作を行う。たとえば、画像処理アイコン53a(「ビビッド」)を、リング画像50内の設定用点56aと設定用点56bの間へ移動するドラッグアンドドロップ操作が行われたとする。カスタマイズ処理部14dは、タッチパネル16bを介して上記操作を検出すると、図52(b)に示すように、画像処理アイコン53aに対応する画像処理「ビビッド」が対応付けられた設定用点56eをリング画像50に追加する。このとき、設定用点56a~設定用点56eは、リング画像50を5等分に分割する位置にそれぞれ設定される。また設定用点56eは、画像処理アイコン53aがドロップされた箇所に対応する位置(図52(b)では、設定用点56aと設定用点56bとの間)に追加される。
 この状態のリング画像50では、カーソル51が設定用点56eに位置するときは、撮像画像に対して行う画像処理が「ビビッド100%」に設定される。また、カーソル51が設定用点56aと設定用点56eの間に位置するときは、「ポートレート」と「ビビッド」の両方が設定される。カーソル51が設定用点56eと設定用点56bの間に位置するときは「ビビッド」と「モノクローム」の両方が設定されることとなる。
 また、ユーザは、リング画像50から設定用点56を削除したい場合には、削除したい設定用点56の近傍に表示された画像処理の名称を一覧表示領域54内へ移動するドラッグアンドドロップ操作を行う。カスタマイズ処理部14dは、タッチパネル16bを介して上記操作を検出すると、上記操作が行われた設定用点56をリング画像50から削除する。
(変形例11)
 上述した実施の形態では、カーソル51の表示位置を移動させることによりリング画像50上におけるカーソル51の位置を変更する例について説明した。しかしながら、カーソル51を動かさずにリング画像50を回転させて、リング画像50上の各位置とカーソル51との相対位置を変更するようにしてもよい。
(変形例12)
 上述した実施の形態では、撮像画像に対して行う画像処理を設定するための設定用画像として、リング形状のリング画像50を表示する例について説明した。しかしながら、設定用画像は、リング形状の画像に限らなくてもよく、たとえば、バー形状の画像などであってもよい。
(変形例13)
 上述した実施の形態では、デジタルカメラ1Dの制御部14が不図示のメモリに記録されたプログラムを実行することで、上述した図36の処理を行う例について説明した。このプログラムは、製品出荷時に予め記録されていてもよいし、製品出荷後、メモリカードなどの記録媒体やインターネットなどのデータ信号を通じて提供されてもよい。デジタルカメラ1Dに対するプログラムの提供方法は、上述した図13の場合と同様である。ただし、図13におけるデジタルカメラ1をデジタルカメラ1Dと置き換える。
(変形例14)
 上述した第四実施形態および第五実施形態では、デジタルカメラに本発明を適用する例について説明したが、これに限らなくてよく、たとえば携帯電話機やタブレット端末などに本発明を適用するようにしてもよい。
 上述した第一実施形態から第五実施形態では、静止画撮影モードまたは動画撮影モードに設定されたときに本発明を適用する例について説明したが、これに限らなくてもよく、記録媒体18に記録されている撮像画像データを再生画像として表示部に再生する再生モードに設定されたときに本発明を適用するようにしてもよい。静止画撮影モードがクリエイティブモードに切り替えられると、制御部14は、再生画像が表示部に再生表示されているときに、リング画像50を再生画像に重畳表示させる。制御部14は、ロータリーマルチセレクター16cが回転操作されたと判定すると、リング画像50のカーソル52位置に応じた画像処理を、再生画像に施す。制御部は、操作部材、たとえばOKボタン、が押下されたことを検出すると、再生画像に施す画像処理が決定されたと判断し、画像処理を施した再生画像を記録媒体18に記録する。制御部14は、画像処理を施す前の再生画像を削除し、新たに画像処理を施された画像のみを記録媒体18に記録するようにしても良いし、画像処理を施す前の再生画像と画像処理を施した後の再生画像のどちらも記録するようにしてもよい。
 上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2013年第179597号(2013年8月30日出願)
 日本国特許出願2013年第246539号(2013年11月28日出願)
 日本国特許出願2013年第246540号(2013年11月28日出願)
 日本国特許出願2013年第246541号(2013年11月28日出願)
1、1B、1C、1D…デジタルカメラ
11…撮像光学系
12…撮像素子
14…制御部
14a…表示制御部
14b…位置選択部、選択部、画像処理設定部
14c…画像処理選択部、画像処理部、パラメータ変更部
14d…画像処理部、パラメータ変更部、カスタマイズ処理部
14e…シーン判別部、処理実行部、操作検出部
16…操作部材
16b…タッチパネル
17…表示部
18…記録媒体

Claims (38)

  1.  第1の画像処理と第2の画像処理とを画像に施して前記画像を変化させる画像処理部と、
     前記第1の画像処理を施したときの前記画像の変化の度合いと、前記第2の画像処理を施したときの前記画像の変化の度合いとを変化させる処理変化部と、を備え、
     前記処理変化部は、前記第1の画像処理による前記画像の変化の度合いを低くすると、前記第2の画像処理による前記画像の変化の度合いを高くする画像処理装置。
  2.  請求項1に記載の画像処理装置において、
     前記画像処理部により前記画像に対して施す画像処理をユーザ操作に応じて選択させるための選択画像を表示部に表示する表示制御部をさらに備える画像処理装置。
  3.  請求項2に記載の画像処理装置において、
     前記表示部の前記選択画像上において、第1の位置と、前記第1の位置から離れた位置にある第2の位置と、前記第1の位置および前記第2の位置の間の位置と、のいずれかの位置を選択可能である位置選択部をさらに備え、
     前記画像処理部は、前記位置選択部により、前記第1の位置が選択された場合には、前記画像に対して前記第1の画像処理を施し、前記第2の位置が選択された場合には、前記画像に対して前記第2の画像処理を施し、前記第1の位置と前記第2の位置の間の位置が選択された場合には、前記画像に対して前記第1の画像処理と前記第2の画像処理とを施す画像処理装置。
  4.  請求項3に記載の画像処理装置において、
     前記処理変化部は、前記画像処理部により前記画像に対して前記第1の画像処理と前記第2の画像処理とを施す場合には、前記位置選択部により選択された位置が、前記第1の位置に近いほど前記画像に施す前記第1の画像処理による前記画像の変化の度合いを高くして前記第2の画像処理による前記画像の変化の度合いを低くし、前記第2の位置に近いほど前記画像に施す前記第2の画像処理による前記画像の変化の度合いを高くして前記第1の画像処理による前記画像の変化の度合いを低くする画像処理装置。
  5.  請求項4に記載の画像処理装置において、
     前記画像における撮影シーンを判別するシーン判別部と、
     前記シーン判別部により判別された撮影シーンに応じた所定の複数の画像処理の中から少なくとも前記第1の画像処理と前記第2の画像処理とを選択する画像処理選択部と、
     を備える画像処理装置。
  6.  請求項3~5のいずれか一項に記載の画像処理装置において、
     前記位置選択部は、前記選択画像上において、前記第1の位置と、前記第2の位置と、前記第1の位置および前記第2の位置の間の位置と、に含まれない第3の位置をさらに選択可能であり、
     前記画像処理部は、前記位置選択部により、前記選択画像上の前記第3の位置が選択された場合には、前記画像に対して前記第2の画像処理を施さない画像処理装置。
  7.  請求項6に記載の画像処理装置において、
     前記位置選択部は、前記選択画像上において、前記第1の位置および前記第3の位置の間の位置をさらに選択可能であり、
     前記画像処理部は、前記位置選択部により、前記第3の位置が選択された場合には、前記画像に対して第3の画像処理を施し、前記第1の位置および前記第3の位置の間の位置が選択された場合には、前記画像に対して前記第1の画像処理と前記第3の画像処理とを施す画像処理装置。
  8.  請求項6に記載の画像処理装置において、
     前記画像処理部は、前記位置選択部により、前記選択画像上の前記第3の位置が選択された場合には、前記画像に対して前記第1の画像処理を施さない画像処理装置。
  9.  請求項8に記載の画像処理装置において、
     前記位置選択部は、前記選択画像上において、第4の位置をさらに選択可能であり、
     前記画像処理部は、前記位置選択部により、前記選択画像上の前記第4の位置が選択された場合には、前記画像に対して前記第1の画像処理を施す画像処理装置。
  10.  請求項6~8のいずれか一項に記載の画像処理装置において、
     前記選択画像上において、前記第3の位置、前記第1の位置、前記第2の位置の順で並んでいる画像処理装置。
  11.  請求項9に記載の画像処理装置において、
     前記選択画像上において、前記第4の位置、前記第3の位置、前記第1の位置、前記第2の位置の順で並んでいる画像処理装置。
  12.  請求項3~11のいずれか1項に記載の画像処理装置において、
     前記選択画像は、前記第1の位置と前記第2の位置とを含むリングと、前記リング上において前記位置選択部により選択されている位置を示すマークとを表示する画像であり、
     前記位置選択部は、前記選択画像の前記リング上において、前記第1の位置と、前記第2の位置と、前記第1の位置および前記第2の位置の間の位置と、のいずれかの位置を選択可能である画像処理装置。
  13.  請求項3に記載の画像処理装置において、
     前記表示制御部により、前記第1の画像処理および前記第2の画像処理とは異なり且つ前記画像に対する所定の処理用のパラメータを変更するために表示された変更画像に対する操作に応じて前記パラメータを変更するパラメータ変更部と、
     前記パラメータ変更部により変更された前記パラメータを用いて、前記所定の処理を行う処理実行部と、をさらに備え、
     前記処理実行部は、前記位置選択部が前記第1の位置または前記第2の位置を選択した場合の前記所定の処理と、前記第1の位置および前記第2の位置の間の位置を選択した場合の前記所定の処理と、を異ならせる画像処理装置。
  14.  請求項13に記載の画像処理装置において、
     前記処理実行部は、前記位置選択部が前記第1の位置または前記第2の位置を選択している場合には、前記第1の画像処理または前記第2の画像処理として用いる画像処理の変更を前記所定の処理とする画像処理装置。
  15.  請求項13または14に記載の画像処理装置において、
     前記処理実行部は、前記位置選択部が前記第1の位置および前記第2の位置の間の位置を選択している場合には、前記第1の画像処理を施したときの前記画像の変化の度合いと、前記第2の画像処理を施したときの前記画像の変化の度合いと、の比率を変化させる際の変化の仕方の変更を前記所定の処理とする画像処理装置。
  16.  請求項13または14に記載の画像処理装置において、
     前記処理実行部は、前記位置選択部が前記第1の位置および前記第2の位置の間の位置を選択している場合には、前記画像処理部が行う前記第1の画像処理を施したときの前記画像の変化の度合いと、前記第2の画像処理を施したときの前記画像の変化の度合いと、の比率の微調整を前記所定の処理とする画像処理装置。
  17.  請求項13または14に記載の画像処理装置において、
     前記処理実行部は、前記位置選択部が前記第1の位置および前記第2の位置の間の位置を選択している場合には、前記画像処理部が行う前記第1の画像処理と前記第2の画像処理の強弱の変更を前記所定の処理とする画像処理装置。
  18.  請求項13~17のいずれか一項に記載の画像処理装置において、
     前記位置選択部は、前記選択画像上において、前記第1の位置および前記第2の位置の間に含まれず且つ前記第1の位置に隣接する第3の位置をさらに選択可能であり、
     前記画像処理部は、前記位置選択部が前記第3の位置を選択している場合には、前記画像に対して前記第1の画像処理および前記第2の画像処理のいずれも行わず、
     前記処理実行部は、前記位置選択部が前記第3の位置を選択している場合と、前記第1の位置または前記第2の位置を選択している場合と、前記第1の位置および前記第2の位置の間の位置を選択している場合とで前記所定の処理を異ならせる画像処理装置。
  19.  請求項18に記載の画像処理装置において、
     前記処理実行部は、前記位置選択部が前記第3の位置を選択している場合には、前記画像の撮影設定を変更する画像処理装置。
  20.  請求項2に記載の画像処理装置において、
     前記選択画像を拡大するための拡大操作と前記選択画像を縮小するための縮小操作を検出する操作検出部と、をさらに備え、
     前記表示制御部は、前記第1の画像処理を施したときの前記画像の変化の度合いを段階的に変更するための第1画像部分と前記第2の画像処理を施したときの前記画像の変化の度合いを段階的に変更するための第2画像部分とを有する前記選択画像を前記表示部に表示すると共に、前記操作検出部により前記縮小操作が検出された場合には、前記第1画像部分および前記第2画像部分の両方において前記選択画像で変更可能な段階数を減らして表示し、前記拡大操作が検出された場合には、前記第1画像部分および前記第2画像部分の両方において前記選択画像で変更可能な段階数を増やして表示し、前記段階数が所定の上限値となった状態においてさらに前記拡大操作が検出された場合には、前記第1画像部分および前記第2画像部分のいずれか一方において前記段階数をさらに増やした状態で表示する画像処理装置。
  21.  請求項20に記載の画像処理装置において、
     前記表示制御部は、前記段階数が前記上限値となった状態においてさらに前記拡大操作が検出された場合には、前記第1画像部分および前記第2画像部分のいずれか一方を拡大すると共に前記段階数をさらに増やして表示し、他方を非表示にする画像処理装置。
  22.  請求項20に記載の画像処理装置において、
     前記表示制御部は、前記段階数が前記上限値となった状態においてさらに前記拡大操作が検出された場合には、前記第1画像部分および前記第2画像部分のうちいずれか一方の形状を変更すると共に前記段階数をさらに増やして表示し、他方を非表示にする画像処理装置。
  23.  請求項22に記載の画像処理装置において、
     前記選択画像は円形状であり、前記第1画像部分および前記第2画像部分は円弧形状であり、
     前記表示制御部は、前記段階数が前記上限値となった状態においてさらに前記拡大操作が検出された場合における前記形状の変更を、円弧形状から円形状へ変更する画像処理装置。
  24.  請求項20~23のいずれか一項に記載の画像処理装置において、
     前記表示制御部は、前記段階数が所定の下限値となった状態においてさらに前記縮小操作が検出された場合には、前記選択画像を非表示にする画像処理装置。
  25.  請求項20~24のいずれか一項に記載の画像処理装置において、
     前記表示制御部は、前記選択画像が表示されていない状態において、前記拡大操作が検出された場合には、前記選択画像を表示する画像処理装置。
  26.  請求項20~25のいずれか一項に記載の画像処理装置において、
     前記表示部に対する接触物の接触位置を検出する接触位置検出部をさらに備え、
     前記操作検出部は、前記接触位置検出部により複数の接触位置が検出されている場合に、前記複数の接触位置の間隔が広げられる操作を前記拡大操作として検出し、前記複数の接触位置の間隔が狭められる操作を前記縮小操作として検出する画像処理装置。
  27.  請求項20~26のいずれか一項に記載の画像処理装置において、
     前記第1画像部分は、前記画像に対して前記第1の画像処理を施したときの前記画像の変化の度合いと、前記第2の画像処理を施したときの前記画像の変化の度合いとの比率を示し、
     前記第2画像部分は、前記画像に対して前記第2の画像処理を施したときの前記画像の変化の度合いと、第3の画像処理を施したときの前記画像の変化の度合いとの比率を示す画像処理装置。
  28.  請求項2に記載の画像処理装置において、
     前記表示制御部により、前記第1の画像処理と前記第2の画像処理とを少なくとも含む画像処理を設定するための設定用領域が前記選択画像として前記表示部に表示されたとき、前記設定用領域にない画像処理がユーザ操作により指定されると、指定された画像処理を設定するための設定用領域を前記選択画像内に設定する領域設定部と、
     をさらに備える画像処理装置。
  29.  請求項28に記載の画像処理装置において、
     前記表示制御部は、所定の画像処理を設定するための所定の設定用領域が設定された前記選択画像を表示させ、
     前記領域設定部は、ユーザ操作により任意の画像処理が指定されると、前記所定の設定用領域に加えて、指定された画像処理を設定するための設定用領域を前記選択画像内に追加する画像処理装置。
  30.  請求項29に記載の画像処理装置において、
     前記表示制御部は、複数の画像処理の各々に対応する複数の画像処理アイコンを表示部に表示させ、
     前記領域設定部は、前記表示部に表示された画像処理アイコンを前記選択画像内に移動する操作が行われると、前記画像処理アイコンに対応する画像処理を設定するための設定用領域を前記選択画像内に追加する画像処理装置。
  31.  請求項30に記載の画像処理装置において、
     前記領域設定部は、第1画像処理に対応する画像処理アイコンを、第2画像処理を設定するための設定用領域内に移動する操作が行われると、前記設定用領域を、前記第1画像処理と前記第2画像処理とを設定するための設定用領域に変更する画像処理装置。
  32.  請求項31に記載の画像処理装置において、
     前記領域設定部は、第3画像処理に対応する画像処理アイコンを、第1画像処理と第2画像処理とを設定するための設定用領域内に移動する操作が行われると、前記第3画像処理を設定するための設定用領域を前記選択画像内に追加する画像処理装置。
  33.  請求項28~32のいずれか一項に記載の画像処理装置において、
     前記選択画像内において設定されている設定用領域を前記選択画像外に移動する操作が行われると、当該設定用領域を削除する領域削除部をさらに備える画像処理装置。
  34.  請求項28~33のいずれか一項に記載の画像処理装置において、
     ユーザ操作により前記設定用領域内の位置が指定されると、当該設定用領域に対応する画像処理に係る画像処理パラメータを、指定された位置に応じて設定するパラメータ設定部をさらに備え、
     前記画像処理部は、前記画像に対して、前記パラメータ設定部により設定された画像処理パラメータに基づいて画像処理を行う画像処理装置。
  35.  請求項34に記載の画像処理装置において、
     前記表示制御部は、複数の画像処理の各々に対応する複数の画像処理アイコンを表示部に表示させ、
     第4画像処理に対応する画像処理アイコンを、前記第4画像処理を設定するための設定用領域内に移動する操作が行われると、前記設定用領域において前記パラメータ設定部により変化可能な前記第4画像処理に係る画像処理パラメータの変化の仕方を変更する変更部をさらに備える画像処理装置。
  36.  請求項28~35のいずれか一項に記載の画像処理装置において、
     前記画像処理部は、前記選択画像内において設定されている設定用領域のうち第1設定用領域内の位置と第2設定用領域内の位置との両方がユーザ操作により指定されると、前記第1設定用領域に対応する画像処理と前記第2設定用領域に対応する画像処理の両方を前記画像に対して行う画像処理装置。
  37.  請求項1~36のいずれか一項に記載の画像処理装置において、
     被写体像を撮像し、前記画像を生成する画像撮像部をさらに備える画像処理装置。
  38.  画像を変化させる第1の画像処理と、
     前記画像を変化させる第2の画像処理と、
     前記第1の画像処理を施したときの前記画像の変化の度合いと、前記第2の画像処理を施したときの前記画像の変化の度合いとを変化させる処理と、
     前記第1の画像処理による前記画像の変化の度合いを低くする場合に、前記第2の画像処理による前記画像の変化の度合いを高くする処理と、
     をコンピュータに実行させる画像処理プログラム。
     
PCT/JP2014/072612 2013-08-30 2014-08-28 画像処理装置、および画像処理プログラム WO2015030126A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP18174791.6A EP3386183A1 (en) 2013-08-30 2014-08-28 Image processing device and image processing program
CN201480060062.XA CN105684420B (zh) 2013-08-30 2014-08-28 图像处理装置以及图像处理程序
EP14841208.3A EP3041221B1 (en) 2013-08-30 2014-08-28 Image processing device and image processing program
US14/913,609 US9918021B2 (en) 2013-08-30 2014-08-28 Image processing device that changes extent of image altering by first and second image processing
US15/883,705 US20180160053A1 (en) 2013-08-30 2018-01-30 Image processing device that changes extent of image altering by first and second image processing

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2013-179597 2013-08-30
JP2013179597A JP2015050542A (ja) 2013-08-30 2013-08-30 撮像装置、画像処理方法、および画像処理プログラム
JP2013246540A JP2015106744A (ja) 2013-11-28 2013-11-28 撮像装置、画像処理方法および画像処理プログラム
JP2013-246540 2013-11-28
JP2013246539A JP2015106743A (ja) 2013-11-28 2013-11-28 撮像装置、画像処理方法および画像処理プログラム
JP2013-246541 2013-11-28
JP2013-246539 2013-11-28
JP2013246541A JP2015106745A (ja) 2013-11-28 2013-11-28 撮像装置、画像処理方法および画像処理プログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/913,609 A-371-Of-International US9918021B2 (en) 2013-08-30 2014-08-28 Image processing device that changes extent of image altering by first and second image processing
US15/883,705 Continuation US20180160053A1 (en) 2013-08-30 2018-01-30 Image processing device that changes extent of image altering by first and second image processing

Publications (1)

Publication Number Publication Date
WO2015030126A1 true WO2015030126A1 (ja) 2015-03-05

Family

ID=52586674

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/072612 WO2015030126A1 (ja) 2013-08-30 2014-08-28 画像処理装置、および画像処理プログラム

Country Status (4)

Country Link
US (2) US9918021B2 (ja)
EP (2) EP3041221B1 (ja)
CN (3) CN108650450A (ja)
WO (1) WO2015030126A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5927363B1 (ja) * 2015-02-10 2016-06-01 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159545A1 (ja) * 2016-03-15 2017-09-21 富士フイルム株式会社 カメラ
KR102630191B1 (ko) * 2016-08-18 2024-01-29 삼성전자 주식회사 전자 장치 및 전자 장치 제어 방법
US10511801B2 (en) * 2016-08-24 2019-12-17 Whp Workflow Solutions, Inc. Portable recording device multimedia classification system
KR20180041366A (ko) * 2016-10-14 2018-04-24 엘지전자 주식회사 이동단말기 및 그 제어방법
CN106791732A (zh) * 2016-11-30 2017-05-31 努比亚技术有限公司 一种图像处理方法和装置
JP6836305B2 (ja) * 2017-01-13 2021-02-24 キヤノン株式会社 撮像制御装置およびその制御方法
WO2018212013A1 (ja) * 2017-05-18 2018-11-22 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
GB201708572D0 (en) * 2017-05-30 2017-07-12 Expodo Ltd Image capture
US10970552B2 (en) * 2017-09-28 2021-04-06 Gopro, Inc. Scene classification for image processing
CN108600716A (zh) * 2018-05-17 2018-09-28 京东方科技集团股份有限公司 投影设备和系统、投影方法
CN110942422A (zh) * 2018-09-21 2020-03-31 北京市商汤科技开发有限公司 一种图像处理方法、装置和计算机存储介质
JP6705533B2 (ja) * 2018-10-19 2020-06-03 ソニー株式会社 センサ装置、パラメータ設定方法
CN109542284B (zh) * 2018-11-15 2022-09-06 上海联影医疗科技股份有限公司 一种图像显示参数调节方法、装置、终端及存储介质
US11665273B2 (en) * 2020-03-03 2023-05-30 Samsung Electronics Co., Ltd. System and method for image color management
JP2021190780A (ja) * 2020-05-27 2021-12-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN111770265A (zh) * 2020-06-08 2020-10-13 Oppo(重庆)智能科技有限公司 亮度调整方法、装置及相关设备
US11785266B2 (en) 2022-01-07 2023-10-10 Getac Technology Corporation Incident category selection optimization

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730792A (ja) * 1993-07-12 1995-01-31 Kyocera Corp 電子スチルカメラ
WO2004070657A1 (ja) * 2003-02-05 2004-08-19 Seiko Epson Corporation 画像処理装置
JP2007287089A (ja) * 2006-04-20 2007-11-01 Toshiba Corp 表示制御装置、画像処理装置、表示制御方法
JP2010074478A (ja) * 2008-09-18 2010-04-02 Konica Minolta Business Technologies Inc 画像処理装置
JP2012124608A (ja) 2010-12-06 2012-06-28 Olympus Imaging Corp カメラ

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100440955C (zh) * 2004-11-29 2008-12-03 奥林巴斯映像株式会社 图像显示装置和图像显示方法
JP2008172684A (ja) * 2007-01-15 2008-07-24 Noritsu Koki Co Ltd 画像処理装置、および画像処理プログラム
US8401284B2 (en) * 2008-05-28 2013-03-19 Apple Inc. Color correcting method and apparatus
US20090319897A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Enhanced user interface for editing images
US8214766B1 (en) 2008-07-09 2012-07-03 Adobe Systems Incorporated Method and system for preview control for image adjustment
JP5108747B2 (ja) * 2008-12-26 2012-12-26 富士フイルム株式会社 情報表示装置、方法およびプログラム
JP5200948B2 (ja) 2009-01-15 2013-06-05 株式会社Jvcケンウッド 電子機器、操作制御方法、及びプログラム
JP2011028345A (ja) 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
EP2574039B1 (en) * 2010-05-21 2018-05-02 Panasonic Intellectual Property Corporation of America Image pickup device, image processing device, image processing method, and image processing program
US9053681B2 (en) * 2010-07-07 2015-06-09 Fotonation Limited Real-time video frame pre-processing hardware
JP5659586B2 (ja) * 2010-07-09 2015-01-28 ソニー株式会社 表示制御装置および表示制御方法、表示制御プログラム、記録媒体
JP5769461B2 (ja) 2011-03-22 2015-08-26 オリンパス株式会社 撮像装置および撮像プログラム
JP5906693B2 (ja) 2011-11-30 2016-04-20 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
CN103150103B (zh) * 2012-11-12 2016-01-20 苏州佳世达电通有限公司 手势操作物件与视窗的方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730792A (ja) * 1993-07-12 1995-01-31 Kyocera Corp 電子スチルカメラ
WO2004070657A1 (ja) * 2003-02-05 2004-08-19 Seiko Epson Corporation 画像処理装置
JP2007287089A (ja) * 2006-04-20 2007-11-01 Toshiba Corp 表示制御装置、画像処理装置、表示制御方法
JP2010074478A (ja) * 2008-09-18 2010-04-02 Konica Minolta Business Technologies Inc 画像処理装置
JP2012124608A (ja) 2010-12-06 2012-06-28 Olympus Imaging Corp カメラ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3041221A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5927363B1 (ja) * 2015-02-10 2016-06-01 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム

Also Published As

Publication number Publication date
US20160286139A1 (en) 2016-09-29
CN108449542A (zh) 2018-08-24
CN108650450A (zh) 2018-10-12
EP3386183A1 (en) 2018-10-10
EP3041221B1 (en) 2018-07-18
US9918021B2 (en) 2018-03-13
CN105684420B (zh) 2018-04-13
US20180160053A1 (en) 2018-06-07
CN105684420A (zh) 2016-06-15
EP3041221A4 (en) 2017-01-18
EP3041221A1 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
WO2015030126A1 (ja) 画像処理装置、および画像処理プログラム
KR102251667B1 (ko) 시각적 미디어를 캡처 및 관리하기 위한 사용자 인터페이스들
CN104322050B (zh) 电子相机、图像显示装置和记录介质
JP5384190B2 (ja) 撮像デバイス内でタッチ式調節を実行する方法及び装置
KR102419105B1 (ko) 시각적 미디어를 캡처 및 관리하기 위한 사용자 인터페이스들
JP2016537744A (ja) タッチスクリーン付きスマートフォン/カメラでのビデオ編集のためのジェスチャに基づいたインタラクティブなグラフィカルユーザインターフェイス
JP2014183425A (ja) 画像処理方法、画像処理装置および画像処理プログラム
JP2023551264A (ja) 写真撮り方法、装置、電子機器及び記憶媒体
US8176441B2 (en) Information display device
JP5313043B2 (ja) 撮影条件制御装置、カメラ、プログラム
US10043236B2 (en) Display device and display method
JP6263986B2 (ja) 電子機器、画像処理方法、および画像処理プログラム
JP2019220207A (ja) 撮影効果のためにジェスチャを使用するための方法および装置
JP2015219817A (ja) 表示装置、表示方法、およびプログラム
JP6329812B2 (ja) 表示装置、表示方法、およびプログラム
JP6504240B2 (ja) 電子機器、画像処理方法、および画像処理プログラム
JP2018207531A (ja) 画像処理装置、撮像装置、および画像処理プログラム
JP2017135606A (ja) 撮像装置
JP2015050542A (ja) 撮像装置、画像処理方法、および画像処理プログラム
JP2019149805A (ja) 電子機器、および画像処理方法
JP2005250677A (ja) 電子機器の設定画面表示方法及び電子機器
JP2015106745A (ja) 撮像装置、画像処理方法および画像処理プログラム
JP2015106744A (ja) 撮像装置、画像処理方法および画像処理プログラム
JP2015106743A (ja) 撮像装置、画像処理方法および画像処理プログラム
JP2015106824A (ja) 撮像装置、パラメータ決定方法およびパラメータ決定プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14841208

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014841208

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014841208

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14913609

Country of ref document: US