WO2013161424A1 - 画像処理装置、画像処理方法及び記録媒体 - Google Patents

画像処理装置、画像処理方法及び記録媒体 Download PDF

Info

Publication number
WO2013161424A1
WO2013161424A1 PCT/JP2013/057224 JP2013057224W WO2013161424A1 WO 2013161424 A1 WO2013161424 A1 WO 2013161424A1 JP 2013057224 W JP2013057224 W JP 2013057224W WO 2013161424 A1 WO2013161424 A1 WO 2013161424A1
Authority
WO
WIPO (PCT)
Prior art keywords
frame
trimming
image processing
trimming frame
processing apparatus
Prior art date
Application number
PCT/JP2013/057224
Other languages
English (en)
French (fr)
Inventor
赤穂 一樹
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201380020214.9A priority Critical patent/CN104221055A/zh
Priority to EP13782557.6A priority patent/EP2843628A1/en
Priority to US14/380,172 priority patent/US20150334290A1/en
Publication of WO2013161424A1 publication Critical patent/WO2013161424A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/815Camera processing pipelines; Components thereof for controlling the resolution by using a single image

Definitions

  • the present disclosure relates to an image processing apparatus, an image processing method, and a recording medium.
  • Patent Document 1 describes presetting a focus area.
  • Patent Document 2 describes that the user customizes the trimming frame.
  • the composition may change, which may be different from the user's image.
  • Patent Document 1 does not assume any customization of the trimming frame, and it is difficult to set the best AF frame position for the composition after trimming. Even in the technique described in Patent Document 2, it is difficult to set the best AF frame position for the composition after trimming.
  • an instruction input acquisition unit that acquires an instruction input by a user
  • a trimming frame setting unit that sets a trimming frame for trimming an image based on the instruction input
  • the image with respect to the trimming frame There is provided an image processing apparatus including a detection frame setting unit that sets a detection frame indicating a range in which detection is performed.
  • the instruction input acquisition unit may be an operation input unit through which an operation by a user is input.
  • the instruction input acquisition unit may be configured from a touch panel.
  • the trimming frame setting unit may set the trimming frame based on a multi-touch operation on the touch panel.
  • the instruction input acquisition unit may be a voice input unit to which a user's voice is input.
  • the detection frame setting unit may automatically set the detection frame with respect to the trimming frame.
  • the detection frame setting unit may control the detection frame with respect to the trimming frame based on the instruction input.
  • a display unit for displaying the trimming frame and the detection frame may be provided.
  • an image pickup device for picking up the picked-up image may be provided.
  • the trimming frame setting unit may control the size or position of the trimming frame.
  • the detection frame detection unit may set the size or position of the detection frame, or addition or deletion of the detection frame.
  • the trimming frame setting unit may set the aspect ratio of the trimming frame to a predetermined aspect ratio.
  • a storage processing unit that stores the determined trimming frame and the detection frame in a storage unit may be provided.
  • the storage processing unit may record the confirmed trimming frame and the detection frame together with a registered name.
  • an image processing method comprising: setting a detection frame indicating a range is provided.
  • obtaining an instruction input by a user setting a trimming frame for trimming an image based on the instruction input, and detecting the image with respect to the trimming frame
  • a computer-readable recording medium recording a program for causing a computer to set a detection frame indicating a range.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode.
  • FIG. 10 is a schematic diagram illustrating a specific example of an operation after entering a trimming frame / AF frame setting mode. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame. It is a schematic diagram which shows the specific example of operation of AF frame.
  • First embodiment 1.1 Configuration example of digital camera 1.2. Specific example of a method for customizing and setting a trimming frame and an AF frame 1.3. Processing procedure of first embodiment 1.4. AF when shooting with customized trimming frame and AF frame 1.5. 1. Playback of image data shot with user-customized trimming frame and AF frame Second Embodiment 2.1. Specific example of a method for customizing and setting the trimming frame and AF frame 2.2. 2. Processing procedure of the second embodiment Third embodiment
  • FIG. 1A and 1B are schematic views showing the external appearance of the digital camera 100.
  • FIG. 1A shows the digital camera 100 as viewed from the front
  • FIG. 1B shows the digital camera 100 as viewed from the back.
  • the digital camera 100 includes an imaging lens 102, an imaging element 104, a release button 106, an insertion port 110 for a recording medium 108, a shooting mode setting key 112, a liquid crystal panel 114, and a distance measuring window 116. Composed.
  • the digital camera 100 includes a display information setting change key 118, a liquid crystal monitor 120 for live view display, a touch panel 121 provided on the display screen of the liquid crystal monitor 120, a shooting / playback selection key 122, A power button 124, a trimming frame / AF frame customization button 126, a built-in microphone 128, and an electronic viewfinder 140 are included.
  • the shooting mode setting key 112 When the user operates the shooting mode setting key 112, it is possible to set exposure conditions such as aperture priority and shutter speed priority, macro shooting switching, zoom, etc., together with the display on the liquid crystal panel 114. Further, when the user presses the information display setting change key 118, the information display mode is switched.
  • the built-in microphone 128 has a function of realizing voice recognition.
  • FIG. 2 is a block diagram showing the configuration of the digital camera 100.
  • the digital camera 100 includes an imaging lens 102, an imaging device (CCD, CMOS sensor, etc.) 104, an A / D conversion unit 130, an image processing unit 132, a recording medium 108, a CPU 150, a timing control unit 134, Timing generator (TG) 136, clock unit 138, electronic viewfinder 140, liquid crystal panel 114, built-in microphone 128, liquid crystal monitor 120, touch panel 121, memory 142, customization memory 144, imaging lens drive unit 146, shooting mode setting key 112, release It has a button 106 and a display information setting change key 118.
  • the touch panel 121 for example, a capacitance sensor that detects an operation based on capacitance, a pressing force sensor that detects an operation based on pressing force, and the like can be used.
  • thin line arrows indicate the flow of control data
  • thick line arrows indicate the flow of image data.
  • the setting contents are as follows.
  • the CPU 150 controls to read the image data from the recording medium 108 and temporarily store the image data in the memory 142.
  • the CPU 150 controls to send the image data stored in the memory 142 to the image processing unit 132.
  • the image processing unit 132 processes the received image data into a format that can be displayed on the liquid crystal monitor 120 or the electronic viewfinder 140, and sends the processed data to the liquid crystal monitor 120 or the electronic viewfinder 140.
  • the liquid crystal monitor 120 includes a touch panel 121, and the digital camera 100 can be operated by touching the liquid crystal monitor 120.
  • the shooting / reproduction selection key 122 When the shooting / reproduction selection key 122 is off, that is, when the shooting state is set, the user uses the shooting mode setting key 112 and the liquid crystal monitor 120 to set exposure conditions such as aperture priority and shutter speed priority, You can manually set the balance mode.
  • the digital camera 100 When the release button 106 is pressed, the digital camera 100 performs shooting based on the set shooting conditions and image processing mode settings. That is, after the imaging lens driving unit 146 drives the imaging lens 102 to focus on an appropriate subject, image data is read from the imaging element (CCD, CMOS sensor, etc.) 104.
  • the imaging element CCD, CMOS sensor, etc.
  • the CPU 150 sends drive mode information of the image sensor 104 to the timing generator (TG) 136 and controls the image sensor 104 to be driven in a designated mode.
  • the CPU 150 sends ISO sensitivity setting and gain adjustment information to the A / D conversion unit 130 and controls to perform A / D conversion as specified.
  • the read image data is converted into digital data according to the ISO sensitivity and gain designated by the A / D conversion unit 130.
  • the A / D conversion unit 130 converts the image data into digital data based on the timing pulse generated by the timing control unit 134.
  • the image processing unit 132 performs image processing such as color shading correction using, for example, gain processing or a shading table, and records the processed image data on the recording medium 108.
  • the CPU 150 recognizes the mode for customizing the trimming frame and the AF frame, and the detection data sent from the touch panel 121 of the liquid crystal monitor 120 and the sound from the built-in microphone 128. Is recognized, and the trimming frame and the AF frame are controlled to be customized. The customized contents of the trimming frame and the AF frame are stored in the customization memory 144.
  • the CPU 150 includes a trimming frame setting unit 150a, an AF frame setting unit 150b, and a storage processing unit 150c.
  • the trimming frame setting unit 150 a sets the size, position, and the like of a trimming frame for trimming a captured image based on an operation input to the touch panel 121 and an audio input to the built-in microphone 128.
  • the AF frame control unit 150b automatically or manually sets the AF frame for the set trimming frame.
  • the AF frame control unit 150b sets the AF frame based on the user's instruction
  • the AF frame control unit 150b indicates an AF range in which the captured image is automatically focused based on the operation input to the touch panel 121 and the voice input to the built-in microphone 128. Controls settings such as frame size, position, or addition or deletion of AF frames.
  • the recording processing unit 150c causes the customization memory 144 to store the customized contents (including the position, size, and registered name) of the trimming frame and the AF frame.
  • the configuration of the trimming frame setting unit 150a, the AF frame setting unit 150b, and the storage processing unit 150c can be configured by the CPU 150 and a program (software) for causing the CPU 150 to function.
  • the program can be recorded on a recording medium such as the memory 142 or the recording medium 108 inserted from the outside.
  • the case where an AF frame is set will be described as an example, but the present invention is not limited to this.
  • the present embodiment can be widely applied to a case where a detection frame indicating a range in which data relating to an image (for example, luminance, hue, white balance value, etc.) is detected is set for the triling frame. It is an example of a detection frame.
  • the liquid crystal monitor 120 on the back surface of the digital camera 100 includes a touch panel 121, and a trimming frame or an AF frame can be arranged more easily by a user's finger operation.
  • a trimming frame or an AF frame can be arranged more easily by a user's finger operation.
  • the same operation can be performed by bringing a finger close to the touch panel 121 without touching it.
  • FIGS. 3A to 3F show specific examples of operations after entering the trimming frame / AF frame setting mode.
  • the trimming frame / AF frame customization button 126 is pressed, screens as shown in FIGS. 3A to 3F are sequentially displayed.
  • FIG. 3A When the trimming frame / AF frame customizing button 126 is pressed, items for determining the aspect ratio of the trimming frame as shown in FIG. 3A first appear.
  • 2L version, 6-cut, 6-cut wide, 4-cut, 4-cut wide, square, custom, etc. aspect ratios commonly used in photo development are displayed, as shown in Fig. 3B The user can select a desired aspect ratio.
  • the user has selected 6-cut size.
  • the user determines the aspect ratio (6-cut size) of the trimming frame and touches the “OK” button.
  • an AF frame arrangement item is displayed.
  • the user can select a desired item from the items of AF frame arrangement.
  • the user selects the item “3 divided composition intersection”.
  • the user can also select a plurality of items.
  • a check mark is displayed on the item, and the item is selected.
  • the check mark is deleted and the selection is released.
  • the confirmed trimming frame 200 and AF frame 202 are displayed as shown in FIG. 3E.
  • the aspect ratio of the trimming frame 200 is equivalent to 6 cuts selected in FIG. 3B, and the AF frame 202 is arranged at the intersection of the three-divided composition in the trimming frame 200.
  • the trimming frame 200 shown in FIG. 3E can be freely changed in size by, for example, simultaneously touching the touch panel 121 with the thumb at the lower left corner and the index finger at the upper right corner and performing a multi-touch operation. Further, the position of the trimming frame 200 can be changed by sliding the finger. Note that the size and position of the trimming frame 200 can be freely changed, but the already selected 6-cut size is maintained as the aspect ratio. In addition, when the size or position of the trimming frame 200 is changed, the position of the AF frame 202 is adjusted so as to be positioned at the three-division composition intersection of the changed trimming frame 200.
  • the operation with the index finger and the thumb simultaneously touching was described as an example, but it is also possible to operate with one finger.
  • the user touches the inside of the trimming frame 200 instead of the corner it is determined that the trimming frame 200 is moved, and when the user touches the corner of the trimming frame 200, it is determined that the size of the trimming frame 200 is changed.
  • the place to be operated with a finger is not limited to touching the lower left corner or the upper right corner of the trimming frame 200.
  • the size and location can be changed even when the upper left corner of the trimming frame 200 is touched or when the lower right corner is touched.
  • the user presses the “OK” button as shown in FIG. 3F.
  • the position and size of the trimming frame 200 are fixed. From the next step, the process proceeds to AF frame setting.
  • the operation moves to the AF frame 202 as the next step.
  • the AF frame 202 is automatically arranged at an intersection obtained by dividing the trimming frame 200 into three parts based on the user's selection. The user can add, delete or move the AF frame 202 with respect to the arrangement of the AF frame 202.
  • the user moves the AF frame 202, first, as shown in FIG. 4A, the user touches an “AF frame move” button. Thereafter, the user touches the inside of the AF frame 202 to be moved and moves it to a desired location. When the movement is completed and the user presses the “OK” button, the position of the AF frame 202 is fixed at the moved position.
  • the user touches an “AF frame addition” button as shown in FIG. 4B. Thereby, for example, as shown in FIG. 4C, an AF frame 202 is added at the center.
  • the added AF frame 202 can be moved by the method described above.
  • the “AF frame deletion” button is touched.
  • the touched upper right AF frame 202 is deleted.
  • the user touches the registration button as shown in FIG. 4F.
  • FIG. 4G a screen for selecting a registered name for the set arrangement of the trimming frame 200 and the AF frame 202 is displayed.
  • three registered names are shown, but the number is not limited to three.
  • FIG. 4G shows an example in which the registered name “Trimming 3” is selected.
  • step S10 the customize button 126 is pressed, and a transition is made to the customization mode.
  • step S11 trimming frame selection items are displayed.
  • step S12 an operation on the touch panel 121 is detected, and if a “return” operation is detected, the customization process is terminated. If the selection of the trimming frame is detected in step S12, the process proceeds to step S13, and only one selection content is overwritten and stored in the memory 142.
  • step S12 if the operation of the “confirm” button is detected in step S12, the process proceeds to step S14.
  • step S14 the selection contents of the trimming frame 200 are stored. For example, when the trimming frame is selected as “6 cuts”, this is stored.
  • step S16 selection items for the AF frame are displayed.
  • step S18 an operation on the touch panel 121 is detected, and if a “return” operation is detected, the process returns to step S11. If the selection of the AF frame is detected in step S18, the process proceeds to step S20 to determine whether or not the selected AF frame is an already selected AF frame. If there is, the process proceeds to step S22 to cancel the selected AF frame. If the selected AF frame is not already selected in step S20, the process proceeds to step S24, and the selected AF frame is added and stored. As described above, a plurality of AF frames can be selected.
  • step S26 the selection contents of the AF frame are stored. For example, the intersection of the three-part composition and the center point are stored as AF frame selection contents.
  • step S28 the confirmed trimming frame and AF frame are displayed. After step S28, the process proceeds to step S30 in FIG. 5B.
  • step S30 an operation on the touch panel 121 is detected, and if a “return” operation is detected, the process returns to step S16 in FIG. 5A. If no operation on the touch panel 121 is detected, the process waits in step S30. If a size adjustment operation is detected in step S30, the process proceeds to step S32.
  • step S32 the trimming frame size is changed according to the touch operation.
  • step S34 an operation on the touch panel 121 is detected, and if a “return” operation is detected, the process returns to step S16 in FIG. 5A. If a size adjustment operation is detected in step S34, the process returns to step S32, and the size of the trimming frame is changed according to the touch operation. On the other hand, if the operation of the “confirm” button is detected in step S34, the process proceeds to step S36. In step S36, an AF frame addition, AF frame deletion, AF frame movement, and registration button are displayed.
  • next step S38 the operation of the touch panel 121 is detected, and the processes of FIGS. 5C, 5D, 5E, and 5F are performed according to the operation of the touch panel 121.
  • step S38 If the operation of the “AF frame movement” button is detected in step S38, the process proceeds to step S40 in FIG. 5C.
  • step S40 the operation of the touch panel 121 is detected, and when the “return” operation is detected, the process returns to step S38 in FIG. 5B. If no operation on the touch panel 121 is detected, the process waits in step S40. If an operation of moving the AF frame is performed in step S40, the process proceeds to step S42, and the AF frame is selected according to the operation of the touch panel 121.
  • step S44 an operation on the touch panel 121 is detected. If a "return" operation is detected, the process proceeds to step S46. After the AF frame is deselected, the process returns to step S40. On the other hand, when the movement operation of the AF frame is detected in step S44, the process proceeds to step S46. In step S46, the AF frame is moved according to the operation of the touch panel 121.
  • step S46 the process proceeds to step S48.
  • step S48 an operation on the touch panel 121 is detected. If a "return" operation is detected, the process proceeds to step S50, the AF frame is returned to the state before the movement, and the process returns to step S44.
  • step S48 If an AF frame moving operation is detected in step S48, the process returns to step S46, and the AF frame is moved according to the operation of the touch panel 121. If a “confirm” operation is detected in step S48, the process returns to step S38 in FIG. 5B. If no operation on the touch panel 121 is detected in step S48, the process waits in step S48.
  • step S50 an additional AF frame is displayed. After step S50, the process returns to step S38 in FIG. 5B.
  • step S52 the operation of the touch panel 121 is detected, and when the “return” operation is detected, the process returns to step S38 in FIG. 5B. If no operation on the touch panel 121 is detected, the process waits in step S52. If an operation for selecting an AF frame is performed in step S52, the process proceeds to step S54, and the AF frame selected according to the operation on the touch panel 121 is deleted. After step S54, the process returns to step S38 in FIG. 5B.
  • step S56 a determination button is displayed, and in the next step S58, registered name candidates are displayed.
  • step S60 the operation of the touch panel 121 is detected, and when the “return” operation is detected, the process returns to step S38 in FIG. 5B. If no operation on the touch panel 121 is detected, the process waits in step S60. If the selected registered name is detected in step S60, the process proceeds to step S62, and the selected content is stored. Only one registered name is overwritten and stored.
  • step S60 if the operation of the “OK” button is detected, the process proceeds to step S64.
  • step S64 the trimming frame and the AF frame are recorded with the registered name touched, that is, the registered name stored in step S62.
  • step S66 customization of the trimming frame and AF frame ends.
  • autofocus may be performed using only the AF frame set by the user. In this case, since the AF calculation is performed only at a place necessary for the user, it is possible to focus at a position as desired by the user with a high probability.
  • the digital camera 100 can record the size and position information of the trimming frame together with all the image data captured by the image sensor 104. Further, the digital camera 100 may perform trimming processing of all image data captured by the image sensor 104 with a trimming frame and record the data on a medium. This may be set so that either one can be selected in the setting of the digital camera 100. When the digital camera 100 actually performs trimming processing and then records it on a medium, a larger number of sheets can be recorded.
  • trimming information can be acquired and the trimming frame can be displayed during playback on a PC. Also, trimming processing can be performed according to the trimming frame.
  • the user when the user wants to print with six cuts or four cuts, the user can display a trimming frame having a desired aspect ratio in a live view with an aspect ratio of 3: 2 or 4: 3. It becomes possible to make it. Therefore, compared with the case where the user performs shooting while imagining the trimming frame, the user can pursue the composition with much higher accuracy.
  • both the trimming frame and the AF frame can be customized, the user can set a desired AF frame for the trimming frame after setting the trimming frame. Accordingly, the user can easily image the position of the AF frame with respect to the trimming frame, and can accurately set the AF frame position with respect to the image after trimming.
  • both the trimming frame and the AF frame can be customized, it is possible to arrange the AF frame suitable for the desired trimming frame. Therefore, an optimal image for the user can be obtained with respect to the trimmed image in both composition and focus position.
  • the image data capacity can be kept low, and the number of recordings can be increased.
  • the trimming frame by setting the trimming frame to have an aspect ratio that is long with respect to the horizontal, it is possible to obtain an image taken in a vertical position after trimming.
  • the AF frame can be set at an optimum position for the user with respect to the vertical position trimming frame. This allows you to avoid the unique shooting style of holding the camera in the vertical position without using special equipment such as a vertical position grip, and to obtain a vertical position image in the horizontal position shooting style that makes it easy to set the level. .
  • Second Embodiment> [2.1. Specific example of how to customize and set the trimming frame and AF frame]
  • operation flexibility is enhanced by combining touch panel operation and voice recognition.
  • the liquid crystal monitor 120 on the back of the digital camera 100 has a touch panel 121, and the trimming frame 200 and the AF frame 202 can be easily arranged by a user's finger operation.
  • the trimming frame 200 and the AF frame 202 are set by using voice recognition by the built-in microphone 128 together.
  • FIG. 6A to 6F show specific examples of operations after entering the setting mode for the trimming frame 200 and the AF frame 202.
  • FIG. 6A When the trimming frame AF frame customization button 126 is pressed, for example, a display as shown in FIG. 6A appears. From this state, the user touches the touch panel 121 with the index finger and thumb as shown in FIG. 6B. Then, as illustrated in FIG. 6C, when the user utters “6 cuts” toward the digital camera 100, a trimming frame 200 having an aspect ratio of 203: 254 with a 6 cut size is displayed. The trimming frame 200 is displayed so that the position touched by the index finger and the thumb is located on the diagonal of the trimming frame 200. The user can adjust the size and position of the trimming frame 200 by moving the touching finger as shown in FIG. 6D.
  • the AF frame 202 can also be set using sound. For example, as shown in FIG. 7A, when the user utters “3 divided composition intersection” toward the digital camera 100, the AF frame 202 is displayed at the intersection obtained by dividing the trimming frame 200 into three.
  • the user wants to add the AF frame 202 as shown in FIG. 7B, the user speaks “add” to enter the AF frame 202 addition mode, and when speaking “center one point”, the AF frame 202 is trimmed. It is added to the center point of the frame 200.
  • the AF frame 202 is moved, as shown in FIG.
  • the mode is a mode in which the AF frame 202 is moved by saying “Move”, and the AF frame 202 to be moved is touched to reach a desired position. I can go.
  • FIG. 7C shows an example in which the added AF frame 202 is selected and moved, it is of course possible to move the AF frame 202 on the three-part composition intersection. Further, when adding the AF frame 202, it is sufficient to say “add”.
  • AF frame 202 can be added one by one. For example, in the state shown in FIG. 7A, by speaking “add”, the mode is in the addition mode. When “AF frame” is spoken, one AF frame 202 is added as shown in FIG. 7D.
  • the user enters the deletion mode of the AF frame 202 when the user utters “delete”, and when the desired AF frame 202 is touched as shown in FIG. 7E, the AF frame 202 is deleted.
  • the user registers the contents. At this time, the user speaks “Register”. As a result, as shown in FIG. 7F, registered name candidates are displayed. Then, as shown in FIG. 7G, when one of the registered name candidates “trimming 1” is generated, “trimming 1” is selected as the registered name candidate. Then, as shown in FIG. 7H, the registered name “trimming 1” is registered by saying “confirm”.
  • step S70 the customize button 126 is pressed, and a transition is made to the customization mode.
  • step S72 trimming frame selection items are displayed.
  • step S74 the voice is recognized, and if the “return” voice is recognized, the customization process is terminated.
  • step S 74 when the voice of “trimming frame” is recognized and detected, only one trimming frame selection content is overwritten and stored in the memory 142.
  • step S74 if the “confirmed” voice is recognized, the process proceeds to step S76.
  • step S76 AF frame selection items are displayed.
  • step S76 the process proceeds to step S78.
  • step S78 the voice is recognized. If the “return” voice is recognized, the process returns to step S72.
  • step S78 when the AF frame selection voice is recognized and detected, the process proceeds to step S80 to display the AF frame. After step S80, the process returns to step S78.
  • step S78 when the “moving” voice is recognized, the “deleted” voice is recognized, and the “added” voice is recognized, the voices shown in FIG. 8B, FIG. 8D, and FIG. Process.
  • step S78 when the “movement” voice is recognized, the process proceeds to step S100 and step S102 in FIG. 8B. In the subsequent processing, the voice recognition in step S100 and the touch panel detection processing in step S102 and subsequent steps are performed in parallel.
  • step S102 the operation of the touch panel 121 is detected. If the touch panel 121 is operated, the process proceeds to step S104. In step S ⁇ b> 104, an AF frame is selected according to the operation on the touch panel 121. On the other hand, if the touch panel 121 is not operated in step S102, the process waits in step S102.
  • step S104 the process proceeds to step S106.
  • step S106 the AF frame is moved according to the operation of the touch panel 121.
  • step S106 when the “return” or “determined” voice is recognized in step S100, the process returns to step S76 in FIG. 8A.
  • step S78 when the “deleted” voice is recognized, the process proceeds to step S110 and step S112 in FIG. 8D. In the subsequent processing, the voice recognition in step S110 and the touch panel detection processing in and after step S112 are performed in parallel.
  • step S112 the operation of the touch panel 121 is detected. If the touch panel 121 is operated, the process proceeds to step S114. In step S114, the AF frame selected in accordance with the operation on the touch panel 121 is deleted. After step S114, the process returns to step S76 in FIG. 8A.
  • step S112 when the voice of “return” is recognized in step S100, the process returns to step S76 in FIG. 8A.
  • step S78 if “addition” voice is recognized, the process proceeds to step S120 in FIG. 8C.
  • step S120 voice recognition is performed, and if the “additional AF frame selection” voice is recognized, the process proceeds to step S80 in FIG. 8A. If the “return” voice is recognized in step S120, the process returns to step S76 in FIG. 8A.
  • step S120 when the voice of “AF frame” is recognized, the process proceeds to step S122.
  • step S122 an additional AF frame is displayed. After step S122, the process returns to step S76 in FIG. 8A.
  • step S78 of FIG. 8A when the “registration” voice is recognized, the process proceeds to step S80.
  • step S80 registered name candidates are displayed.
  • voice recognition is performed. If a “return” voice is recognized, the process returns to step S76 in FIG. 8A. If the voice of “registered name” is recognized, the process proceeds to step S82, and the selected registered name candidate is highlighted. After step S82, the process returns to step S80. If no voice is recognized in step S80, the process waits in step S80.
  • step S80 If the “confirmed” voice is recognized in step S80, the process proceeds to step S84 to record the trimming frame and AF frame information with the recognized registered name. In the next step S86, the customization of the trimming frame and the AF frame is finished.
  • step S74 The processing after step S74 is performed in parallel with the processing after step S130 shown in FIG. 8E.
  • step S130 a trimming frame is displayed.
  • the aspect ratio of the trimming frame is determined based on the stored selection contents of the trimming frame.
  • step S132 the size of the trimming frame is changed according to the operation of the touch panel 121. Also in step S132, the aspect ratio of the trimming frame is determined based on the stored trimming frame selection content.
  • step S130 and S132 when the voice of “return” or “confirmed” is recognized in the voice recognition of step S74, the customization process is terminated.
  • the present embodiment it is possible to more easily set the trimming frame and the AF frame by using both voice recognition and touch panel operation. Therefore, the user can set the trimming frame and the AF frame with a simple operation.
  • the operations performed on the digital camera 100 described above can be performed using the mouse on the PC. Then, the registered contents are determined and stored. Since the PC can use a keyboard, the degree of freedom in setting a registered name can be increased.
  • the stored contents may be written in a medium such as a CF card, for example, and the medium is mounted on the main body of the digital camera 100 so that the data of the trimming frame and the AF frame may be taken into the digital camera.
  • FIG. 9A and FIG. 9B are schematic views showing a configuration example of the third embodiment.
  • a personal computer 300 shown in FIG. 9A includes the CPU 150 of FIG. 2 and related components.
  • information on the trimming frame and the AF frame is stored in the recording medium 108 inserted into the personal computer 300.
  • the trimming frame and the AF frame are recorded on the recording medium 108 with the registered name “aaa”.
  • the recording medium 108 on which the trimming frame, the AF frame, and the registered name are recorded is inserted into the insertion slot 110 of the recording medium 108 of the digital camera 100.
  • the digital camera 100 reads the information recorded on the recording medium 110 to acquire the trimming frame, the AF frame, and the registered name, and stores them in the memory as customization contents.
  • the trimming frame and the AF frame can be set by an operation on the personal computer 300.
  • the user can set the trimming frame and AF frame of the digital camera 100 by inserting the recording medium on which the trimming frame and AF frame set on the personal computer 300 are recorded into the digital camera 100.
  • an instruction input acquisition unit for acquiring an instruction input by a user
  • a trimming frame setting unit for setting a trimming frame for trimming an image based on the instruction input
  • a detection frame setting unit that sets a detection frame indicating a range in which the image is detected with respect to the trimming frame
  • An image processing apparatus comprising: (2) The image processing apparatus according to (1), wherein the instruction input acquisition unit is an operation input unit to which an operation by a user is input. (3) The image processing apparatus according to (2), wherein the instruction input acquisition unit includes a touch panel. (4) The image processing device according to (3), wherein the trimming frame setting unit sets the trimming frame based on a multi-touch operation on the touch panel.
  • the image processing apparatus wherein the instruction input acquisition unit is a voice input unit to which a user's voice is input.
  • the detection frame setting unit automatically sets the detection frame with respect to the trimming frame.
  • the detection frame setting unit controls the detection frame with respect to the trimming frame based on the instruction input.
  • the image processing apparatus further including a display unit that displays the trimming frame and the detection frame.
  • the image processing apparatus further including an imaging element that captures the captured image.
  • the trimming frame setting unit controls a size or a position of the trimming frame.
  • the image processing device (11) The image processing device according to (1), wherein the detection frame detection unit sets the size or position of the detection frame, or addition or deletion of the detection frame. (12) The image processing device according to (1), wherein the trimming frame setting unit sets an aspect ratio of the trimming frame to a predetermined aspect ratio. (13) The image processing apparatus according to (1), further including a storage processing unit that stores the determined trimming frame and the detection frame in a storage unit. (14) The image processing apparatus according to (1), wherein the storage processing unit records the confirmed trimming frame and the detection frame together with a registered name.

Abstract

 画像処理装置は、ユーザによる指示入力を取得する指示入力取得部と、前記指示入力に基づいて、撮像画像をトリミングするトリミング枠を制御するトリミング枠制御部と、前記指示入力に基づいて、前記撮像画像のオートフォーカスを行う範囲を示すAF枠を制御するAF枠制御部と、を備える。この構成により、カスタマイズしたトリミング枠に対して最適なAF枠位置を設定することが可能となる。

Description

画像処理装置、画像処理方法及び記録媒体
 本開示は、画像処理装置、画像処理方法及び記録媒体に関する。
 従来、下記の特許文献1には、フォーカスエリアをプリセットすることが記載されている。また、下記の特許文献2には、ユーザがトリミング枠をカスタマイズすることが記載されている。
特開2010-224499号公報 特開2006-279661号公報
 しかしながら、撮影した画像を例えば六切サイズや四切サイズ等の大きさでプリントしたい場合、3:2や4:3で撮影した画像に対して、トリミングする必要がある。そのとき、構図が変わってしまい、ユーザーのイメージと違ったものになる場合がある。
 特許文献1に記載された技術では、トリミング枠をカスタマイズすることは何ら想定しておらず、トリミング後の構図に対してベストなAF枠位置を設定することは困難である。特許文献2に記載された技術においても、トリミング後の構図に対してベストなAF枠位置を設定することは困難である。
 そこで、カスタマイズしたトリミング枠に対して最適なAF枠位置を設定することが求められていた。
 本開示によれば、ユーザによる指示入力を取得する指示入力取得部と、前記指示入力に基づいて、画像をトリミングするトリミング枠を設定するトリミング枠設定部と、前記トリミング枠に対して、前記画像の検出を行う範囲を示す検出枠を設定する検出枠設定部と、を備える、画像処理装置が提供される。
 また、前記指示入力取得部は、ユーザによる操作が入力される操作入力部であっても良い。
 また、前記指示入力取得部は、タッチパネルから構成されるものであっても良い。
 また、前記トリミング枠設定部は、前記タッチパネルへのマルチタッチ操作に基づいて、前記トリミング枠を設定するものであっても良い。
 また、前記指示入力取得部は、ユーザによる音声が入力される音声入力部であっても良い。
 また、前記検出枠設定部は、前記トリミング枠に対して前記検出枠を自動で設定するものであっても良い。
 また、前記検出枠設定部は、前記指示入力に基づいて、前記トリミング枠に対して前記検出枠を制御するものであっても良い。
 また、前記トリミング枠及び前記検出枠を表示する表示部を備えるものであっても良い。
 また、前記撮像画像を撮像する撮像素子を備えるものであっても良い。
 また、前記トリミング枠設定部は、前記トリミング枠のサイズ又は位置を制御するものであっても良い。
 また、前記検出枠検出部は、前記検出枠のサイズ又は位置、若しくは前記検出枠の追加又は削除を設定するものであっても良い。
 また、前記トリミング枠設定部は、前記トリミング枠のアスペクト比を予め定められたアスペクト比に設定するものであっても良い。
 また、確定した前記トリミング枠及び前記検出枠を記憶部に記憶させる記憶処理部を備えるものであっても良い。
 また、前記記憶処理部は、確定した前記トリミング枠及び前記検出枠を登録名とともに記録させるものであっても良い。
 また、本開示によれば、ユーザによる指示入力を取得することと、前記指示入力に基づいて、画像をトリミングするトリミング枠を設定することと、前記トリミング枠に対して、前記画像の検出を行う範囲を示す検出枠を設定することと、を備える、画像処理方法が提供される。
 また、本開示によれば、ユーザによる指示入力を取得することと、前記指示入力に基づいて、画像をトリミングするトリミング枠を設定することと、前記トリミング枠に対して、前記画像の検出を行う範囲を示す検出枠を設定することと、をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体が提供される。
 本開示によれば、カスタマイズしたトリミング枠に対して最適なAF枠位置を設定することが可能となる。
各実施形態に係るデジタルカメラの外観を示す模式図である。 各実施形態に係るデジタルカメラの外観を示す模式図である。 デジタルカメラの構成を示すブロック図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 第1の実施形態の処理手順を示すフローチャートである。 第1の実施形態の処理手順を示すフローチャートである。 第1の実施形態の処理手順を示すフローチャートである。 第1の実施形態の処理手順を示すフローチャートである。 第1の実施形態の処理手順を示すフローチャートである。 第1の実施形態の処理手順を示すフローチャートである。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 AF枠の操作の具体例を示す模式図である。 第1の実施形態の処理手順を示すフローチャートである。 第1の実施形態の処理手順を示すフローチャートである。 第1の実施形態の処理手順を示すフローチャートである。 第1の実施形態の処理手順を示すフローチャートである。 第1の実施形態の処理手順を示すフローチャートである。 第3の実施形態の構成例を示す模式図である。 第3の実施形態の構成例を示す模式図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態
  1.1.デジタルカメラの構成例
  1.2.トリミング枠、AF枠をカスタマイズして設定する方法の具体例
  1.3.第1の実施形態の処理手順
  1.4.カスタマイズしたトリミング枠、AF枠で撮影する場合のAFについて
  1.5.ユ-ザがカスタマイズしたトリミング枠、AF枠で撮影した画像データの再生について
 2.第2の実施形態
  2.1.トリミング枠、AF枠をカスタマイズして設定する方法の具体例
  2.2.第2の実施形態の処理手順
 3.第3の実施形態
 <1.第1の実施形態>
 [1.1.デジタルカメラの構成例]
 まず、図1A、図1B、図2を参照して、本開示の各実施形態に係るデジタルカメラ(画像処理装置)100の概略構成について説明する。図1A及び図1Bは、デジタルカメラ100の外観を示す模式図である。図1Aはデジタルカメラ100を正面から見た状態を示しており、図1Bはデジタルカメラ100を裏面から見た状態を示している。図1Aに示すように、デジタルカメラ100は、撮像レンズ102、撮像素子104、レリーズボタン106、記録メディア108の挿入口110、撮影モード設定キー112、液晶パネル114、測距窓116を有して構成される。また、図1Bに示すように、デジタルカメラ100は、表示情報設定変更キー118、ライブビュー表示用の液晶モニタ120、液晶モニタ120の表示画面上に設けられたタッチパネル121、撮影再生選択キー122、電源ボタン124、トリミング枠・AF枠カスタマイズボタン126、内蔵マイク128、電子ファインダ140を有して構成されている。
 ユーザが撮影モード設定キー112を操作することにより、液晶パネル114の表示と併せて、絞り優先、シャッタースピード優先といった露光条件の設定や、マクロ撮影の切り替え、ズーム等の設定が可能である。また、ユーザが情報表示設定変更キー118を押すと、情報表示形態が切り替わる。
 また、ユーザがトリミング枠・AF枠カスタマイズボタン126を押すことで、トリミング枠・AF枠をカスタマイズするモードに入る。内蔵マイク128は、音声認識を実現する機能を有する。
 図2は、デジタルカメラ100の構成を示すブロック図である。図2に示すように、デジタルカメラ100は、撮像レンズ102、撮像素子(CCD、CMOSセンサ等)104、A/D変換部130、画像処理部132、記録メディア108、CPU150、タイミング制御部134、タイミングジェネレータ(TG)136、時計部138、電子ファインダー140、液晶パネル114、内蔵マイク128、液晶モニタ120、タッチパネル121、メモリ142、カスタマイズメモリ144、撮像レンズ駆動部146、撮影モード設定キー112、レリーズボタン106、表示情報設定変更キー118、を有して構成されている。タッチパネル121として、例えば静電容量に基づいて操作を検出する静電容量センサ、押圧力に基づいて操作を検出する押圧力センサ等を用いることができる。
 図2において、細線の矢印は制御データの流れを示しており、太線の矢印は画像データの流れを示している。以下、図2に基づいて撮影、再生の流れを説明する。ユーザは、撮影前に、撮影再生選択キー122と液晶モニター120とを用いて、撮影状態か再生状態かを選択する。その設定内容は以下の通りである。
 撮影再生選択キー122がオンの場合、すなわち再生状態が設定されている場合、CPU150は、記録メディア108から画像データを読み出し、画像データを一旦メモリ142に記憶するよう制御する。CPU150はメモリ142に記憶された画像データを画像処理部132に送るよう制御する。画像処理部132は、CPU150の制御に基づいて、送られてきた画像データを液晶モニタ120や電子ファインダー140に表示できるフォーマットに処理し、処理後のデータを液晶モニタ120や電子ファインダー140に送る。また、液晶モニタ120はタッチパネル121を備えており、液晶モニタ120上をタッチ操作することにより、デジタルカメラ100の操作を行うこともできる。
 撮影再生選択キー122がオフの場合、すなわち撮影状態が設定されている場合、ユーザは撮影モード設定キー112と液晶モニタ120とを用いて、絞り優先、シャッタースピード優先といった露光条件の設定や、ホワイトバランスモードの切り替えなどを手動で設定できる。
 レリーズボタン106が押されると、デジタルカメラ100は、設定された撮影条件、画像処理モードの設定に基づいて撮影を行なう。すなわち、撮像レンズ駆動部146により撮像レンズ102を適当な被写体に合焦させるべく駆動した後、撮像素子(CCD、CMOSセンサ等)104から画像データを読み出す。
 すなわち、CPU150は、タイミングジェネレータ(TG)136に、撮像素子104の駆動モード情報を送り、指定のモードで撮像素子104を駆動するように制御する。また、CPU150は、A/D変換部130にISO感度の設定やゲイン調整情報を送り、指定通りにA/D変換を行うように制御する。
 読み出された画像データは、A/D変換部130で指定されたISO感度やゲインに従ってデジタルデータに変換される。A/D変換部130は、タイミング制御部134で生成されるタイミングパルスに基づいて、画像データをデジタルデータに変換する。
 そして、画像処理部132では、例えばゲイン処理やシェーディングテーブルを用いて色シェーディング補正等の画像処理を行い、処理の画像データを記録メディア108に記録する。
 トリミング枠・AF枠カスタマイズボタン126が押されると、CPU150は、トリミング枠及びAF枠をカスタマイズするモードと認識し、液晶モニター120のタッチパネル121から送られてくる検出データや、内蔵マイク128からの音声を認識し、トリミング枠、及びAF枠をカスタマイズするように制御する。トリミング枠及びAF枠をカスタマイズした内容は、カスタマイズメモリ144に記憶される。
 具体的には、CPU150は、トリミング枠設定部150a、及びAF枠設定部150b、記憶処理部150cを有して構成されている。トリミング枠設定部150aは、タッチパネル121への操作入力、内蔵マイク128への音声入力に基づいて、撮像画像をトリミングするトリミング枠のサイズ、位置等を設定する。AF枠制御部150bは、設定されたトリミング枠に対して、AF枠を自動又は手動により設定する。AF枠制御部150bは、ユーザの指示に基づいてAF枠を設定する場合は、タッチパネル121への操作入力、内蔵マイク128への音声入力に基づいて、撮像画像のオートフォーカスを行う範囲を示すAF枠のサイズ、位置、若しくはAF枠の追加又は削除等の設定を制御する。記録処理部150cは、トリミング枠及びAF枠をカスタマイズした内容(位置、サイズ、登録名を含む)をカスタマイズメモリ144に記憶させる。
 トリミング枠設定部150a、及びAF枠設定部150b、記憶処理部150cの構成は、CPU150と、CPU150を機能させるためのプログラム(ソフトウェア)によって構成することができる。この場合に、そのプログラムは、メモリ142や外部から挿入される記録メディア108などの記録媒体に記録されることができる。
 なお、本実施形態では、AF枠を設定する場合を例に挙げて説明するが、これに限定されるものではない。本実施形態は、トリリング枠に対して、画像に関するデータ(例えば、輝度、色合い、ホワイトバランス値など)の検出を行う範囲を示す検出枠を設定する場合に広く適用することができ、AF枠は検出枠の一例である。
[1.2.トリミング枠、AF枠をカスタマイズして設定する方法の具体例]
 デジタルカメラ100の背面の液晶モニタ120はタッチパネル121を備えており、ユーザの指の操作でより容易にトリミング枠やAF枠を配置することができる。なお、以下では、タッチパネル121に触れる操作によりトリミング枠やAF枠を配置する例を説明するが、タッチパネル121へ触れることなく、指を近接させることによっても同様の操作を行うことができる。また、タッチパネル121への押圧力に応じて操作入力を異ならせることも可能である。
 図3A~図3Fは、トリミング枠・AF枠の設定モードに入ってからの操作の具体例を示したものである。トリミング枠・AF枠カスタマイズボタン126を押すと、図3A~図3Fに示すような画面が順次に表示される。
 トリミング枠・AF枠カスタマイズボタン126が押されると、先ず、図3Aに示すような、トリミング枠のアスペクト比を決定するための項目が表れる。ここでは、写真の現像で一般的に使われる、2L版、6切、6切ワイド、4切、4切ワイド、正方形、カスタム、などのアスペクト比が表示されており、図3Bに示すように、ユーザはその中から所望のアスペクト比を選択することができる。
 この例では、ユーザが6切サイズを選択したものとする。ユーザは、図3Bに示すように、トリミング枠のアスペクト比(6切サイズ)を決定し、「確定」ボタンをタッチする。続いて、図3Cに示すように、AF枠配置の項目が表示される。ユーザは、図3Dに示すように、AF枠配置の項目の中から所望の項目を選択することができる。
 この例では、ユーザが「3分割構図交点」の項目を選択したものとする。ユーザは、複数の項目を選択することもできる。選択する場合、ユーザがAF枠の下欄の項目にタッチすると、その項目にレ点が表示され、その項目が選択される。ユーザがもう一度その項目をタッチすると、レ点が消去され、選択が解除される。
 ユーザが図3Dに示すようにAF枠配置の項目を選び、「確定」ボタンにタッチすると、図3Eに示すように、確定されたトリミング枠200とAF枠202が表示される。トリミング枠200のアスペクト比は、図3Bで選択した6切相当となっており、AF枠202の配置はそのトリミング枠200の中での3分割構図の交点に配置されている。
 図3Eに示すトリミング枠200は、例えば、左下の隅を親指で、右上の隅を人差し指でタッチパネル121に同時にタッチしてマルチタッチ操作することで、大きさを自由に変えることができる。また、指をスライドさせることで、トリミング枠200の位置を変更することもできる。なお、トリミング枠200の大きさや位置は自由に変更できるが、アスペクト比は既に選択された6切サイズが維持される。また、トリミング枠200の大きさや位置を変更した場合、AF枠202の位置は変更されたトリミング枠200の3分割構図交点に位置するように調整される。
 なお、ここでは、人差し指と親指の同時タッチでの操作を例に挙げたが、1本の指で操作することも可能である。例えば、ユーザがトリミング枠200の隅ではなく内部をタッチした場合は、トリミング枠200の移動と判断し、ユーザがトリミング枠200の隅をタッチした場合はトリミング枠200のサイズ変更と判断することで、サイズ、場所の変更を可能にできる。また、指で操作する場所についても、トリミング枠200の左下の隅へのタッチや右上の隅へのタッチに限定されるものではない。例えば、トリミング枠200の左上の隅へタッチした場合や右下の隅へタッチした場合でもサイズや場所を変更することができる。
 トリミング枠200を所望の位置とサイズに変更した後、図3Fに示すように、ユーザーは「確定」ボタンを押す。「確定」ボタンを押すことで、トリミング枠200の位置とサイズが確定する。次のステップからはAF枠の設定に移行する。
 図3Fでトリミング枠200の位置とサイズを確定すると、次のステップとして、AF枠202の操作に移る。この例では、ユーザの選択に基づき、トリミング枠200を三分割した交点にAF枠202が自動で配置されている。このAF枠202の配置に対して、ユーザは、AF枠202の追加や削除もしくは移動を行うことができる。
 ユーザーがAF枠202を移動する場合、先ず、図4Aに示すように、ユーザは「AF枠移動」ボタンをタッチする。その後、ユーザは、移動したいAF枠202の内部をタッチして、所望の場所へ移動させる。移動が完了し、ユーザが「確定」ボタンを押すと、AF枠202の位置が移動された場所に確定する。
 ユーザーは、AF枠202を追加する場合、図4Bに示すように、「AF枠追加」ボタンをタッチする。これにより、例えば図4Cに示すように、中央にAF枠202が追加される。追加したAF枠202は、上述した方法により移動することができる。
 ユーザーがAF枠202を削除する場合、先ず、図4Dに示すように、「AF枠削除」ボタンをタッチする。次に、図4Eに示すように、削除したいAF枠202の内部をタッチすることで、タッチされた右上のAF枠202が削除される。
 ユーザーがAF枠202の移動、追加、削除を行い、AF枠202の所望の配置を確定すると、図4Fのように、登録ボタンをタッチする。これにより、図4Gに示すように、設定されたトリミング枠200とAF枠202の配置について、登録名を選択する画面が表示される。なお、図4Gでは、3つの登録名を示しているが、3つに限定されるものではない。
 ユーザが所望の登録名をタッチし、続いて「決定」ボタンをタッチすることにより、所望の登録名でトリミング枠200とAF枠202の設定内容が登録される。図4Gでは、“トリミング3“という登録名を選択した例を示している。
[1.3.第1の実施形態の処理手順]
 次に、本実施形態の処理手順について説明する。図5A~図5Dは、本実施形態の処理手順を示すフローチャートである。図5Aに示すように、ステップS10では、カスタマイズボタン126が押され、カスタマイズのモードへ遷移する。次のステップS11では、トリミング枠の選択項目が表示される。次のステップS12では、タッチパネル121の操作を検知し、「戻る」の操作が検知された場合はカスタマイズ処理を終了する。また、ステップS12において、トリミング枠の選択が検知された場合は、ステップS13へ進み、選択内容をメモリ142に1つだけ上書き記憶する。また、ステップS12において、「確定」ボタンの操作が検知された場合は、ステップS14へ進む。ステップS14では、トリミング枠200の選択内容を記憶する。例えば、トリミング枠が“6切”に選択された場合は、その旨を記憶する。
 次に、ステップS16では、AF枠の選択項目を表示する。次のステップS18では、タッチパネル121の操作を検知し、「戻る」の操作が検知された場合はステップS11へ戻る。また、ステップS18において、AF枠の選択が検知された場合は、ステップS20へ進み、選択されたAF枠が既に選択済のAF枠であるか否かを判定し、既に選択済のAF枠である場合はステップS22へ進み、選択されたAF枠を取り消す。また、ステップS20において、選択されたAF枠が既に選択済のAF枠でない場合はステップS24へ進み、選択されたAF枠を追加して記憶する。上述したようにAF枠は複数選択することが可能である。
 ステップS18で「確定」ボタンの操作が検知された場合は、ステップS26へ進む。ステップS26では、AF枠の選択内容を記憶する。例えば、3分割構図の交点と、中央の1点をAF枠の選択内容として記憶する。次のステップS28では、確定したトリミング枠とAF枠を表示する。ステップS28の後は、図5BのステップS30へ進む。
 ステップS30では、タッチパネル121の操作を検知し、「戻る」の操作が検知された場合は図5AのステップS16へ戻る。タッチパネル121の操作が検知されない場合は、ステップS30で待機する。ステップS30でサイズ調整の操作が検知された場合は、ステップS32へ進む。
 ステップS32では、タッチ操作に応じてトリミング枠のサイズを変更する。次のステップS34では、タッチパネル121の操作を検知し、「戻る」の操作が検知された場合は図5AのステップS16へ戻る。また、ステップS34において、サイズ調整の操作が検知された場合は、ステップS32に戻り、タッチ操作に応じてトリミング枠のサイズを変更する。また、ステップS34において、「確定」ボタンの操作が検知された場合は、ステップS36へ進む。ステップS36では、AF枠追加、AF枠削除、AF枠移動、登録ボタンを表示する。
 次のステップS38では、タッチパネル121の操作を検知し、タッチパネル121の操作に応じて、図5C、図5D、図5E、図5Fの処理を行う。
 ステップS38において、「AF枠移動」ボタンの操作が検知された場合は、図5CのステップS40へ進む。ステップS40では、タッチパネル121の操作を検知し、「戻る」の操作が検知された場合は図5BのステップS38へ戻る。また、タッチパネル121の操作が検知されない場合は、ステップS40で待機する。また、ステップS40でAF枠を移動する操作がされた場合は、ステップS42へ進み、タッチパネル121の操作に応じてAF枠を選択する。
 ステップS42の後はステップS44へ進む。ステップS44では、タッチパネル121の操作を検知し、「戻る」の操作が検知された場合はステップS46へ進み、AF枠の選択を解除した後、ステップS40へ戻る。一方、ステップS44でAF枠の移動操作が検知された場合は、ステップS46へ進む。ステップS46では、タッチパネル121の操作に応じてAF枠を移動する。
 ステップS46の後はステップS48へ進む。ステップS48では、タッチパネル121の操作を検知し、「戻る」の操作が検知された場合はステップS50へ進み、AF枠を移動前の状態に戻し、ステップS44へ戻る。
 また、ステップS48でAF枠の移動操作が検知された場合は、ステップS46へ戻り、タッチパネル121の操作に応じてAF枠を移動する。また、ステップS48で「確定」の操作が検知された場合は、図5BのステップS38へ戻る。また、ステップS48でタッチパネル121の操作が検知されない場合は、ステップS48で待機する。
 また、図5BのステップS38において、「AF枠追加」ボタンの操作が検知された場合は、図5DのステップS50へ進む。ステップS50では、追加AF枠を表示する。ステップS50の後は図5BのステップS38へ戻る。
 また、図5BのステップS38において、「AF枠削除」ボタンの操作が検知された場合は、図5EのステップS52へ進む。ステップS52では、タッチパネル121の操作を検知し、「戻る」の操作が検知された場合は図5BのステップS38へ戻る。また、タッチパネル121の操作が検知されない場合は、ステップS52で待機する。また、ステップS52でAF枠を選択する操作がされた場合は、ステップS54へ進み、タッチパネル121の操作に応じて選択されたAF枠を削除する。ステップS54の後は図5BのステップS38へ戻る。
 また、図5BのステップS38において、「登録」ボタンの操作が検知された場合は、図5FのステップS56へ進む。ステップS56では決定ボタンを表示し、次のステップS58では登録名候補を表示する。次のステップS60では、タッチパネル121の操作を検知し、「戻る」の操作が検知された場合は図5BのステップS38へ戻る。また、タッチパネル121の操作が検知されない場合は、ステップS60で待機する。また、ステップS60において、選択された登録名が検知された場合は、ステップS62へ進み、選択内容が記憶される。選択された登録名は、1つだけ上書き記憶される。
 また、ステップS60において、「決定」ボタンの操作が検知された場合は、ステップS64へ進む。ステップS64では、タッチした登録名、すなわち、ステップS62で記憶された登録名でトリミング枠及びAF枠を記録する。ステップS64の後はステップS66へ進む。ステップS66では、トリミング枠及びAF枠のカスタマイズを終了する。
[1.4.カスタマイズしたトリミング枠、AF枠で撮影する場合のAFについて]
 次の、上述の方法によりトリミング枠、AF枠をカスタマイズした場合の撮影について説明する。ユーザがローカルAFを選択した場合は、設定したトリミング枠の中のAF枠から選択するようにする。また、ワイドエリアAFを選択した場合は、デジタルカメラ100に元々配置されているAF枠の中から、トリミング枠内のAF枠に加えて、ユーザが設定したAF枠を用いてワイドエリアオートフォーカス処理を行う。
 また、ユーザが設定したAF枠のみを用いてオートフォーカスをしても良い。この場合、ユーザにとって必要な場所のみでAFの計算が行われるため、高い確率でユーザの思い通りの位置でフォーカスを合わせることができる。
[1.5.ユ-ザがカスタマイズしたトリミング枠、AF枠で撮影した画像データの再生について]
 ユーザがカスタマイズしたトリミング枠、AF枠で撮影した場合、デジタルカメラ100は、撮像素子104が撮像した全画像データとともにトリミング枠のサイズ、位置情報を記録することができる。また、デジタルカメラ100は、撮像素子104が撮像した全画像データをトリミング枠によりトリミング処理してメディアに記録してもよい。これは、デジタルカメラ100の設定でいずれかを選択できるようにしておいても良い。デジタルカメラ100内で実際にトリミング処理をしてからメディアに記録する場合、より多くの枚数を記録することが可能である。
 撮影後、パーソナルコンピュータ(PC)で再生するときには、現像ソフトを起動する。カスタマイズしたトリミング枠、AF枠で撮影した画像の場合、トリミング情報を取得し、PC上での再生時、トリミング枠を表示させることもできる。また、そのトリミング枠にしたがって、トリミング処理を行うこともできる。
 以上説明したように本実施形態によれば、六切や四切でプリントしたい場合、縦横比が3:2表示や4:3表示のライブビューに、ユーザが所望のアスペクト比のトリミング枠を表示させることが可能となる。従って、ユーザがトリミング枠を想像しながら撮影を行う場合に比べて、ユーザは、はるかに精度高く、構図の追い込みを行うことができる。
 また、トリミング枠とAF枠の両方をカスタマイズできるため、トリミング枠を設定した上で、そのトリミング枠に対してユーザが所望のAF枠を設定することができる。これにより、ユーザは、トリミング枠に対するAF枠の位置をイメージし易くなり、トリミング後の画像に対するAF枠位置を的確に設定することができる。
 また、トリミング枠とAF枠の両方をカスタマイズできるため、所望のトリミング枠に適合したAF枠の配置を行うことができる。従って、トリミング後の画像に対して、構図、ピント位置共にユーザにとって最適の画像を得ることができる。
 また、トリミング枠を設定し、トリミング枠外の画像データを記録しないことにより、画像のデータ容量を低く抑えることができ、記録枚数を上げることができる。
 また、トリミング枠を横に対して縦が長いアスペクト比にすることにより、トリミング後は縦位置撮影の画像を得ることができる。また、その縦位置トリミング枠に対して、ユーザにとって最適な位置にAF枠を設定できる。これにより、縦位置グリップのような特殊な機材を使わなくても、縦位置でカメラを保持する独特な撮影スタイルを回避でき、水平を取りやすい横位置撮影スタイルで縦位置画像を得ることができる。
 <2.第2の実施形態>
[2.1.トリミング枠、AF枠をカスタマイズして設定する方法の具体例]
 次に、本開示の第2の実施形態について説明する。第2の実施形態は、タッチパネル操作と音声認識を組み合わせることで操作の柔軟性を高めたものである。第1の実施形態と同様に、デジタルカメラ100の背面の液晶モニタ120はタッチパネル121を有しており、ユーザの指操作により容易にトリミング枠200やAF枠202を配置できる。第2の実施形態では、内蔵マイク128による音声認識を併用することで、トリミング枠200とAF枠202の設定を行う。
 図6A~図6Fは、トリミング枠200とAF枠202の設定モードに入った後の操作の具体例を示したものである。トリミング枠AF枠カスタマイズボタン126が押されると、例えば、図6Aに示すような表示が現れる。この状態から、ユーザは、図6Bに示すように人差し指と親指でタッチパネル121に触れる。そして、図6Cに示すように、ユーザが、デジタルカメラ100に向かって“6切”と発声すると、6切サイズの203:254のアスペクト比を有するトリミング枠200が表示される。トリミング枠200は、人差し指と親指でタッチしている位置がトリミング枠200の対角に位置するように表示する。ユーザは図6Dのようにタッチしている指を動かすことで、トリミング枠200の大きさ、位置を調整することができる。また、トリミング枠200のサイズ、位置を調整している最中でも、図6Eのように“4切”と発声すると、4切サイズの254:304のアスペクト比を有するトリミング枠200に変更することもできる。変更した場合においても、人差し指と親指でタッチしている位置が対角に近い形になる様に表示する。次に、図6Fに示すように、ユーザは、トリミング枠200の大きさ、位置を決めた後、“確定”と発声することで、トリミング枠200の大きさ、位置が確定する。
 第2の実施形態では、AF枠202も音声を用いて設定することができる。例えば図7Aに示すように、ユーザがデジタルカメラ100に向かって、“3分割構図交点”と発声すると、トリミング枠200を3分割した交点にAF枠202が表示される。AF枠202を追加したい場合、図7Bに示すように、ユーザが“追加”と発声することで、AF枠202の追加モードになり、更に、“中央一点”と話すと、AF枠202がトリミング枠200の中央1点に追加される。AF枠202を移動する場合は、図7Cに示すように、“移動”と発声することで、AF枠202を移動するモードとなり、移動させたいAF枠202をタッチして、所望の位置までもっていくことができる。図7Cでは、追加したAF枠202を選択して移動する例を示しているが、3分割構図交点上のAF枠202を移動させることももちろん可能である。更にAF枠202を追加する場合は、“追加”と発声すれば良い。
 AF枠202は単発で1つを追加することもできる。例えば図7Aに示す状態で、“追加”と発声することで、追加モードになり、更に、“AF枠”と発声すると、図7Dに示すようにAF枠202が1つ追加される。
 AF枠202の削除については、ユーザが“削除”と発声することでAF枠202の削除モードになり、図7Eに示すように、所望のAF枠202をタッチすると、そのAF枠202が削除される。
 所望のトリミング枠200、AF枠202の設定が終わると、ユーザはその内容を登録する。この時、ユーザは“登録”と発声する。これにより、図7Fに示すように、登録名の候補が表示される。そして、図7Gに示すように、登録名の候補の1つ“トリミング1”を発生すると、登録名候補として「トリミング1」が選択される。そして、図7Hに示すように、“確定”と発声することで登録名「トリミング1」が登録される。
[2.2.第2の実施形態の処理手順]
 次に、本実施形態の処理手順について説明する。図8A~図8Dは、本実施形態の処理手順を示すフローチャートである。図8Aに示すように、ステップS70では、カスタマイズボタン126が押され、カスタマイズのモードへ遷移する。次のステップS72では、トリミング枠の選択項目が表示される。次のステップS74では、音声を認識し、「戻る」の音声が認識された場合はカスタマイズ処理を終了する。また、ステップS74において、「トリミング枠」の音声が認識検知された場合は、トリミング枠の選択内容をメモリ142に1つだけ上書き記憶する。また、ステップS74において、「確定」の音声が認識された場合は、ステップS76へ進む。ステップS76では、AF枠の選択項目を表示する。
 ステップS76の後はステップS78へ進む。ステップS78では、音声を認識し、「戻る」の音声が認識された場合はステップS72へ戻る。また、ステップS78において、AF枠の選択の音声が認識検知された場合は、ステップS80へ進み、AF枠を表示する。ステップS80の後はステップS78へ戻る。
 また、ステップS78において、「移動」の音声が認識された場合、「削除」の音声が認識された場合、「追加」の音声が認識された場合は、それぞれ図8B、図8D、図8Cの処理を行う。
 ステップS78において、「移動」の音声が認識された場合は、図8BのステップS100及びステップS102へ進む。以降の処理では、ステップS100の音声認識とステップS102以降のタッチパネルの検知処理を並行して行う。
 ステップS102では、タッチパネル121の操作を検知し、タッチパネル121が操作された場合はステップS104へ進む。ステップS104では、タッチパネル121の操作に応じてAF枠を選択する。一方、ステップS102でタッチパネル121が操作されない場合は、ステップS102で待機する。
 ステップS104の後はステップS106へ進む。ステップS106では、タッチパネル121の操作に応じてAF枠を移動する。
 また、ステップS102~ステップS106の処理において、ステップS100で「戻る」または「確定」の音声が認識された場合は、図8AのステップS76へ戻る。
 ステップS78において、「削除」の音声が認識された場合は、図8DのステップS110及びステップS112へ進む。以降の処理では、ステップS110の音声認識とステップS112以降のタッチパネル検知処理を並行して行う。
 ステップS112では、タッチパネル121の操作を検知し、タッチパネル121が操作された場合はステップS114へ進む。ステップS114では、タッチパネル121の操作に応じて選択されたAF枠を削除する。ステップS114の後は図8AのステップS76へ戻る。
 また、ステップS112~ステップS114の処理において、ステップS100で「戻る」の音声が認識された場合は、図8AのステップS76へ戻る。
 ステップS78において、「追加」の音声が認識された場合は、図8CのステップS120へ進む。ステップS120では、音声認識を行い、「追加AF枠選択」の音声が認識された場合は、図8AのステップS80へ進む。また、ステップS120において、「戻る」の音声が認識された場合は、図8AのステップS76へ戻る。
 また、ステップS120において、「AF枠」の音声を認識した場合は、ステップS122へ進む。ステップS122では、追加のAF枠を表示する。ステップS122の後は図8AのステップS76へ戻る。
 図8AのステップS78において、「登録」の音声が認識された場合は、ステップS80へ進む。ステップS80では、登録名の候補を表示する。次のステップS81では、音声認識を行い、「戻る」の音声が認識された場合は、図8AのステップS76へ戻る。また、「登録名」の音声が認識された場合は、ステップS82へ進み、選択登録名候補をハイライト表示する。ステップS82の後はステップS80へ戻る。また、ステップS80で音声認識がされなかった場合は、ステップS80で待機する。
 また、ステップS80で「確定」の音声が認識された場合は、ステップS84へ進み、認識した登録名でトリミング枠及びAF枠情報を記録する。次のステップS86では、トリミング枠及びAF枠のカスタマイズを終了する。
 ステップS74以降の処理は、図8Eに示すステップS130以降の処理と並列して行われる。ステップS130では、トリミング枠を表示する。トリミング枠のアスペクト比は、記憶されたトリミング枠の選択内容に基づいて定められる。ステップS130の後はステップS132へ進む。ステップS132では、タッチパネル121の操作に応じて、トリミング枠のサイズを変更する。ステップS132においても、トリミング枠のアスペクト比は、記憶されたトリミング枠の選択内容に基づいて定められる。
 ステップS130,S132においては、ステップS74の音声認識で「戻る」又は「確定」の音声が認識された場合は、カスタマイズ処理を終了する。
 以上説明したように本実施形態によれば、音声認識とタッチパネル操作を併用することで、トリミング枠とAF枠の設定をより容易に行うことが可能となる。従って、ユーザは、トリミング枠とAF枠を簡単な操作で設定することが可能となる。
 <3.第3の実施形態>
 次に、本開示の第3の実施形態について説明する。上述した第1及び第2の実施形態では、デジタルカメラ100での操作を説明した。第3の実施形態では、パーソナルコンピュータ(PC)上で操作を行い、トリミング枠、AF枠をカスタマイズ設定する例について説明する。
 ここでは、トリミング枠、AF枠を設定するソフトウェアを用い、上述したデジタルカメラ100上で行う操作を、PC上でマウスを使って行うことができる。そして、設定した内容を、登録名を決めて記憶する。PCでは、キーボードを使うことができるため、登録名の設定の自由度を高めることもできる。記憶した内容は、例えば、CFカードなどのメディアに書き込み、このメディアをデジタルカメラ100の本体に装着して、トリミング枠及びAF枠のデータをデジタルカメラに取り込むようにしても良い。
 図9A及び図9Bは、第3の実施形態の構成例を示す模式図である。図9Aに示すパーソナルコンピュータ300は、図2のCPU150及び関連する構成要素を備えている。図9Aに示すように、パーソナルコンピュータ300をユーザが操作することにより、パーソナルコンピュータ300に挿入された記録メディア108にトリミング枠及びAF枠の情報が記憶される。トリミング枠及びAF枠は、“aaa”という登録名で記録メディア108に記録される。
 図9Bに示すように、トリミング枠、AF枠、及び登録名が記録された記録メディア108は、デジタルカメラ100の記録メディア108の挿入口110に挿入される。デジタルカメラ100は、記録メディア110に記録された情報を読み出すことで、トリミング枠、AF枠、及び登録名を取得し、カスタマイズ内容としてメモリに保存する。
 以上説明したように本実施形態によれば、パーソナルコンピュータ300上での操作により、トリミング枠及びAF枠を設定することができる。これにより、ユーザは、パーソナルコンピュータ300上で設定したトリミング枠及びAF枠が記録された記録メディアをデジタルカメラ100に挿入することで、デジタルカメラ100のトリミング枠及びAF枠を設定することができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)ユーザによる指示入力を取得する指示入力取得部と、
 前記指示入力に基づいて、画像をトリミングするトリミング枠を設定するトリミング枠設定部と、
 前記トリミング枠に対して、前記画像の検出を行う範囲を示す検出枠を設定する検出枠設定部と、
 を備える、画像処理装置。
(2)前記指示入力取得部は、ユーザによる操作が入力される操作入力部である、前記(1)に記載の画像処理装置。
(3)前記指示入力取得部は、タッチパネルから構成される、前記(2)に記載の画像処理装置。
(4)前記トリミング枠設定部は、前記タッチパネルへのマルチタッチ操作に基づいて、前記トリミング枠を設定する、前記(3)に記載の画像処理装置。
(5)前記指示入力取得部は、ユーザによる音声が入力される音声入力部である、前記(1)に記載の画像処理装置。
(6)前記検出枠設定部は、前記トリミング枠に対して前記検出枠を自動で設定する、前記(1)に記載の画像処理装置。
(7)前記検出枠設定部は、前記指示入力に基づいて、前記トリミング枠に対して前記検出枠を制御する、前記(1)に記載の画像処理装置。
(8)前記トリミング枠及び前記検出枠を表示する表示部を備える、前記(1)に記載の画像処理装置。
(9)前記撮像画像を撮像する撮像素子を備える、前記(1)に記載の画像処理装置。
(10)前記トリミング枠設定部は、前記トリミング枠のサイズ又は位置を制御する、前記(1)に記載の画像処理装置。
(11)前記検出枠検出部は、前記検出枠のサイズ又は位置、若しくは前記検出枠の追加又は削除を設定する、前記(1)に記載の画像処理装置。
(12)前記トリミング枠設定部は、前記トリミング枠のアスペクト比を予め定められたアスペクト比に設定する、前記(1)に記載の画像処理装置。
(13)確定した前記トリミング枠及び前記検出枠を記憶部に記憶させる記憶処理部を備える、前記(1)に記載の画像処理装置。
(14)前記記憶処理部は、確定した前記トリミング枠及び前記検出枠を登録名とともに記録させる、前記(1)に記載の画像処理装置。
(15)ユーザによる指示入力を取得することと、
 前記指示入力に基づいて、画像をトリミングするトリミング枠を設定することと、
 前記トリミング枠に対して、前記画像の検出を行う範囲を示す検出枠を設定することと、
 を備える、画像処理方法。
(16)ユーザによる指示入力を取得することと、
 前記指示入力に基づいて、画像をトリミングするトリミング枠を設定することと、
 前記トリミング枠に対して、前記画像の検出を行う範囲を示す検出枠を設定することと、
 をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
 100  デジタルカメラ
 104  撮像素子
 108  記録メディア
 120  液晶モニタ
 128  内蔵マイク
 144  カスタマイズメモリ
 150  CPU
 150a トリミング枠制御部
 150b AF枠制御部
 150c 記録処理部
 

Claims (16)

  1.  ユーザによる指示入力を取得する指示入力取得部と、
     前記指示入力に基づいて、画像をトリミングするトリミング枠を設定するトリミング枠設定部と、
     前記トリミング枠に対して、前記画像の検出を行う範囲を示す検出枠を設定する検出枠設定部と、
     を備える、画像処理装置。
  2.  前記指示入力取得部は、ユーザによる操作が入力される操作入力部である、請求項1に記載の画像処理装置。
  3.  前記指示入力取得部は、タッチパネルから構成される、請求項2に記載の画像処理装置。
  4.  前記トリミング枠設定部は、前記タッチパネルへのマルチタッチ操作に基づいて、前記トリミング枠を設定する、請求項3に記載の画像処理装置。
  5.  前記指示入力取得部は、ユーザによる音声が入力される音声入力部である、請求項1に記載の画像処理装置。
  6.  前記検出枠設定部は、前記トリミング枠に対して前記検出枠を自動で設定する、請求項1に記載の画像処理装置。
  7.  前記検出枠設定部は、前記指示入力に基づいて、前記トリミング枠に対して前記検出枠を制御する、請求項1に記載の画像処理装置。
  8.  前記トリミング枠及び前記検出枠を表示する表示部を備える、請求項1に記載の画像処理装置。
  9.  前記撮像画像を撮像する撮像素子を備える、請求項1に記載の画像処理装置。
  10.  前記トリミング枠設定部は、前記トリミング枠のサイズ又は位置を制御する、請求項1に記載の画像処理装置。
  11.  前記検出枠検出部は、前記検出枠のサイズ又は位置、若しくは前記検出枠の追加又は削除を設定する、請求項1に記載の画像処理装置。
  12.  前記トリミング枠設定部は、前記トリミング枠のアスペクト比を予め定められたアスペクト比に設定する、請求項1に記載の画像処理装置。
  13.  確定した前記トリミング枠及び前記検出枠を記憶部に記憶させる記憶処理部を備える、請求項1に記載の画像処理装置。
  14.  前記記憶処理部は、確定した前記トリミング枠及び前記検出枠を登録名とともに記録させる、請求項1に記載の画像処理装置。
  15.  ユーザによる指示入力を取得することと、
     前記指示入力に基づいて、画像をトリミングするトリミング枠を設定することと、
     前記トリミング枠に対して、前記画像の検出を行う範囲を示す検出枠を設定することと、
     を備える、画像処理方法。
  16.  ユーザによる指示入力を取得することと、
     前記指示入力に基づいて、画像をトリミングするトリミング枠を設定することと、
     前記トリミング枠に対して、前記画像の検出を行う範囲を示す検出枠を設定することと、
     をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
     
PCT/JP2013/057224 2012-04-23 2013-03-14 画像処理装置、画像処理方法及び記録媒体 WO2013161424A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380020214.9A CN104221055A (zh) 2012-04-23 2013-03-14 图像处理装置、图像处理方法和记录介质
EP13782557.6A EP2843628A1 (en) 2012-04-23 2013-03-14 Image processing device, image processing method, and recording medium
US14/380,172 US20150334290A1 (en) 2012-04-23 2013-03-14 Image processing device, image processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-097748 2012-04-23
JP2012097748 2012-04-23

Publications (1)

Publication Number Publication Date
WO2013161424A1 true WO2013161424A1 (ja) 2013-10-31

Family

ID=49482764

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/057224 WO2013161424A1 (ja) 2012-04-23 2013-03-14 画像処理装置、画像処理方法及び記録媒体

Country Status (5)

Country Link
US (1) US20150334290A1 (ja)
EP (1) EP2843628A1 (ja)
JP (1) JPWO2013161424A1 (ja)
CN (1) CN104221055A (ja)
WO (1) WO2013161424A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130521A1 (ja) * 2016-01-26 2017-08-03 ソニー株式会社 制御装置、制御方法、及びプログラム
JP2017182632A (ja) * 2016-03-31 2017-10-05 ブラザー工業株式会社 画像処理プログラム及び情報処理装置
JP2019201356A (ja) * 2018-05-17 2019-11-21 キヤノン株式会社 画像処理装置、プログラム、画像処理方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160057651A (ko) * 2014-11-14 2016-05-24 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN104836957A (zh) * 2015-05-09 2015-08-12 陈包容 一种照片拍摄的处理方法及装置
CN108476284B (zh) * 2016-01-28 2020-11-27 麦克赛尔株式会社 摄像装置
JP7431609B2 (ja) * 2020-02-18 2024-02-15 キヤノン株式会社 制御装置及びその制御方法及びプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136568A (ja) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
JP2000083186A (ja) * 1998-09-03 2000-03-21 Canon Inc 映像機器
JP2005198318A (ja) * 2004-01-07 2005-07-21 Hewlett-Packard Development Co Lp 標準写真サイズへのカメラ内クロップ方法
JP2006211489A (ja) * 2005-01-31 2006-08-10 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP2006279661A (ja) 2005-03-30 2006-10-12 Seiko Epson Corp デジタルカメラ
JP2007019685A (ja) * 2005-07-06 2007-01-25 Sony Corp 撮像装置、制御方法、およびプログラム
JP2008003335A (ja) * 2006-06-23 2008-01-10 Casio Comput Co Ltd 撮像装置、フォーカス制御方法、およびフォーカス制御プログラム
JP2008079149A (ja) * 2006-09-22 2008-04-03 Casio Comput Co Ltd 画像表示装置及びプログラム
JP2009239733A (ja) * 2008-03-27 2009-10-15 Sony Corp 撮像装置、撮像方法及びプログラム
JP2010224499A (ja) 2009-03-25 2010-10-07 Fujifilm Corp オートフォーカスシステム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136568A (ja) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
JP2000083186A (ja) * 1998-09-03 2000-03-21 Canon Inc 映像機器
JP2005198318A (ja) * 2004-01-07 2005-07-21 Hewlett-Packard Development Co Lp 標準写真サイズへのカメラ内クロップ方法
JP2006211489A (ja) * 2005-01-31 2006-08-10 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP2006279661A (ja) 2005-03-30 2006-10-12 Seiko Epson Corp デジタルカメラ
JP2007019685A (ja) * 2005-07-06 2007-01-25 Sony Corp 撮像装置、制御方法、およびプログラム
JP2008003335A (ja) * 2006-06-23 2008-01-10 Casio Comput Co Ltd 撮像装置、フォーカス制御方法、およびフォーカス制御プログラム
JP2008079149A (ja) * 2006-09-22 2008-04-03 Casio Comput Co Ltd 画像表示装置及びプログラム
JP2009239733A (ja) * 2008-03-27 2009-10-15 Sony Corp 撮像装置、撮像方法及びプログラム
JP2010224499A (ja) 2009-03-25 2010-10-07 Fujifilm Corp オートフォーカスシステム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130521A1 (ja) * 2016-01-26 2017-08-03 ソニー株式会社 制御装置、制御方法、及びプログラム
JPWO2017130521A1 (ja) * 2016-01-26 2018-11-15 ソニー株式会社 制御装置、制御方法、及びプログラム
US10560635B2 (en) 2016-01-26 2020-02-11 Sony Corporation Control device, control method, and program
JP2017182632A (ja) * 2016-03-31 2017-10-05 ブラザー工業株式会社 画像処理プログラム及び情報処理装置
US10705697B2 (en) 2016-03-31 2020-07-07 Brother Kogyo Kabushiki Kaisha Information processing apparatus configured to edit images, non-transitory computer-readable medium storing instructions therefor, and information processing method for editing images
JP2019201356A (ja) * 2018-05-17 2019-11-21 キヤノン株式会社 画像処理装置、プログラム、画像処理方法
JP7171235B2 (ja) 2018-05-17 2022-11-15 キヤノン株式会社 画像処理装置、プログラム、画像処理方法

Also Published As

Publication number Publication date
US20150334290A1 (en) 2015-11-19
JPWO2013161424A1 (ja) 2015-12-24
CN104221055A (zh) 2014-12-17
EP2843628A1 (en) 2015-03-04

Similar Documents

Publication Publication Date Title
WO2013161424A1 (ja) 画像処理装置、画像処理方法及び記録媒体
JP5316387B2 (ja) 情報処理装置、表示方法及びプログラム
JP5652652B2 (ja) 表示制御装置および方法
TWI438519B (zh) 攝像裝置、攝像方法及程式
CN105404361B (zh) 摄影装置和摄影装置的控制方法
US9280223B2 (en) Imaging apparatus and continuous shooting imaging methods using a continuous touch user input
JP2018107711A (ja) 撮像制御装置及びその制御方法
JP4019200B2 (ja) 画像表示器付きカメラ
JP2009010777A (ja) 撮像装置、撮影制御方法、プログラム
JP2006186589A (ja) 表示制御装置及び表示制御方法
JP2007310813A (ja) 画像検索装置およびカメラ
JP5267609B2 (ja) 撮像装置及びそのプログラム
JP6512961B2 (ja) 撮像制御装置およびその制御方法、プログラム、並びに記憶媒体
JP4849330B2 (ja) 表示制御装置および方法、撮像装置、情報処理装置および方法、並びにプログラム
JP4771524B2 (ja) 撮像装置及びそのプログラム
JP2011151728A (ja) 撮像装置及びその制御方法
JP5157428B2 (ja) 撮像装置
JP4339370B2 (ja) カメラ、撮像装置、レンズ鏡筒及びカメラ本体
JP7154064B2 (ja) 撮像制御装置、その制御方法、プログラムおよび記録媒体
JP2013211719A (ja) デジタルカメラ
KR101946574B1 (ko) 영상 재생 장치, 방법, 및 컴퓨터 판독가능 저장매체
JP4535389B2 (ja) カメラ装置、その表示制御方法と制御プログラム
JP2023089744A (ja) 画像処理装置、マーキング方法、プログラム
JP5049313B2 (ja) カメラ
JP2005278059A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13782557

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14380172

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013782557

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014512411

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE