WO2016203536A1 - 演算方法、演算プログラム及び撮像装置 - Google Patents

演算方法、演算プログラム及び撮像装置 Download PDF

Info

Publication number
WO2016203536A1
WO2016203536A1 PCT/JP2015/067268 JP2015067268W WO2016203536A1 WO 2016203536 A1 WO2016203536 A1 WO 2016203536A1 JP 2015067268 W JP2015067268 W JP 2015067268W WO 2016203536 A1 WO2016203536 A1 WO 2016203536A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
difference
user
representative
attention
Prior art date
Application number
PCT/JP2015/067268
Other languages
English (en)
French (fr)
Inventor
古橋 幸人
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2015/067268 priority Critical patent/WO2016203536A1/ja
Priority to CN201580080941.3A priority patent/CN107736009A/zh
Priority to JP2017524172A priority patent/JPWO2016203536A1/ja
Publication of WO2016203536A1 publication Critical patent/WO2016203536A1/ja
Priority to US15/827,572 priority patent/US10438372B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to a calculation method, a calculation program, and an imaging apparatus.
  • Japanese Patent No. 4625356 proposes a technique in which an image processing apparatus selects a position of a feature portion detected from image data as a target portion and trims the image data based on the target portion.
  • the image processing apparatus has at least one of a part representing a human face, a part in focus, and a part representing at least one of a horizontal line or a vertical line as a characteristic part.
  • the target portion is selected by detecting as.
  • an imaging device including a smartphone, touch AF (Auto Focus) and a touch shutter function
  • a user can easily indicate a position to be noticed.
  • the image processing device selects the indication position to which the user pays attention as the attention portion. can do.
  • the image processing apparatus may select an instruction position not noticed by the user as the attention part when the characteristic part does not match the instruction position of the user. .
  • an instruction position not noticed by the user may be selected as the attention part.
  • a feature portion that is not noticed by the user may be selected as the attention portion.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide a calculation method, a calculation program, and an imaging apparatus that can select a target portion in image data intended by a user.
  • a calculation method includes receiving an input of image data, detecting a representative position of a characteristic portion from the image data receiving the input, and the image Acquiring a user-instructed position in the data, calculating the detected representative position and the acquired user-instructed position, and if the calculated position difference is less than a predetermined first threshold, A representative position is selected as a target portion, and when the position difference is not less than the first threshold value, the user-designated position is selected as a target portion.
  • a calculation program receives an input of image data in a calculation device, and detects a representative position of a characteristic portion from the image data that has received the input. Acquiring a user-instructed position in the image data; calculating a position difference indicating a difference between the detected representative position and the acquired user-instructed position; and calculating the position difference determined in advance.
  • the representative position is selected as the attention part
  • the user-designated position is selected as the attention part.
  • an image pickup apparatus detects an image pickup unit that outputs image data obtained by image pickup, and a representative position of a feature portion from the output image data.
  • the present invention it is possible to provide a calculation method, a calculation program, and an imaging apparatus that can select a target portion in image data intended by a user.
  • FIG. 1 is a block diagram showing an example of a functional configuration of an arithmetic unit according to the first embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an example of the operation of the arithmetic device according to the first embodiment.
  • FIG. 3 is a schematic diagram illustrating an example of image data according to the first embodiment.
  • FIG. 4 is a schematic diagram illustrating an example of image data according to the first embodiment.
  • FIG. 5 is a schematic diagram illustrating an example of image data in the first embodiment.
  • FIG. 6 is a block diagram showing an example of a functional configuration of an arithmetic unit according to the second embodiment of the present invention.
  • FIG. 7 is a schematic diagram illustrating an example of a target portion selection logic in the second embodiment.
  • FIG. 8 is a flowchart illustrating an example of the operation of the arithmetic device according to the second embodiment.
  • FIG. 9 is a schematic diagram illustrating an example of image data according to the second embodiment.
  • FIG. 10 is a schematic diagram illustrating an example of image data according to the second embodiment.
  • FIG. 11 is a block diagram showing an example of a functional configuration of an arithmetic unit according to the third embodiment of the present invention.
  • FIG. 12 is a flowchart illustrating an example of the operation of the arithmetic device according to the third embodiment.
  • FIG. 13 is a block diagram illustrating an example of a functional configuration of an imaging apparatus according to the fourth embodiment of the present invention.
  • the following arithmetic device may be realized using a program for causing a computer to function as an arithmetic device that selects a target portion from image data.
  • the arithmetic device may realize the function of the function block by a hardware resource such as a memory or a CPU (Central Processing Unit) and a software program that cooperates with the hardware resource.
  • a hardware resource such as a memory or a CPU (Central Processing Unit) and a software program that cooperates with the hardware resource.
  • FIG. 1 is a block diagram showing a functional configuration of an example of an arithmetic device according to the first embodiment of the present invention.
  • the computing device 1 has a function of performing computation using the characteristics of image data in order to perform post-processing that reflects the user's intention.
  • the arithmetic device 1 has a function of selecting either a representative position of a characteristic part detected for input image data or a user instruction position designated by the user as a target part.
  • the post-processing includes, for example, AF or trimming related to the selected target portion.
  • the arithmetic device 1 shown in FIG. 1 includes an image data input unit 11, a feature portion detection unit 12, a user instruction position acquisition unit 13, a position difference calculation unit 14, and a target portion selection unit 15.
  • the image data input unit 11 accepts input of image data.
  • the image data input unit 11 transmits the received image data to the feature portion detection unit 12.
  • the image data input to the image data input unit 11 may be input directly from image data captured by an imaging unit (not shown) or may be input via a storage medium or the like. Further, the image data is not limited to the image data captured by the imaging unit, and may be image data such as CG (Computer Graphics). Further, the image data input unit 11 may input image data by wired communication or wireless communication.
  • the feature portion detection unit 12 receives image data from the image data input unit 11, and executes analysis for calculating a feature amount in the image data.
  • the feature portion detection unit 12 detects a representative position of the feature portion from the image data based on the feature amount calculated as a result of the analysis.
  • the representative position of the feature portion is detected as, for example, coordinates corresponding to the arrangement of image data distributed two-dimensionally.
  • the feature portion detection unit 12 transmits information on the representative position of the feature portion of the detected image data to the position difference calculation unit 14 and the target portion selection unit 15.
  • the feature amount in the image data a feature amount extracted in a portion having a name as an object such as a human body part, a pet, a flower, a dish, a blue sky, or a cloud can be applied.
  • the feature portion detected by the feature amount is not limited to a portion having a name as an object, and indices such as a change amount of saturation and luminance and a height of spatial frequency can be applied, and the index is high or low. It may be a part that does not have a name as a thing.
  • the feature portion detected by the feature portion detection unit 12 may further include a region in addition to the representative position.
  • the region of the feature portion can be detected as an arbitrary shape such as a region where the calculated feature amount exceeds a predetermined threshold or a rectangular region including at least a region where the feature amount exceeds the threshold.
  • the representative position of the feature portion having the area can be set to the position of the pixel having the maximum feature amount in the area, the center of the area, etc., but is not limited to this, and an arbitrary position in the area can be set. It can be set.
  • the feature portion detection unit 12 transmits information on the representative position and the region to the target portion selection unit 15.
  • the feature portion detection unit 12 may detect the representative position of each of the plurality of feature portions according to the result of the analysis performed on the image data. In this case, the feature part detection unit 12 may identify the plurality of feature parts as a plurality of independent feature parts. Further, the feature part detection unit 12 may identify a single feature part by grouping a plurality of feature parts for each feature type. The feature portion detection unit 12 transmits information on each representative position in the detected plurality of feature portions to the position difference calculation unit 14, and receives information on each representative position and region in the detected plurality of feature portions as the target portion. It transmits to the selection part 15.
  • the feature portion detection unit 12 may receive a user-instructed position of image data, which will be described later, from the user-instructed position acquisition unit 13, and set a representative position of the feature portion using the user-instructed position. That is, the feature part detection unit 12 weights a representative position of the grouped feature parts by a position difference (hereinafter referred to as “position difference”) indicating a difference between the representative position of each feature part and the user-designated position. It is possible to set the center of gravity of each representative position or the representative position of the feature portion closest to the user-instructed position.
  • position difference position difference
  • the user instruction position acquisition unit 13 acquires a user instruction position of image data based on operation information input by a user operation.
  • the user instruction position include a focus instruction position that is a position for focusing, an image processing instruction position that is a position for executing image processing, and the like.
  • the user instruction position acquisition unit 13 acquires operation information by a user's touch operation on a screen on which image data is displayed.
  • the user instruction position acquisition unit 13 acquires the coordinates of the touched portion on the image data as the user instruction position based on the acquired operation information.
  • the user instruction position acquisition unit 13 is not limited to the method of touching the screen, but the operation information can be obtained by an arbitrary method such as a method of moving the cursor displayed on the screen or a method of directly inputting coordinates. It can be acquired.
  • the user instruction position acquisition unit 13 transmits the acquired user instruction position information to the feature portion detection unit 12, the position difference calculation unit 14, and the target portion selection unit 15.
  • the position difference calculation unit 14 receives the information on the representative position of the feature portion from the feature portion detection unit 12 and receives the information on the user instruction position from the user instruction position acquisition unit 13.
  • the position difference calculation unit 14 calculates a position difference between the representative position of the characteristic portion and the user-instructed position, and transmits information on the position difference to the target portion selection unit 15.
  • the position difference is calculated as, for example, a coordinate distance between the user-instructed position and the representative position of the characteristic part, or a value such as the number of pixels existing between the user-instructed position and the representative position of the characteristic part. Further, when the position difference calculation unit 14 receives information on the representative positions of each of the plurality of feature portions from the feature portion detection unit 12, the position difference calculation unit 14 calculates a position difference at each representative position and transmits it to the target portion selection unit 15.
  • the attention portion selection unit 15 receives information on the representative position of the feature portion from the feature portion detection unit 12 and receives information on the user-designated position from the user-designated position acquisition unit 13. In addition, the attention portion selection unit 15 receives position difference information from the position difference calculation unit 14 and selects the attention portion based on the received position difference. When the positional difference is less than a predetermined threshold (hereinafter referred to as “first threshold”), the attention portion selection unit 15 selects the representative position of the characteristic portion as the attention portion, and the positional difference is equal to or larger than the first threshold. Then, the user-instructed position is selected as the part of interest.
  • first threshold a predetermined threshold
  • the portion of interest is a portion that serves as a reference when post-processing is performed on image data.
  • the post-processing includes a shooting operation and image processing.
  • the shooting operation include operations such as AF and AE (Auto-Exposure).
  • the target portion is defined by position information.
  • image processing include various processes such as trimming, white balance correction, and special effects such as frames, art filters, and art effects.
  • the target portion is preferably defined by area information in addition to position information.
  • the attention portion is not limited to the definition based on the position to be noted as described above, but may be defined by the position and area to be noted according to the post-processing to be executed.
  • the attention part selection unit 15 may further receive the information of the area of the characteristic part, and determine the value of the first threshold based on the size of the area. That is, the attention portion selection unit 15 sets the first threshold value large when the area size is large, and sets the first threshold value small when the area size is small.
  • the first threshold value is not limited to a fixed value, and may be calculated based on a function having a numerical value representing the region of the characteristic portion as a parameter.
  • the first threshold value may be a value obtained by multiplying a numerical value representing the region of the characteristic portion by a predetermined coefficient (for example, 1.2).
  • a predetermined coefficient for example, 1.2
  • the diameter of the circle including the region, the length of one side of the rectangle including the region, the area of the region, and the like can be applied as appropriate to the numerical value representing the region of the characteristic portion.
  • the attention portion selection unit 15 selects the attention portion based on the plurality of position differences.
  • the attention portion selection unit 15 determines the user instruction position as the attention portion.
  • the attention portion selection unit 15 extracts the feature portion.
  • the attention portion selection unit 15 selects the representative position of the feature portion as the attention portion when there is one extracted feature portion, and when there are a plurality of feature portions, selects the representative position of the feature portion with the smallest positional difference as the attention portion. .
  • the attention portion selection unit 15 may select a representative position when the plurality of feature portions are grouped as the attention portion.
  • the selected region of the target portion may be a region including each representative position or each region of the grouped characteristic portions.
  • the attention part selection part 15 may select a some attention part, when the information of a several positional difference is received. Specifically, when a plurality of feature portions whose position difference is less than the first threshold is extracted, the attention portion selection unit 15 selects the representative positions of the plurality of feature portions as the attention portions.
  • the selected region of the attention portion may be a feature portion region corresponding to the representative position selected as the attention portion, or may be a region including a plurality of extracted feature portion regions.
  • step ST110 the image data input unit 11 receives an input of the image data, and transmits the image data that has received the input to the feature portion detection unit 12.
  • step ST120 the feature portion detection unit 12 performs analysis on the received image data and detects a representative position of the feature portion.
  • the feature part detector 12 transmits information on the representative position of the detected feature part to the position difference calculator 14 and the target part selector 15.
  • step ST130 the user instruction position acquisition unit 13 acquires the user instruction position in the image data based on the user operation information.
  • the user instruction position acquisition unit 13 transmits the acquired user instruction position to the position difference calculation unit 14 and the target part selection unit 15.
  • step ST140 the position difference calculating unit 14 calculates the position difference between the representative position of the received characteristic portion and the user-instructed position.
  • the position difference calculation unit 14 transmits the calculated position difference information to the target portion selection unit 15.
  • the target portion selection unit 15 selects a target portion based on the received position difference. Specifically, the target portion selection unit 15 determines whether the positional difference is less than the first threshold value. When it is determined that the position difference is less than the first threshold value, the attention portion selection unit 15 selects the representative position of the feature portion as the attention portion, and when it is determined that the position difference is not less than the first threshold value, Select as the part of interest.
  • the position difference calculation unit 14 includes the representative position of the feature portion detected by the feature portion detection unit 12 and the user instruction position acquired by the user instruction position acquisition unit 13.
  • the position difference from is calculated.
  • the attention portion selection unit 15 selects the attention portion based on the calculated position difference. Further, the attention portion selection unit 15 determines whether or not the position difference is less than a predetermined first threshold value. If the position difference is less than the first threshold value, the representative position of the feature portion is selected as the attention portion, and the position difference is the first difference. If it is not less than the threshold value, the user-designated position is selected as the target portion. As a result, it is possible to determine which of the user-designated position designated by the user and the characteristic part existing in the vicinity thereof should be selected as the attention part.
  • the user designates the user designated position by touching the screen or the like with the intention of designating the face in the image data.
  • the user instruction position acquisition unit 13 often acquires the position of a background region around the face detected as a characteristic part, such as a part other than the face such as the body, as the user instruction position.
  • the computing device 1 can select the face as a target portion by evaluating that the position difference between the representative position of the face and the user-instructed position is less than the first threshold value.
  • the user designates a building away from the face as the user designated position with the intention to designate a place other than the face.
  • the computing device 1 can select the building as the target portion by evaluating that the positional difference between the representative position of the face and the user-instructed position is equal to or greater than the first threshold value.
  • the arithmetic device 1 can select a target portion intended by the user, and can execute post-processing according to the user's intention.
  • post-processing for example, when trimming is performed, the trimmed image can include a subject that matches the user's intention.
  • AF is executed as post-processing
  • a position that matches the user's intention can be determined as a focus position, and a focused image can be taken. For this reason, when the position slightly deviated from the position to be noted is touched, the touched position can be prevented from being focused. Therefore, it is possible to avoid obtaining an image of a blurred photograph due to a slight touch shift.
  • the attention portion selection unit 15 selects the representative position of the characteristic portion as the attention portion for the image data 101a, and selects the user instruction position as the attention portion for the image data 102a. Note that both the image data 101a and 102a have the same screen size.
  • the image data input unit 11 receives the input of the image data 101a and 102a.
  • the image data 101a and 102a have the same composition in that they include a person and a background as subjects, but differ in that the subject of the image data 101a is shown larger than the subject of the image data 102a.
  • the feature portion detector 12 detects a feature portion for each of the image data 101a and 102a.
  • the feature portion detection unit 12 detects the center of the face of the person who is the subject as the representative position of the feature portion for each of the image data 101a and 102a.
  • the representative position 101b of the image data 101a and the representative position 102b of the image data 102a are both detected at the same position on the screen.
  • the feature portion detection unit 12 further detects a rectangular region including a human face as a feature portion region.
  • a rectangular region including a human face is detected in the face area 101c of the image data 101a.
  • step ST130 the user instruction position acquisition unit 13 acquires a user instruction position in each of the image data 101a and 102a.
  • the user instruction position acquisition unit 13 acquires a part of the background as the user instruction position for each of the image data 101a and 102a.
  • the user instruction position 101d of the image data 101a and the user instruction position 102d of the image data 102a are the same position on the screen.
  • step ST140 the position difference calculation unit 14 calculates a position difference in each of the image data 101a and 102a.
  • the positional relationship between the representative position 101b of the characteristic portion in the image data 101a and the user-designated position 101d and the positional relationship between the representative position 102b of the characteristic portion in the image data 102a and the user-specified position 102d are the same. Therefore, the position difference calculation unit 14 calculates a position difference having the same value for each of the image data 101a and 102a.
  • the attention part selection unit 15 selects the attention part.
  • the attention portion selection unit 15 determines a first threshold value to be applied to each of the image data 101a and 102a based on the size of the person's face area which is a feature portion detected in each of the image data 101a and 102a.
  • the face area 101c of the image data 101a is larger than the face area 102c of the image data 102a.
  • the first threshold value set in the image data 101a is set to a value larger than the first threshold value set in the image data 102a.
  • the attention portion selection unit 15 selects the face that is the representative position of the characteristic portion of the image data 101a as the attention portion, and selects the background that is the user instruction position as the attention portion of the image data 102a.
  • the feature portion detection unit 12 further includes detecting the region of the feature portion.
  • the attention portion selection unit 15 determines the first threshold based on the size of the region of the feature portion. Thereby, the attention part selection part 15 can interpret the intention of the user instruction position by the user more rationally based on the size of the region of the characteristic part, and can select the part to be noticed.
  • the attention part selection part 15 shall select each representative position of a some characteristic part as an attention part.
  • step ST110 the image data input unit 11 receives the input of the image data 103a.
  • the image data 103a includes two persons as subjects, and each person is close to the screen and is shown in an overlapping manner.
  • the feature portion detector 12 detects the representative position of the feature portion of the image data 103a.
  • the feature portion detection unit 12 detects the centers of the faces of two persons who are subjects of the image data 103a as the representative positions 103b and 103d of the feature portions, respectively.
  • the feature part detection unit 12 further detects two feature part regions 103c and 103e including the face of each person.
  • step ST130 the user instruction position acquisition unit 13 acquires a user instruction position in the image data 103a.
  • the user instruction position acquisition unit 13 acquires a position that is close to any of the persons in the image data 103a as the user instruction position 103f.
  • step ST140 the position difference calculation unit 14 calculates a position difference in the image data 103a.
  • the positional relationship between the representative positions 103b and 103d of the two characteristic portions in the image data 103a and the user instruction position 101f is very close. Accordingly, the two calculated position differences are both smaller than the first threshold value.
  • the attention part selection unit 15 selects the attention part.
  • the two calculated positional differences are both small. Therefore, the attention portion selection unit 15 selects the representative positions 103b and 103d of the two feature portions as the attention portion for the image data 103a.
  • the attention portion selection unit 15 may set the regions 103c and 103e of the feature portions selected as the attention portions as the regions of the attention portions, respectively.
  • the attention portion selection unit 15 may set the region 103g including the regions 103c and 103e as the region of each attention portion.
  • the feature portion detection unit 12 detects the representative position of each of the plurality of feature portions.
  • the attention portion selection unit 15 selects a plurality of attention portions based on the positional difference between each representative position and the user instruction position.
  • the attention part selection part 15 can perform the post-process according to a user's intention by treating all the feature parts in a group as an attention part, when the feature part has comprised the group. .
  • trimming is performed as post-processing
  • a plurality of trimmed images with different portions of interest can be generated from one piece of image data. For this reason, the user can acquire an image suitable for the user's intention from the trimmed images rich in variations.
  • the attention part selection part 15 can provide the some image containing the image which a user intends, removing the part which a user does not intend from a attention part.
  • FIG. 6 is a block diagram showing a functional configuration of an example of an arithmetic device according to the second embodiment of the present invention.
  • the second embodiment is configured such that, in the first embodiment, the attention portion in the image data intended by the user can be selected by further considering the distance information from the imaging device to the subject.
  • the arithmetic device 1 illustrated in FIG. 6 further includes a distance information acquisition unit 16 and a depth difference calculation unit 17.
  • the same parts as those in FIG. 1 are denoted by the same reference numerals, detailed description thereof is omitted, and different parts are mainly described.
  • the feature part detection unit 12 transmits the representative position of the detected feature part to the distance information acquisition unit 16.
  • the feature part detection unit 12 transmits the representative positions of the plurality of feature parts to the distance information acquisition unit 16.
  • the user instruction position acquisition unit 13 transmits the acquired user instruction position to the distance information acquisition unit 16.
  • the distance information acquisition unit 16 acquires distance information indicating the distance between the imaging device that has captured the image data input to the image data input unit 11 and the subject in the image data. Specifically, the distance information acquisition unit 16 receives the representative position of the feature portion in the image data from the feature portion detection unit 12, and receives the user instruction position in the image data from the user instruction position acquisition unit 13.
  • the distance information acquisition unit 16 includes distance information (hereinafter referred to as “first distance information”) indicating a distance between the imaging device and a subject corresponding to the representative position of the characteristic portion, and a subject corresponding to the imaging device and the user-designated position. Distance information (hereinafter referred to as “second distance information”) is acquired.
  • the distance information acquisition unit 16 When the distance information acquisition unit 16 receives the representative positions of a plurality of feature portions from the feature portion detection unit 12, the distance information acquisition unit 16 acquires a plurality of first distance information for the representative positions of the plurality of feature portions. The distance information acquisition unit 16 transmits the acquired distance information to the depth difference calculation unit 17.
  • the distance information acquisition unit 16 may acquire distance information by inputting a numerical value or the like by a user operation.
  • the distance information acquisition unit 16 may acquire distance information indicating the distance between the imaging unit and the subject from the imaging unit.
  • the distance information acquisition unit 16 may acquire distance information from the imaging unit together with information related to the depth of the entire imaging range by a method such as phase difference AF, DFD (Depth from Defocus), and light field.
  • the distance information acquisition unit may acquire the distance information from the imaging unit by using an output from another sensor such as a laser (not shown).
  • the depth difference calculation unit 17 receives the first distance information and the second distance information from the distance information acquisition unit 16. Based on the first distance information and the second distance information, the depth difference calculation unit 17 determines the difference between the distance from the imaging device to the subject corresponding to the representative position of the characteristic portion and the distance to the subject corresponding to the user-specified position ( Hereinafter, “depth difference” is calculated.
  • the depth difference calculation unit 17 transmits the calculated depth difference information to the target portion selection unit 15.
  • the depth difference calculation unit 17 calculates the depth difference for each representative position of the feature parts, and the attention part selection unit 15 to send.
  • the attention part selection unit 15 receives the depth difference information from the depth difference calculation unit 17.
  • the attention portion selection unit 15 selects the attention portion based on the depth difference and the position difference.
  • FIG. 7 is a schematic diagram illustrating an example of an attention portion selection logic based on a position difference and a depth difference by the attention portion selection unit 15.
  • the attention portion selection unit 15 pays attention to the representative position of the feature portion. Select as part.
  • the attention part selection unit 15 selects the user instruction position as the attention part.
  • the attention part selection part 15 can select an attention part not only by said selection logic but applying arbitrary selection logic.
  • the target portion selection unit 15 can dynamically set the set of the first threshold value and the second threshold value according to the position difference and the depth difference, not limited to the fixed value.
  • the attention portion selection unit 15 may select the attention portion based on an evaluation value output in accordance with a function using the position difference and the depth difference as parameters. Specifically, when the evaluation value is less than a predetermined threshold value (hereinafter referred to as “third threshold value”), the attention portion selection unit 15 selects the representative position of the feature portion as the attention portion, and the third threshold value or more. In this case, the user-instructed position is selected as a target portion.
  • a predetermined threshold value hereinafter referred to as “third threshold value”
  • the above-described third threshold corresponds to a case where the first threshold and the second threshold are dynamically set according to the position difference and the depth difference.
  • the attention portion selection unit 15 may receive imaging information set in the imaging unit from the imaging unit.
  • the attention portion selection unit 15 calculates the depth of field based on the received imaging information. Therefore, as the imaging information, the focal length and F value of the lens when the image data input to the image data input unit 11 is captured are desirable.
  • the part-of-interest selection unit 15 may dynamically determine the second threshold based on the depth of field set in the imaging unit. That is, the attention portion selection unit 15 sets a value that is approximately the same as the depth of field to the second threshold value. By setting the second threshold value in this way, when the depth difference is less than the second threshold value, the representative position of the characteristic portion and the user-instructed position correspond to the case where they are simultaneously in focus.
  • the target portion selection unit 15 sets the midpoint between the user-specified position and the representative position of the characteristic portion as the target portion. It is good also as an attention position.
  • the region of the attention portion may be a region including the user-instructed position and the region of the characteristic portion.
  • the attention portion selection unit 15 when the attention portion selection unit 15 receives information on a plurality of position differences and a plurality of depth differences, the feature portion has a feature portion in which the position difference is less than the first threshold and the depth difference is less than the second threshold. Extract the part. Note that when there is one extracted feature portion, the attention portion selection unit 15 selects the representative position of the feature portion as the attention portion, and when there are a plurality of feature portions, the feature having the smallest position difference and depth difference is selected. The representative position of the part is selected as the target part. In addition, when the evaluation value based on the position difference and the depth difference is used, the attention portion selection unit 15 may select the representative position of the feature portion at which the evaluation value is optimal as the attention portion. Here, the feature portion having the optimum evaluation value is a feature portion having a small positional difference and depth difference.
  • the attention portion selection unit 15 performs a plurality of attentions with each representative position of the feature portion as the attention position.
  • a portion may be selected.
  • the region of each target portion may include a representative position of each feature portion, or may further include a region of each feature portion.
  • the attention portion selection unit 15 may further select the attention portion having the user instruction position as the attention position. Good.
  • the region of each target portion may include a user-instructed position and a representative position of each feature portion, or may further include a representative position of each feature portion.
  • the attention part selection part 15 shall select the user instruction
  • the image data input unit 11 receives the input of the image data 201a and transmits it to the feature portion detection unit 12.
  • the image data 201a is a composition in which a bouquet is arranged on the front side and small items are arranged on the back side when viewed from the imaging apparatus.
  • the feature portion detector 12 detects a representative position of the feature portion of the image data 201a.
  • the feature portion detection unit 12 detects the center of the bouquet as the representative position 201b of the feature portion of the image data 201a.
  • the feature portion detection unit 12 transmits information on the detected representative position 201b of the feature portion to the position difference calculation unit 14, the target portion selection unit 15, and the distance information acquisition unit 16.
  • step ST230 the user instruction position acquisition unit 13 acquires the position of the accessory in the image data 201a as the user instruction position 201c.
  • the user instruction position acquisition unit 13 transmits the acquired user instruction position 201 c to the position difference calculation unit 14, the target part selection unit 15, and the distance information acquisition unit 16.
  • step ST240 the position difference calculation unit 14 calculates a position difference between the received representative position 201b of the characteristic portion and the user-instructed position 201c, and transmits the difference to the attention portion selection unit 15.
  • the distance information acquisition unit 16 indicates the first distance information indicating the distance between the imaging device and the bouquet corresponding to the representative position 201b of the characteristic portion, and the distance between the imaging device and the accessory corresponding to the user instruction position 201c.
  • the second distance information is acquired.
  • the distance information acquisition unit 16 transmits the acquired distance information to the depth difference calculation unit 17.
  • step ST260 the depth difference calculation unit 17 calculates the depth difference between the representative position 201b of the characteristic portion and the user-instructed position 201c based on the received first distance information and second distance information, and the attention portion selection unit 15 Send to.
  • the attention portion selection unit 15 selects the attention portion based on the position difference and the depth difference. Specifically, the target portion selection unit 15 determines whether the position difference is less than the first threshold value and the depth difference is less than the second threshold value. When determining that the position difference is less than the first threshold and the depth difference is less than the second threshold, the attention portion selection unit 15 selects the representative position of the feature portion as the attention portion. When it is determined that the position difference is not less than the first threshold value or the depth difference is not less than the second threshold value, the attention part selection unit 15 selects the user instruction position as the attention part. In the case of the example of FIG.
  • the positional difference between the representative position 201b of the bouquet and the user instruction position 201c indicating the position of the accessory is less than the first threshold value.
  • the depth difference that is the difference between the distance from the imaging unit to the bouquet and the distance to the accessory is equal to or greater than the second threshold. Therefore, the attention part selection part 15 finally selects the position of the accessory which the user instruction
  • the attention portion selection unit 15 may determine the second threshold based on the depth of field set in the imaging unit. In the case of the example in FIG. 9, when the depth of field when the image data 201a is captured is shallower than the depth difference between the bouquet and the accessory, the attention portion selection unit 15 sets a value smaller than the depth difference as the second threshold value. Set. Accordingly, the depth difference is equal to or greater than the second threshold value, and the attention portion selection unit 15 selects the accessory indicated by the user instruction position 201c as the attention portion, as in the above example.
  • the attention portion selection unit 15 sets a value larger than the depth difference as the second threshold value. At this time, the depth difference is less than the second threshold value, and the attention portion selection unit 15 selects both the representative position 201b of the bouquet and the user instruction position 201c indicating the position of the accessory as the attention portion. In this case, the bouquet and the accessory are both in focus.
  • the attention portion selection unit 15 may set an area 201e including the user instruction position 201c indicating the position of the accessory and the representative position 201b of the bouquet as the attention portion area.
  • the attention portion selection unit 15 may set a region 201f including a user instruction position 201c indicating the position of the accessory and a bouquet region 201d as the attention portion region.
  • the image data 202a is a composition in which a bouquet is arranged on the front side and a person is arranged on the back side as viewed from the imaging apparatus.
  • the feature portion detection unit 12 detects the representative position 202b of the person's face and the representative position 202c of the bouquet as feature portions.
  • the user instruction position acquisition unit 13 is the center of a person's body, and acquires a position having substantially the same position difference from the face representative position 202b and the bouquet representative position 202c as the user instruction position 202d.
  • the attention portion selection unit 15 finally selects the representative position 202b of the face as the attention portion.
  • the attention portion selection unit 15 may determine the second threshold based on the depth of field set in the imaging device. In the case of the example in FIG. 10, when the depth of field when the image data 202a is captured is deeper than any of the depth differences between the representative positions 202b and 202c and the user instruction position 202d, A value larger than the depth difference is set as the second threshold value. In this case, the representative positions 202b and 202c and the user instruction position 202d are all in focus. At this time, the attention portion selection unit 15 selects each of the representative positions 202b and 202c and the user instruction position 202d as the attention portion.
  • the attention portion selection unit 15 may set an area 201e including the user instruction position 202d indicating the center position of the person and the face representative position 202b as the attention portion area.
  • the attention portion selection unit 15 may set a region such as a region 202f including the user instruction position 202d indicating the center position of the person and the representative position 202c of the bouquet as the region of the attention portion.
  • the areas 202e and 202f may include areas of the respective characteristic portions.
  • the attention portion selection unit 15 may set a region 202g including each feature portion region as the attention portion region.
  • the distance information acquisition unit 16 obtains distance information indicating the distance between the imaging device and the subject corresponding to the representative position of the characteristic portion and the subject corresponding to the user-specified position. get.
  • the depth difference calculation unit 17 calculates the depth difference based on each distance information.
  • the attention portion selection unit 15 selects the attention portion based on the depth difference in addition to the position difference. In addition, the attention portion selection unit 15 determines whether the position difference is less than the first threshold value and the depth difference is less than the second threshold value.
  • the attention portion selection unit 15 selects the representative position of the feature portion as the attention portion, and the position difference is not less than the first threshold or the depth When it is determined that the difference is not less than the second threshold, the user instruction position is selected as the target portion. Accordingly, it is possible to determine not to select the representative position of the feature portion that is not in focus as the attention portion.
  • the user designates an accessory as a user-instructed position with the intention of photographing an accessory in the back, using a flower that is a characteristic part in the foreground as a blurring element.
  • the accessory in the back is arranged near the flower in front. Therefore, it is often determined that the positional difference between the front flower and the back accessory is less than the first threshold.
  • the attention portion selection unit 15 can select the back accessory as the attention portion by evaluating that the depth difference between the front flower and the back accessory is equal to or greater than the second threshold value. Therefore, the attention part selection part 15 can select the attention part which the user intended, and can perform the post-process according to a user's intention.
  • post-processing for example, when trimming is performed, it is possible to avoid performing trimming processing with a flower in front that is not in focus as a target portion.
  • the attention portion selection unit 15 determines the second threshold based on the depth of field set in the imaging apparatus. Thereby, when the representative position of the characteristic part is selected as the attention part, the attention part selection unit 15 can ensure that the user-instructed position and the representative position are within the depth of field. When the user instruction position and the representative position are within the range of the depth of field, the attention portion selection unit 15 can select both the user instruction position and the representative position as the attention portion. Therefore, it is possible to select a portion of interest more in line with the user's intention.
  • the feature part detection unit 12 detects a plurality of feature parts.
  • the attention portion selection unit 15 selects a plurality of attention portions based on the positional difference between the representative position of each of the plurality of characteristic portions and the user instruction position. Thereby, the attention portion selection unit 15 can select a plurality of feature portions having a small position difference and a depth difference as the attention portion from a plurality of feature portions, excluding a feature portion having a large position difference or depth difference. it can. For example, when taking a group photo, a cluster of flowers, and dishes on a table and trying to perform trimming as post-processing, there may be cases where a feature part in focus is detected. .
  • FIG. 11 is a block diagram showing a functional configuration of an example of an arithmetic device according to the third embodiment of the present invention.
  • the third embodiment has a configuration in which, in the first embodiment, when a plurality of time-series image data is input, the reliability of the feature portion is taken into consideration, so that the target portion can be selected more appropriately.
  • the arithmetic device 1 illustrated in FIG. 11 further includes a reliability calculation unit 18 in addition to the functional configuration of the arithmetic device 1 according to the first embodiment.
  • the image data input unit 11 accepts input of a plurality of time-series image data (hereinafter referred to as “time-series image data”).
  • the image data input unit 11 transmits the time-series image data that has been accepted to the feature portion detection unit 12.
  • the input time-series image data may be, for example, a live view image obtained during a certain period before shooting by the imaging device.
  • the image data input unit 11 receives input of image data for selecting a target portion after receiving input of time-series image data.
  • the image data input unit 11 transmits the image data to the feature portion detection unit 12. Note that the image data from which the target portion is selected may be transmitted to the feature portion detection unit 12 together with the time-series image data as the image data of the last frame of the time-series image data.
  • the feature portion detection unit 12 receives time-series image data from the image data input unit 11, and sequentially executes analysis for calculating feature quantities in the time-series image data.
  • the feature portion detector 12 detects a representative position of the feature portion for each image data based on the feature amount for each image data calculated as a result of the analysis.
  • the characteristic part detection unit 12 transmits information on the representative position of the detected time-series image data to the reliability calculation unit 18.
  • the characteristic part detection unit 12 transmits information on the representative position in the image data from which the target part is selected to the position difference calculation unit 14 and the target part selection unit 15.
  • the feature part detection unit 12 transmits information on the feature part region in the time-series image data to the reliability calculation unit 18.
  • the feature portion detection unit 12 transmits information on the region of the feature portion in the image data from which the attention portion is selected to the attention portion selection portion 15.
  • the user instruction position acquisition unit 13 acquires a user instruction position of image data based on operation information input by a user operation.
  • the user instruction position acquisition unit 13 acquires the coordinates of the touched portion on the image data as the user instruction position based on the input operation information.
  • the user instruction position acquisition unit 13 transmits the acquired user instruction position information to the feature portion detection unit 12, the position difference calculation unit 14, and the attention portion selection unit 15. Note that the user instruction position acquired by the user instruction position acquisition unit 13 is acquired with respect to image data from which a target portion is selected.
  • the reliability calculation unit 18 receives information on the representative position of the characteristic part of the time-series image data from the characteristic part detection unit 12.
  • the reliability calculation unit 18 analyzes the amount of movement of the representative position of the characteristic portion in the time series data in time series, and calculates the amount of change of the representative position (hereinafter referred to as “representative position change amount”).
  • the reliability calculation unit 18 calculates the reliability of the feature portion based on the calculated representative position change amount.
  • the reliability calculation unit 18 transmits the calculated reliability to the attention portion selection unit 15.
  • the reliability calculation unit 18 calculates the reliability using a function of the representative position change amount such that the reliability is high when the representative position change amount is small and the reliability is low when the representative position change amount is large. It is preferable to do.
  • the reliability is not limited to a continuous value, and may be calculated so as to be a binary expression with respect to a threshold set in advance for reliability determination.
  • the reliability calculation unit 18 may further receive information on the region of the feature portion of the plurality of image data from the feature portion detection unit 12. In this case, the reliability calculation unit 18 calculates a region change amount (hereinafter referred to as “region change amount”) in addition to the representative position change amount, and calculates the reliability based on the representative position change amount and the region change amount. calculate.
  • region change amount a region change amount in addition to the representative position change amount
  • the position difference calculation unit 14 receives the information on the representative position of the feature part from the feature part detection unit 12, receives the information on the user instruction position from the user instruction position acquisition unit 13, and calculates the position difference.
  • the position difference calculation unit 14 transmits the calculated position difference information to the target portion selection unit 15.
  • the attention portion selection unit 15 further receives the reliability of the detected feature portion from the reliability calculation unit 18.
  • the attention portion selection unit 15 selects the attention portion based on the positional difference and the reliability. Specifically, the attention portion selection unit 15 determines the first threshold value based on the reliability. That is, the attention portion selection unit 15 sets the first threshold value large when the reliability is high, and sets the first threshold value small when the reliability is low. When the positional difference is less than the first threshold, the attention portion selection unit 15 selects the representative position of the feature portion as the attention portion, and when the position difference is not less than the first threshold, the attention portion selection unit 15 selects the user-designated position as the attention portion.
  • the attention portion selection unit 15 may select the attention portion based on the evaluation value output according to the function having the positional difference and the reliability as parameters. Specifically, when the evaluation value is less than a predetermined threshold value (hereinafter referred to as “fourth threshold value”), the attention portion selection unit 15 selects the representative position of the feature portion as the attention portion, and the fourth threshold value or more. In this case, the user-instructed position is selected as a target portion. In such a case, when the positional difference is large and the reliability is low, it is desirable to set a function that increases the evaluation value accordingly. In addition, when the positional difference is small and the reliability is high, it is desirable that a function is set so that the evaluation value also decreases accordingly.
  • the fourth threshold value described above corresponds to the case where the first threshold value is dynamically set according to the position difference and the reliability.
  • step ST310 the image data input unit 11 receives an input of time-series image data, and transmits the time-series image data having received the input to the feature portion detection unit 12.
  • the feature portion detection unit 12 analyzes each image data of the received time series image data, and detects a representative position of the feature portion.
  • the feature portion detection unit 12 transmits information on the representative position of the time series in the detected time series image data to the reliability calculation unit 18.
  • the feature part detection unit 12 transmits information on the representative position in the image data from which the target part is selected to the position difference calculation unit 14 and the target part selection unit 15.
  • the feature portion detection unit 12 transmits the region information in the time-series image data to the reliability calculation unit 18.
  • the feature portion detection unit 12 transmits information on the region of the feature portion in the image data from which the attention portion is selected to the attention portion selection portion 15.
  • the reliability calculation unit 18 receives information on the representative position of the time-series image data, and calculates a representative position change amount.
  • the reliability calculation unit 18 calculates the reliability of the feature portion based on the calculated representative position change amount.
  • the reliability calculation unit 18 calculates a region change amount in addition to the representative position change amount when further receiving information on the region of the characteristic portion of the time-series image data.
  • the reliability calculation unit 18 calculates the reliability based on the calculated representative position change amount and region change amount.
  • the reliability calculation unit 18 transmits the calculated reliability to the attention portion selection unit 15.
  • step ST340 the user instruction position acquisition unit 13 determines whether or not the operation information from the user is input.
  • the user instruction position acquisition unit 13 executes step ST350.
  • the image data input unit 11, the feature portion detection unit 12, and the reliability calculation unit 18 repeat steps ST310 to ST330 until operation information is input.
  • step ST350 the user instruction position acquisition unit 13 acquires the user instruction position in the image data from which the target portion is selected based on the user operation information.
  • the user instruction position acquisition unit 13 transmits the acquired user instruction position to the position difference calculation unit 14 and the target part selection unit 15.
  • step ST360 the position difference calculation unit 14 calculates a position difference based on the received information on the representative position of the characteristic portion and the information on the user-instructed position.
  • the position difference calculation unit 14 transmits the calculated position difference information to the target portion selection unit 15.
  • the attention portion selection unit 15 selects the attention portion based on the received position difference and reliability. Specifically, the target portion selection unit 15 determines the first threshold value based on the reliability level. In addition, when the attention portion selection unit 15 further receives information on the region of the feature portion, the attention portion selection unit 15 may determine the first threshold based on the size of the region of the feature portion before selecting the attention portion. The attention portion selection unit 15 determines whether the positional difference is less than the first threshold value. When the position difference is determined to be less than the first threshold, the attention portion selection unit 15 selects the representative position of the feature portion as the attention portion. When the position difference is determined not to be less than the first threshold, the attention portion selection unit 15 Select as.
  • the image data input unit 11 accepts input of time-series image data.
  • the feature portion detector 12 detects a feature portion from each of the input time-series image data.
  • the reliability calculation unit 18 calculates the reliability of the feature portion based on the time series change of the representative position of the feature portion.
  • the attention portion selection unit 15 selects the attention portion based on the reliability and the position difference. As a result, the reliability of the moving feature portion is calculated to be low, and the first threshold value for the position difference between the representative position of the moving feature portion and the user-instructed position is set small. Therefore, it is possible to appropriately select a portion of interest more in line with the user's intention.
  • the user designates a building as a user designated position with the intention of photographing a building in a busy place.
  • the passerby's face detected as the characteristic part may be approaching the building designated as the user designated position.
  • the reliability calculation unit 18 calculates a low reliability for the passer's face because the passer's face, which is a characteristic part, moves.
  • the attention part selection unit 15 sets the first threshold value small for the face of the passerby. Therefore, the attention part selection part 15 can select a building as an attention part by evaluating that the positional difference of a building and a passer's face is more than a 1st threshold value.
  • FIG. 13 is a block diagram illustrating a functional configuration of a camera as an example of an imaging apparatus according to the fourth embodiment of the present invention.
  • a camera 20 shown in FIG. 13 is an example of an interchangeable lens camera.
  • the technique of the fourth embodiment described below is not applied only to an interchangeable lens camera.
  • a camera 20 shown in FIG. 13 includes an interchangeable lens 100 and a camera body 200.
  • the interchangeable lens 100 is configured to be detachable from the camera body 200 via a lens mount (not shown) provided on the camera body 200.
  • a lens mount not shown
  • the interchangeable lens 100 is attached to the camera body 200, the interchangeable lens 100 and the camera body 200 are connected to be able to communicate.
  • the interchangeable lens 100 includes a photographic lens 101, an aperture mechanism 102, a focus drive mechanism 103, an aperture drive mechanism 104, and a lens CPU (Central Processing Unit) 105.
  • the photographing lens 101 is an optical system for forming an image of light from a subject (not shown) on the image sensor 204 inside the camera body 200.
  • the photographing lens 101 has a focus lens, and the focus lens is driven in the optical axis direction indicated by a one-dot chain line in FIG. 13 to adjust the focus of the photographing lens 101.
  • the diaphragm mechanism 102 adjusts the amount of light from the subject that enters the image sensor 204 via the photographing lens 101.
  • the focus drive mechanism 103 has a motor and the like, and drives the focus lens in the optical axis direction under the control of the lens CPU 105.
  • the aperture drive mechanism 104 includes a motor and the like, and drives the aperture mechanism 102 to open and close under the control of the lens CPU 105.
  • the lens CPU 105 is communicably connected to a sequence controller (body CPU) 2201 in the camera body 200 via the communication terminal 106 when the interchangeable lens 100 is attached to the camera body 200. This lens CPU 105 controls the operations of the focus drive mechanism 103 and the aperture drive mechanism 104 according to the control from the body CPU 2201, and adjusts parameters such as the depth of field.
  • the camera body 200 includes a focal plane shutter (shutter) 201, a shutter drive mechanism 202, a filter group 203, an image sensor 204, an image sensor drive circuit 205, a preprocessing circuit 206, and an SDRAM (Synchronous Dynamic Random Access Memory. ) 207, recording medium 208, flash memory 209, monitor drive circuit 210, rear monitor 211, touch sensor 212, operation unit 213, attachment / detachment detection switch 214, power supply circuit 215, battery 216 , And a control circuit 217.
  • the shutter 201 is disposed so as to freely advance and retract with respect to the photoelectric conversion surface of the image sensor 204.
  • the shutter 201 is driven by a shutter driving mechanism 202 to bring the photoelectric conversion surface of the image sensor 204 into an exposed state or a light shielding state.
  • the shutter driving mechanism 202 opens and closes the shutter 201 according to the control of the body CPU 2201. By such driving of the shutter 201, the exposure time of the image sensor 204 is adjusted.
  • the filter group 203 includes a plurality of filters such as an infrared cut filter that removes an infrared component of light incident through the photographing lens 101 and a low-pass filter that removes a high-frequency component of light incident through the photographing lens 101. Has a filter.
  • the image sensor 204 has a photoelectric conversion surface on which a plurality of pixels are arranged, and converts light from a subject imaged on the photoelectric conversion surface via the photographing lens 101 into an electric signal (image signal).
  • the image sensor drive circuit 205 controls driving of the image sensor 204 in accordance with an instruction from the body CPU 2201 via the input / output circuit 2211 and controls reading of an image signal obtained by the image sensor 204.
  • the preprocessing circuit 206 performs analog processing such as noise removal and amplification on the image signal read from the image sensor 204 via the image sensor driving circuit 205, and converts the analog processed image signal into a digital signal (image data). Pre-processing such as processing is performed.
  • the interchangeable lens 100, the shutter 201, the shutter drive mechanism 202, the filter group 203, the image sensor 204, the image sensor drive circuit 205, and the preprocessing circuit 206 also function as an imaging unit. That is, the imaging unit has a function of outputting image data obtained by imaging to the arithmetic device 1 in the control circuit 217.
  • the SDRAM 207 is a buffer memory for temporarily storing data obtained in the preprocessing circuit 206.
  • the recording medium 208 is a memory card configured to be detachable from the camera body 200, for example, and records the image data compressed by the compression / decompression circuit 2207.
  • the flash memory 209 is a memory that stores a control program read by the body CPU 2201, various setting values of the camera body 200, and the like.
  • the monitor driving circuit 210 drives the rear monitor 211 in accordance with the video signal input from the video signal output circuit 2208, and displays an image on the screen of the rear monitor 211.
  • the rear monitor 211 is disposed so as to be exposed on the rear surface of the camera body 200.
  • the rear monitor 211 is driven by the monitor driving circuit 210 and displays various images such as an image expanded by the compression / expansion circuit 2207.
  • the rear monitor 211 in the present embodiment also displays a screen for acquiring the user instruction position.
  • the user-instructed position is acquired as a target portion candidate to be selected when executing various post-processing. Examples of post-processing include AF, AE, white balance correction, trimming, and application of special effects.
  • the touch sensor 212 is provided integrally with the rear monitor 211, and detects contact of the user's finger as operation information from the user.
  • various types of touch sensors such as a resistive film type and a capacitance type can be used.
  • the touch sensor 212 acquires a user instruction position based on the operation information.
  • the operation unit 213 is various operation units such as a power switch, a shutter button, a setting button, and an operation dial.
  • the power switch is an operation unit for the user to instruct on / off of the power supply of the camera body 200.
  • the shutter button is an operation unit for a user to give an instruction to execute shooting.
  • the setting button is an operation unit group for the user to specify a user instruction position corresponding to various post-processing and the like.
  • the operation dial is a dial type operation unit. This operation dial is also used to set parameters according to various post-processing and the like. Note that the functions of the setting button and the operation dial may be assigned to the touch sensor 212.
  • the rear monitor 211 and the touch sensor 212 or the operation unit 213 also function as a user instruction position acquisition unit.
  • the user instruction position acquisition unit has a function of acquiring a user instruction position in the image data and outputting it to the arithmetic device 1 in the control circuit 217.
  • the rear monitor 211 displays a screen on which a live view is displayed when AF is executed as post-processing.
  • the touch sensor 212 outputs the coordinates touched by the user or the coordinates obtained by moving the coordinates to the computing device 1 as the user instruction position of the AF point.
  • the user-instructed position acquisition unit is not limited to the method of acquiring operation information by the above-described configuration, and may acquire operation information by taking various configurations.
  • the user-instructed position acquisition unit may acquire the user-instructed position in consideration of the shift amount of the AF point in the case of shooting with the shooting direction shifted after the user locks the focus at a specific position.
  • the user instruction position acquisition unit may calculate the shift amount by searching from the shifted image of the focus-locked local image.
  • the user-instructed position acquisition unit may calculate the deviation amount by a sensor (not shown) such as an acceleration sensor or a gyro sensor.
  • the user-instructed position acquisition unit uses the center of the area enlarged to confirm the in-focus state by MF (Manual Focus) or the center or the center of gravity of the in-focus area specified by the focus peaking function as the user-instructed position. You may get it.
  • the user instruction position acquisition unit has a function of acquiring the user instruction position in the image data and transmitting it to the arithmetic device 1 in the control circuit 217.
  • the attachment / detachment detection switch 214 is a switch that is turned on when the interchangeable lens 100 is attached to the camera body 200. When the attachment / detachment detection switch 214 is turned on, a signal indicating that the interchangeable lens 100 is attached to the camera body 200 is turned on. To 2210.
  • the power supply circuit 215 converts the voltage of the battery 216 into a voltage required for each block of the camera body 200. Then, the power supply circuit 215 supplies the converted voltage of the battery 216 to each block of the camera body 200.
  • the battery 216 is a secondary battery, for example, and functions as a power source for the camera body 200.
  • the control circuit 217 controls various operations of the camera body 200.
  • the control circuit 217 includes a sequence controller (body CPU) 2201, a contrast AF circuit 2202, an SDRAM control circuit 2203, a flash memory control circuit 2204, a recording medium control circuit 2205, an image processing circuit 2206, and a compression / decompression circuit. 2207, a video signal output circuit 2208, a touch sensor input circuit 2209, an operation input detection circuit 2210, an input / output circuit 2211, a communication circuit 2212, a data bus 2213, and the arithmetic device 1.
  • the body CPU 2201 controls the operation of each circuit in the control circuit 217 in an integrated manner.
  • the body CPU 2201 in this embodiment also has a function as a control unit, and performs sequence control of various post-processing in accordance with information on a target portion output from the arithmetic device 1.
  • sequence control of post-processing such as AF and AE includes control of the operation of the imaging unit.
  • sequence control of image processing such as trimming, white balance correction, and post-processing such as application of special effects includes control of operation of the image processing circuit 2206.
  • the contrast AF circuit 2202 calculates an evaluation value for evaluating the contrast of the image from the image data obtained via the image sensor 204.
  • the body CPU 2201 performs AF control of the focus lens in accordance with the evaluation value and information on the target portion output from the arithmetic device 1.
  • the calculated evaluation value includes distance information indicating the distance between the imaging unit and the subject based on the lens driving amount.
  • the body CPU 2201 may transmit the distance information to the arithmetic device 1.
  • the contrast AF circuit 2202 and the body CPU 2201 also function as a distance information acquisition unit that acquires distance information indicating the distance between the imaging unit and the subject.
  • the distance information acquisition unit is not limited to the method for acquiring distance information in the process of contrast AF with the above-described configuration, and may acquire the distance information with various methods by taking various configurations. For example, when the image plane phase difference AF function is provided, it is also reasonable to acquire the distance value calculated from the phase difference pixels close to the representative position of the characteristic portion or the user-instructed position as the distance information.
  • the distance information acquired when the image plane phase difference AF function is provided is the distance value calculated from a plurality of adjacent phase difference pixels from the position of each phase difference pixel to the representative position or the user-instructed position. What averaged the difference of a position as a weight may be used.
  • the distance information acquisition unit has a function of acquiring distance information indicating the distance between the imaging unit and the subject and transmitting the distance information to the arithmetic device 1.
  • the distance information acquisition unit may have a function of outputting information about the depth of field of the image data captured by the imaging unit to the arithmetic device 1.
  • the SDRAM control circuit 2203 controls writing and reading of data to and from the SDRAM 207.
  • the flash memory control circuit 2204 controls writing and reading of data to and from the flash memory 209.
  • a recording medium control circuit 2205 controls writing and reading of data to and from the recording medium 208.
  • the image processing circuit 2206 performs various types of image processing on the image data obtained in the preprocessing circuit 206 and stored in the SDRAM 207.
  • This image processing includes post-processing such as white balance correction processing for correcting the color balance of the image, color correction processing for correcting the color of the image, and gradation correction processing for correcting the gradation of the image.
  • the image processing circuit 2206 receives information on a target portion in the image data selected by the arithmetic device 1 before starting various image processes.
  • the image processing circuit 2206 executes image processing based on the target portion.
  • the image data processed by the image processing circuit 2206 is stored again in the SDRAM 207.
  • the compression / decompression circuit 2207 reads the image data after image processing, and compresses the read image data in a predetermined compression format such as JPEG.
  • the compression / decompression circuit 2207 also reads compressed image data and decompresses the read image data when reproducing an image.
  • the video signal output circuit 2208 reads the image data from the SDRAM 207, converts the read image data into a video signal, and outputs the video signal to the monitor drive circuit 210.
  • a touch sensor input circuit 2209 that functions as an input detection unit together with the touch sensor 212 analyzes the touch position of the user's finger and the movement of the finger on the touch sensor 212 from the signal from the touch sensor 212, and the analysis result is the body CPU 2201. Output to.
  • the operation input detection circuit 2210 detects the operation state of each operation unit of the operation unit 213 and notifies the detection result to the body CPU 2201.
  • the body CPU 2201 executes control according to the operation content of the operated operation unit.
  • the input / output circuit 2211 is an interface circuit for outputting a signal for controlling the image sensor driving circuit 205 and the shutter driving mechanism 202 from the control circuit 217.
  • the communication circuit 2212 performs various processes for performing communication between the body CPU 2201 of the camera body 200 and the lens CPU 105 of the interchangeable lens 100.
  • the data bus 2213 is a transfer path for transferring various data such as image data obtained by the preprocessing circuit 206 and image data processed by the image processing circuit 2206.
  • the computing device 1 accepts input of image data photographed by the imaging unit and a user designated position obtained by the user designated position obtaining unit. Moreover, the arithmetic unit 1 may accept the input of distance information acquired by the distance information acquisition unit. The arithmetic device 1 sequentially performs the arithmetic processing described in the first to third embodiments on the input image data. When the arithmetic processing is executed, the arithmetic device 1 transmits information on the target portion selected in the image data to the body CPU 2201 for use in various post-processing. The image data reflecting various post-processes controlled by the body CPU 2201 is displayed on the rear monitor 211 and presented to the user.
  • the imaging unit outputs image data obtained by imaging.
  • the user instruction position acquisition unit acquires a user instruction position in the image data.
  • the arithmetic device 1 selects a target portion. Thereby, the attention part intended by the user is appropriately selected, and the post-processing intended by the user can be executed. Further, the rear monitor 211 presents the user with an image on which post-processing intended by the user has been executed. As a result, it is possible to provide an image on which various post-processing have been executed without impairing the user's feeling of use.
  • the present invention has been described based on each embodiment, the present invention is not limited to each embodiment described above, and various modifications and applications are possible within the scope of the gist of the present invention. That is, the technology of the fourth embodiment may be applied to a camera that does not exchange lenses, such as a camera included in a mobile terminal such as a smartphone.
  • the imaging unit and control circuit 217 and the user instruction position acquisition unit are structurally separated, or the imaging unit, control circuit 217, and user instruction position acquisition unit are structurally separated.
  • the present invention can also be applied to an imaging apparatus that is separated into two and wirelessly communicate with each other.
  • each processing method by the arithmetic device in each of the above-described embodiments can be stored as a program that can be executed by the control circuit 217.
  • memory cards ROM cards, RAM cards, etc.
  • magnetic disks floppy (registered trademark) disks, hard disks, etc.
  • optical disks CD-ROM, DVD, etc.
  • external storage devices such as semiconductor memories, etc.
  • the external storage device may be called a non-transitory computer-readable storage medium (non-transitory-computer-readable-storage-medium).
  • the control circuit 217 reads the program stored in the storage medium of the external storage device, and the operation is controlled by the read program, so that the above-described processing can be executed.
  • various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in each embodiment. Furthermore, you may combine suitably the component covering different embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

画像データ入力部(11)は、画像データの入力を受付ける。特徴部分検出部(12)は、入力を受付けた画像データから特徴部分の代表位置を検出する。ユーザ指示位置取得部(13)は、画像データ内におけるユーザ指示位置を取得する。位置差算出部(14)は、検出された代表位置及び取得されたユーザ指示位置の差を示す位置差を算出する。注目部分選択部(15)は、算出された位置差が予め定めた第1閾値未満の場合、特徴部分の代表位置を代表部分として選択し、位置差が第1閾値未満でない場合、ユーザ指示位置を注目部分として選択する。

Description

演算方法、演算プログラム及び撮像装置
 この発明は、演算方法、演算プログラム及び撮像装置に関する。
 画像データに対してユーザの意図する後処理を行うために、画像データ内の注目すべき部分を自動的に検出する手法が知られている。例えば、日本国特許第4625356号公報では、画像処理装置が、画像データ内から検出した特徴部分の位置を注目部分として選択し、当該注目部分に基づいて画像データをトリミングする技術が提案されている。日本国特許第4625356号公報の技術では、画像処理装置は、人間の顔を表す部分、ピントが合っている部分、及び水平線若しくは鉛直線の少なくとも一方を表す部分のうちの少なくとも1つを特徴部分として検出することにより、注目部分を選択する。
 一方、スマートフォンをはじめ、タッチAF(Auto Focus)やタッチシャッタ機能を備えた撮像装置では、ユーザが注目したい位置を容易に指示することが可能である。
 日本国特許第4625356号公報の技術では、画像処理装置は、画像データ内から検出された特徴部分と、ユーザの操作による指示位置とが一致する場合、ユーザが注目する指示位置を注目部分として選択することができる。これに対し、日本国特許第4625356号公報の技術では、画像処理装置は、特徴部分と、ユーザの指示位置とが一致しない場合、ユーザが注目しない指示位置を注目部分として選択する可能性がある。例えば、特徴部分を狙ってユーザが指示した位置が特徴部分からずれてしまった場合、ユーザの注目しない指示位置が注目部分として選択される可能性がある。また、例えば、意図的に特徴部分から外れた位置をユーザが指示した場合においても、ユーザの注目しない特徴部分が注目部分として選択される可能性がある。
 本発明は、上記事情に鑑みてなされたもので、ユーザの意図する画像データ内の注目部分を選択することが可能な演算方法、演算プログラム及び撮像装置を提供することを目的とする。
 上記目的を達成するために、本発明の第1の態様の演算方法は、画像データの入力を受付けることと、上記入力を受付けた画像データから特徴部分の代表位置を検出することと、上記画像データ内におけるユーザ指示位置を取得することと、上記検出された代表位置及び上記取得されたユーザ指示位置を算出することと、上記算出された位置差が予め定めた第1閾値未満の場合、上記代表位置を注目部分として選択し、上記位置差が上記第1閾値未満でない場合、上記ユーザ指示位置を注目部分として選択することと、を特徴とする。
 上記目的を達成するために、本発明の第2の態様の演算プログラムは、演算装置に、画像データの入力を受付けること、上記入力を受付けた画像データから特徴部分の代表位置を検出すること、上記画像データ内におけるユーザ指示位置を取得すること、上記検出された代表位置及び上記取得されたユーザ指示位置の差を示す位置差を算出することと、上記算出された位置差が予め定めた第1閾値未満の場合、上記代表位置を注目部分として選択し、上記位置差が上記第1閾値未満でない場合、上記ユーザ指示位置を注目部分として選択すること、を実行させることを特徴とする。
 上記目的を達成するために、本発明の第3の態様の撮像装置は、撮像して得られた画像データとして出力する撮像部と、上記出力された画像データから特徴部分の代表位置を検出する特徴部分検出部と、上記画像データ内におけるユーザ指示位置を取得するユーザ指示位置取得部と、上記検出された代表位置及び上記取得されたユーザ指示位置の差を示す位置差を算出する位置差算出部と、上記算出された位置差が予め定めた第1閾値未満の場合、上記代表位置を注目部分として選択し、上記位置差が上記第1閾値未満でない場合、上記ユーザ指示位置を注目部分として選択するする注目部分選択部と、を備えることを特徴とする。
 本発明によれば、ユーザの意図する画像データ内の注目部分を選択することが可能な演算方法、演算プログラム及び撮像装置を提供することができる。
図1は、この発明の第1の実施形態に係る演算装置の機能構成の一例を示すブロック図である。 図2は、第1の実施形態における演算装置の動作の一例を示すフローチャートである。 図3は、第1の実施形態における画像データの一例を示す模式図である。 図4は、第1の実施形態における画像データの一例を示す模式図である。 図5は、第1の実施形態における画像データの一例を示す模式図である。 図6は、この発明の第2の実施形態に係る演算装置の機能構成の一例を示すブロック図である。 図7は、第2の実施形態における注目部分選択ロジックの一例を示す模式図である。 図8は、第2の実施形態における演算装置の動作の一例を示すフローチャートである。 図9は、第2の実施形態における画像データの一例を示す模式図である。 図10は、第2の実施形態における画像データの一例を示す模式図である。 図11は、この発明の第3の実施形態に係る演算装置の機能構成の一例を示すブロック図である。 図12は、第3の実施形態における演算装置の動作の一例を示すフローチャートである。 図13は、この発明の第4の実施形態に係る撮像装置の機能構成の一例を示すブロック図である。
 以下、本発明に関わる各実施形態について図面を参照して説明する。なお、以下の演算装置は、画像データから注目部分を選択する演算装置としてコンピュータを機能させるためのプログラムを用いて実現されてもよい。すなわち、演算装置は、メモリ又はCPU(Central Processing Unit)等のハードウェア資源と、当該ハードウェア資源と協働するソフトウェアのプログラムとにより、機能ブロックの機能を実現してもよい。
 [第1の実施形態]
 図1は、本発明の第1の実施形態に係る演算装置の一例の機能構成を示すブロック図である。演算装置1は、ユーザの意図を反映した後処理を行うために、画像データの特徴を利用した演算を実行する機能を有する。具体的には、演算装置1は、入力された画像データに対して検出された特徴部分の代表位置と、ユーザの指示するユーザ指示位置とのいずれかを注目部分として選択する機能を有する。ここで、後処理は、例えば、選択された注目部分に係るAF又はトリミング等が挙げられる。図1に示す演算装置1は、画像データ入力部11と、特徴部分検出部12と、ユーザ指示位置取得部13と、位置差算出部14と、注目部分選択部15とを備えている。
 画像データ入力部11は、画像データの入力を受付ける。画像データ入力部11は、入力を受付けた画像データを特徴部分検出部12に送信する。なお、画像データ入力部11に入力される画像データは、図示しない撮像部によって撮像された画像データを直接入力されてもよく、記憶媒体等を介して入力されてもよい。また、画像データは、撮像部によって撮像された画像データに限らず、CG(Computer Graphics)等の画像データでもよい。また、画像データ入力部11は、画像データを有線通信によって入力されてもよく、無線通信によって入力されてもよい。
 特徴部分検出部12は、画像データを画像データ入力部11から受信し、画像データ内の特徴量を算出するための解析を実行する。特徴部分検出部12は、解析の結果算出された特徴量に基づき、画像データから特徴部分の代表位置を検出する。特徴部分の代表位置は、例えば、2次元上に分布する画像データの配置に対応する座標として検出される。特徴部分検出部12は、検出された画像データの特徴部分の代表位置の情報を位置差算出部14及び注目部分選択部15に送信する。
 ここで、画像データ内の特徴量には、人体の部位、ペット、花、料理、青空、雲等の、物として名称を有する部分において抽出される特徴的な量が適用可能である。また、特徴量により検出される特徴部分は、物として名称を有する部分に限らず、彩度及び輝度の変化量や空間周波数の高さといった指標が適用可能であり、当該指標の高い、もしくは低い部分であって、物として名称を有しない部分でもよい。
 なお、特徴部分検出部12が検出する特徴部分は、代表位置に加えて、領域を更に含んでもよい。特徴部分の領域は、算出された特徴量が予め定められた閾値を超える領域や、特徴量が当該閾値を超える領域を少なくとも含む矩形領域等の、任意の形状として検出可能である。また、領域を有する特徴部分の代表位置は、当該領域内で最大の特徴量を有する画素の位置や、当該領域の中心等が設定可能であるが、これに限らず領域内の任意の位置が設定可能である。特徴部分検出部12は、特徴部分が領域を含む場合、代表位置及び領域の情報を注目部分選択部15に送信する。
 また、特徴部分検出部12は、画像データについて実行した解析の結果に応じて、複数の特徴部分の各々の代表位置を検出してもよい。この場合、特徴部分検出部12は、複数の特徴部分をそれぞれ独立した複数の特徴部分として識別してもよい。また、特徴部分検出部12は、複数の特徴部分を特徴種別毎にグループ化することで1つの特徴部分として識別してもよい。特徴部分検出部12は、検出された複数の特徴部分における各々の代表位置の情報を位置差算出部14に送信し、検出された複数の特徴部分における各々の代表位置及び領域の情報を注目部分選択部15に送信する。
 ここで、グループ化された特徴部分の代表位置としては、グループの中心、各特徴部分の代表位置の重心、又は各特徴部分の領域の面積で重み付けした場合の各代表位置の重心が設定可能である。また、特徴部分検出部12は、後述する画像データのユーザ指示位置をユーザ指示位置取得部13から受信し、当該ユーザ指示位置を用いて特徴部分の代表位置を設定してもよい。すなわち、特徴部分検出部12は、グループ化された特徴部分の代表位置として、各特徴部分の代表位置及びユーザ指示位置の差を示す位置差(以下、「位置差」という。)で重み付けした場合の各代表位置の重心、又はユーザ指示位置に最も近い特徴部分の代表位置を設定可能である。
 ユーザ指示位置取得部13は、ユーザの操作によって入力される操作情報に基づき、画像データのユーザ指示位置を取得する。ここで、ユーザ指示位置の例としては、ピント合わせする位置である合焦指示位置、画像処理を実行する位置である画像処理指示位置等がある。ユーザ指示位置取得部13は、例えば、画像データが表示された画面上へのユーザのタッチ操作により操作情報を取得する。ユーザ指示位置取得部13は、取得された操作情報に基づき、画像データ上の当該タッチされた部分の座標をユーザ指示位置として取得する。なお、ユーザ指示位置取得部13は、画面上をタッチする方法に限らず、画面上に表示されたカーソルをユーザが移動させる方法や、座標を直接入力する方法等、任意の方法によって操作情報を取得可能である。ユーザ指示位置取得部13は、取得したユーザ指示位置の情報を特徴部分検出部12、位置差算出部14及び注目部分選択部15に送信する。
 位置差算出部14は、特徴部分の代表位置の情報を特徴部分検出部12から受信し、ユーザ指示位置の情報をユーザ指示位置取得部13から受信する。位置差算出部14は、特徴部分の代表位置及びユーザ指示位置の位置差を算出し、当該位置差の情報を注目部分選択部15に送信する。位置差は、例えば、ユーザ指示位置及び特徴部分の代表位置の間の座標上の距離、又はユーザ指示位置及び特徴部分の代表位置の間に存在する画素数等の値として算出される。また、位置差算出部14は、複数の特徴部分の各々の代表位置の情報を特徴部分検出部12から受信した場合、各代表位置における位置差を算出し、注目部分選択部15に送信する。
 注目部分選択部15は、特徴部分の代表位置の情報を特徴部分検出部12から受信し、ユーザ指示位置の情報をユーザ指示位置取得部13から受信する。また、注目部分選択部15は、位置差の情報を位置差算出部14から受信し、当該受信した位置差に基づいて注目部分を選択する。注目部分選択部15は、位置差が予め定めた閾値(以下、「第1閾値」という。)未満の場合、特徴部分の代表位置を注目部分として選択し、位置差が第1閾値以上の場合、ユーザ指示位置を注目部分として選択する。
 ここで、注目部分は、画像データに対して後処理を実行する際に基準とする部分である。具体的には、後処理は、撮影動作及び画像処理を含む。ここで、撮影動作の例としては、AF、AE(Auto Exposure)等の動作が含まれる。このような撮影動作の後処理では、注目部分は、位置の情報によって定義される。また、画像処理の例としては、トリミング、ホワイトバランス補正や、フレーム、アートフィルタ、アートエフェクト等の特殊効果といった、種々の処理が含まれる。このような特殊効果の後処理では、注目部分は、位置の情報に加えて、領域の情報によって定義されることが好ましい。すなわち、注目部分は、実行される後処理に応じて、上述の如き注目すべき位置による定義に限らず、注目すべき位置及び領域によって定義されてもよい。
 注目部分選択部15は、特徴部分の領域の情報を更に受信し、当該領域の大きさに基づき、第1閾値の値を定めてもよい。すなわち、注目部分選択部15は、領域の大きさが大きい場合、第1閾値を大きく設定し、領域の大きさが小さい場合、第1閾値を小さく設定する。この場合、第1閾値は、固定値に限らず、特徴部分の領域を代表する数値をパラメタとする関数に基づいて算出されてもよい。具体的には、第1閾値は、特徴部分の領域を代表する数値に予め定められた係数(例えば1.2)を乗じて得られる値としてもよい。ここで、特徴部分の領域を代表する数値には、例えば、当該領域を含む円の直径、当該領域を含む矩形の一辺の長さ、当該領域の面積等が適宜適用可能である。
 また、注目部分選択部15は、複数の位置差の情報を受信した場合、当該複数の位置差に基づいて注目部分を選択する。注目部分選択部15は、受信した各位置差が全て第1閾値以上の場合、ユーザ指示位置を注目部分と判定する。注目部分選択部15は、各位置差が第1閾値未満となる特徴部分が存在する場合、当該特徴部分を抽出する。注目部分選択部15は、抽出した特徴部分が1つの場合、当該特徴部分の代表位置を注目部分として選択し、複数存在する場合、最も位置差が小さい特徴部分の代表位置を注目部分として選択する。なお、注目部分選択部15は、抽出した特徴部分が複数存在する場合、当該複数の特徴部分を1つのグループとした場合の代表位置を注目部分として選択してもよい。その場合、選択された注目部分の領域は、当該グループ化された複数の特徴部分の各代表位置又は各領域を含む領域としてもよい。
 なお、注目部分選択部15は、複数の位置差の情報を受信した場合、複数の注目部分を選択してもよい。具体的には、注目部分選択部15は、位置差が第1閾値未満となる特徴部分が複数抽出された場合、当該複数の特徴部分の各々の代表位置をそれぞれ注目部分として選択する。その場合、選択された注目部分の領域は、注目部分として選択された代表位置に対応する特徴部分の領域としてもよく、抽出された複数の特徴部分の領域を含む領域としてもよい。
 次に、以上のような第1の実施形態の演算装置の具体的な動作の一例について、図2に示すフローチャートを用いて説明する。
 始めに、ステップST110において、画像データ入力部11は、画像データの入力を受付け、当該入力を受付けた画像データを特徴部分検出部12に送信する。
 ステップST120において、特徴部分検出部12は、受信した画像データに対して解析を実行し、特徴部分の代表位置を検出する。特徴部分検出部12は、検出された特徴部分の代表位置の情報を位置差算出部14及び注目部分選択部15に送信する。
 ステップST130において、ユーザ指示位置取得部13は、ユーザの操作情報に基づき、画像データ内のユーザ指示位置を取得する。ユーザ指示位置取得部13は、取得したユーザ指示位置を位置差算出部14及び注目部分選択部15に送信する。
 ステップST140において、位置差算出部14は、受信した特徴部分の代表位置及びユーザ指示位置の位置差を算出する。位置差算出部14は、算出された位置差の情報を注目部分選択部15に送信する。
 ステップST150において、注目部分選択部15は、受信した位置差に基づき、注目部分を選択する。具体的には、注目部分選択部15は、位置差が第1閾値未満か否かを判定する。注目部分選択部15は、位置差が第1の閾値未満と判定した場合、特徴部分の代表位置を注目部分として選択し、位置差が第1の閾値未満でないと判定した場合、ユーザ指示位置を注目部分として選択する。
 以上説明したように、第1の実施形態においては、位置差算出部14は、特徴部分検出部12によって検出された特徴部分の代表位置と、ユーザ指示位置取得部13により取得されたユーザ指示位置との位置差を算出する。注目部分選択部15は、算出された位置差に基づき、注目部分を選択する。また、注目部分選択部15は、位置差が予め定めた第1閾値未満か否かを判定し、第1閾値未満の場合、特徴部分の代表位置を注目部分として選択し、位置差が第1閾値未満でない場合、ユーザ指示位置を注目部分として選択するようにしている。これにより、ユーザが指示したユーザ指示位置及びその付近に存在する特徴部分に対して、どちらを注目部分として選択すべきかを判定することができる。
 例えば、ユーザは、画像データ内の顔を指示する意図で、画面をタッチする等してユーザ指示位置を指示する。このような場合、ユーザ指示位置取得部13は、体等の顔以外の部位や、特徴部分として検出された顔周辺の背景領域の位置をユーザ指示位置として取得することが多い。しかしながら、演算装置1は、顔の代表位置とユーザ指示位置との位置差が第1閾値未満であることを評価することにより、顔を注目部分として選択することができる。
 また、別の例では、ユーザは、顔以外の場所を指示する意図で、顔と離れた場所の建物をユーザ指示位置として指示する。このような場合、演算装置1は、顔の代表位置とユーザ指示位置との位置差が第1閾値以上であることを評価することにより、建物を注目部分として選択することができる。
 したがって、演算装置1は、ユーザが意図した注目部分を選択でき、ユーザの意図に即した後処理を実行させることができる。後処理の例として、例えばトリミングが実行される場合、トリミング後の画像は、使用者の意図に合った被写体を含むことができる。また、後処理としてAFが実行される場合、使用者の意図に合った位置を合焦位置として決定し、合焦して撮影することができる。このため、注目すべき位置から微小にずれた位置をタッチしてしまった際に、タッチされた位置が合焦されてしまうことを回避することができる。したがって、微小なタッチのずれによるピンぼけ写真を画像取得することを回避することができる。
 次に、第1の実施形態に係る動作のいくつかの変形例について説明する。
 (第1の変形例)
 まず、特徴部分が領域を含む場合の第1の変形例の動作について、図3に示す画像データ101a及び図4に示す画像データ102aが入力されたとして説明する。ここで、注目部分選択部15は、画像データ101aについては特徴部分の代表位置を注目部分として選択し、画像データ102aについてはユーザ指示位置を注目部分として選択するものとする。なお、画像データ101a,102aは、いずれも同じ画面サイズであるとする。
 ステップST110において、画像データ入力部11は、画像データ101a,102aの入力を受付ける。ここで、各画像データ101a,102aは、被写体として人物及び背景を含む点で同じ構図であるが、画像データ101aの被写体の方が画像データ102aの被写体よりも大きく写っている点で異なる。
 ステップST120において、特徴部分検出部12は、各画像データ101a,102aについて特徴部分を検出する。特徴部分検出部12は、各画像データ101a,102aのいずれについても、被写体である人物の顔の中心を特徴部分の代表位置として検出する。ここで、画像データ101aの代表位置101bと、画像データ102aの代表位置102bとは、いずれも画面上の同じ位置において検出されるとする。
 また、特徴部分検出部12は、人物の顔を含む矩形領域を特徴部分の領域として更に検出する。ここで、画像データ101aの顔の領域101cは、画像データ102aの顔の領域102cよりも大きい領域が検出されるとする。
 ステップST130において、ユーザ指示位置取得部13は、各画像データ101a,102a内のユーザ指示位置を取得する。ユーザ指示位置取得部13は、各画像データ101a,102aのいずれについても、背景の一部分をユーザ指示位置として取得する。ここで、画像データ101aのユーザ指示位置101dと、画像データ102aのユーザ指示位置102dとは、いずれも画面上の同じ位置であるとする。
 ステップST140において、位置差算出部14は、各画像データ101a,102a内における位置差を算出する。上述の通り、画像データ101aにおける特徴部分の代表位置101b及びユーザ指示位置101dの位置関係と、画像データ102aにおける特徴部分の代表位置102b及びユーザ指示位置102dの位置関係とは、同一である。したがって、位置差算出部14は、各画像データ101a,102aについて、同じ値の位置差を算出する。
 ステップST150において、注目部分選択部15は、注目部分を選択する。注目部分選択部15は、各画像データ101a,102a内において検出された特徴部分である人物の顔の領域の大きさに基づいて、各画像データ101a,102aに適用する第1閾値を定める。ここで、画像データ101aの顔の領域101cは、画像データ102aの顔の領域102cよりも大きい。したがって、画像データ101aに設定される第1閾値は、画像データ102aに設定される第1閾値よりも大きい値が設定される。結果として、画像データ101aに設定される第1閾値は位置差よりも大きく、画像データ102aに設定される第1閾値は位置差よりも小さくなる。このため、注目部分選択部15は、画像データ101aについて特徴部分の代表位置である顔を注目部分として選択し、画像データ102aについてユーザ指示位置である背景を注目部分として選択する。
 このように、第1の変形例では、特徴部分検出部12は、特徴部分の領域を検出することを更に備える。注目部分選択部15は、当該特徴部分の領域の大きさに基づいて、第1閾値を定めるようにしている。これにより、注目部分選択部15は、特徴部分の領域の大きさに基づいてユーザによるユーザ指示位置の意図をより合理的に解釈し、注目する部分を選択することができる。
 (第2の変形例)
 次に、複数の特徴部分の各々の代表位置が検出される場合の第2の変形例の動作について、図5に示す画像データ103aが入力されたとして説明する。ここで、注目部分選択部15は、複数の特徴部分の各々の代表位置を注目部分として選択するものとする。
 ステップST110において、画像データ入力部11は、画像データ103aの入力を受付ける。ここで、画像データ103aは、被写体として2人の人物を含み、各人物は画面上で近く、重なり合って写っている。
 ステップST120において、特徴部分検出部12は、画像データ103aについて特徴部分の代表位置を検出する。特徴部分検出部12は、画像データ103aの被写体である2人の人物の顔の中心をそれぞれ特徴部分の代表位置103b,103dとして検出する。また、特徴部分検出部12は、各人物の顔を含む2つの特徴部分の領域103c,103eを更に検出する。
 ステップST130において、ユーザ指示位置取得部13は、画像データ103a内のユーザ指示位置を取得する。ユーザ指示位置取得部13は、画像データ103a内の各人物のいずれにも近い位置をユーザ指示位置103fとして取得する。
 ステップST140において、位置差算出部14は、画像データ103a内における位置差を算出する。上述の通り、画像データ103aにおける2つの特徴部分の代表位置103b,103dとユーザ指示位置101fとの位置関係は、非常に近い。したがって、算出される2つの位置差は、いずれも第1閾値よりも小さい値が算出される。
 ステップST150において、注目部分選択部15は、注目部分を選択する。ここで、算出された2つの位置差は、いずれも小さい。したがって、注目部分選択部15は、画像データ103aについて2つの特徴部分の代表位置103b、103dを注目部分として選択する。また、注目部分選択部15は、注目部分として選択された各特徴部分の領域103c,103eを、各注目部分の領域としてそれぞれ設定してもよい。また、注目部分選択部15は、各領域103c,103eを含む領域103gを、各注目部分の領域として設定してもよい。
 このように、第2の変形例では、特徴部分検出部12は、複数の特徴部分の各々の代表位置を検出する。注目部分選択部15は、当該各々の代表位置と、ユーザ指示位置との位置差に基づき、複数の注目部分を選択するようにしている。これにより、注目部分選択部15は、特徴部分が群をなしている場合に、群内の全ての特徴部分を注目部分として扱うことにより、ユーザの意図により即した後処理を実行させることができる。例えば、後処理としてトリミングが実行される場合、1枚の画像データから注目部分の異なる複数のトリミング画像を生成することができる。このため、ユーザは、バリエーション豊かなトリミング画像から、ユーザの意図に合った画像を取得することができる。また、後処理としてAFが実行される場合、1枚の画像データから複数の注目部分に対してフォーカスブラケット撮影を実行することができる。このため、注目部分選択部15は、ユーザが意図しない部分を注目部分から除外しつつ、ユーザが意図する画像を含む複数の画像を提供することができる。
 [第2の実施形態]
 図6は、本発明の第2の実施形態に係る演算装置の一例の機能構成を示すブロック図である。第2の実施形態は、第1の実施形態において、撮像装置から被写体までの距離情報を更に考慮することで、よりユーザの意図する画像データ内の注目部分を選択し得る構成となっている。具体的には、図6に示す演算装置1は、距離情報取得部16及び奥行差算出部17を更に備える。以下では、図1と同一部分には同一符号を付してその詳しい説明を省略し、異なる部分について主に述べる。
 特徴部分検出部12は、検出された特徴部分の代表位置を距離情報取得部16に送信する。特徴部分検出部12は、複数の特徴部分の各々の代表位置を検出した場合、当該複数の特徴部分の代表位置を距離情報取得部16に送信する。ユーザ指示位置取得部13は、取得したユーザ指示位置を距離情報取得部16に送信する。
 距離情報取得部16は、画像データ入力部11に入力された画像データを撮像した撮像装置と、当該画像データ内の被写体との距離を示す距離情報を取得する。具体的には、距離情報取得部16は、画像データ内の特徴部分の代表位置を特徴部分検出部12から受信し、画像データ内のユーザ指示位置をユーザ指示位置取得部13から受信する。距離情報取得部16は、撮像装置と特徴部分の代表位置に相当する被写体との距離を示す距離情報(以下、「第1距離情報」という。)、及び撮像装置とユーザ指示位置に相当する被写体との距離を示す距離情報(以下、「第2距離情報」という。)を取得する。距離情報取得部16は、複数の特徴部分の代表位置を特徴部分検出部12から受信した場合、当該複数の特徴部分の代表位置について、複数の第1距離情報をそれぞれ取得する。距離情報取得部16は、取得した各距離情報を奥行差算出部17に送信する。
 なお、距離情報取得部16は、ユーザによる操作によって数値等が入力されることで、距離情報を取得してもよい。また、距離情報取得部16は、撮像部と被写体との距離を示す距離情報を、当該撮像部から取得してもよい。例えば、距離情報取得部16は、位相差AF、DFD(Depth from Defocus)、ライトフィールド等の手法により、撮像範囲全体の奥行に関する情報と共に距離情報を撮像部から取得してもよい。また、距離情報取得部は、図示しないレーザ等の他のセンサからの出力を用いる構成にすることにより、距離情報を撮像部から取得してもよい。
 奥行差算出部17は、第1距離情報と、第2距離情報とを距離情報取得部16から受信する。奥行差算出部17は、第1距離情報及び第2距離情報に基づき、撮像装置から特徴部分の代表位置に相当する被写体までの距離と、ユーザ指示位置に相当する被写体までの距離との差(以下、「奥行差」という。)を算出する。奥行差算出部17は、算出された奥行差の情報を注目部分選択部15に送信する。また、奥行差算出部17は、複数の特徴部分の各々の代表位置の距離情報を距離情報取得部16から受信した場合、特徴部分の各々の代表位置について奥行差を算出し、注目部分選択部15に送信する。
 注目部分選択部15は、奥行差の情報を奥行差算出部17から受信する。注目部分選択部15は、奥行差及び位置差に基づいて注目部分を選択する。図7は、注目部分選択部15による位置差及び奥行差に基づく注目部分選択ロジックの一例を示す模式図である。図7の例では、注目部分選択部15は、位置差が第1閾値未満かつ奥行差が予め定めた閾値(以下、「第2閾値」という。)未満の場合、特徴部分の代表位置を注目部分として選択する。また、注目部分選択部15は、位置差が第1閾値未満でない又は奥行差が第2閾値未満でない場合、ユーザ指示位置を注目部分として選択する。
 注目部分選択部15は、上記の選択ロジックに限らず、任意の選択ロジックを適用して注目部分を選択できる。例えば、注目部分選択部15は、第1閾値及び第2閾値の組を、固定値に限らず、位置差及び奥行差に応じて動的に設定可能である。注目部分選択部15は、位置差及び奥行差をパラメタとする関数に応じて出力される評価値に基づいて、注目部分を選択してもよい。具体的には、注目部分選択部15は、評価値が予め定めた閾値(以下、「第3閾値」という。)未満の場合、特徴部分の代表位置を注目部分として選択し、第3閾値以上の場合、ユーザ指示位置を注目部分として選択する。このような場合、位置差及び奥行差が小さい場合、評価値もこれに応じて小さくなるような関数が設定されることが望ましい。上述した第3閾値は、位置差及び奥行差に応じて第1閾値及び第2閾値を動的に設定した場合に対応する。
 また、注目部分選択部15は、撮像部において設定された撮像情報を、当該撮像部から受信してもよい。注目部分選択部15は、受信した撮像情報に基づいて、被写界深度を算出する。したがって、撮像情報としては、画像データ入力部11に入力された画像データを撮像した際のレンズの焦点距離及びF値等が望ましい。注目部分選択部15は、撮像部において設定された被写界深度に基づき、第2閾値を動的に定めてもよい。すなわち、注目部分選択部15は、被写界深度の深さと同程度の値を第2閾値に設定する。このように第2閾値を設定することにより、奥行差が第2閾値未満の場合、特徴部分の代表位置とユーザ指示位置とは、同時にピントが合う位置関係にある場合に対応する。このように、特徴部分の代表位置とユーザ指示位置とが同時にピントが合う位置関係にある場合、注目部分選択部15は、ユーザ指示位置と、特徴部分の代表位置との中点を注目部分の注目位置としてもよい。この場合、注目部分の領域は、ユーザ指示位置と、特徴部分の領域とを含む領域としてもよい。
 また、注目部分選択部15は、複数の位置差及び複数の奥行差の情報を受信すると、位置差が第1閾値未満かつ奥行差が第2閾値未満となる特徴部分が存在する場合、当該特徴部分を抽出する。なお、注目部分選択部15は、抽出した特徴部分が1つである場合、当該特徴部分の代表位置を注目部分として選択し、特徴部分が複数存在する場合、位置差及び奥行差が最も小さい特徴部分の代表位置を注目部分として選択する。また、注目部分選択部15は、位置差及び奥行差に基づく評価値を用いた場合、当該評価値が最適となる特徴部分の代表位置を注目部分として選択してもよい。ここで、評価値が最適となる特徴部分は、位置差及び奥行差が共に小さい特徴部分である。
 また、注目部分選択部15は、位置差が第1閾値未満かつ奥行差が第2閾値未満となる特徴部分が複数存在する場合、当該特徴部分の各々の代表位置を注目位置とする複数の注目部分を選択してもよい。この場合、各注目部分の領域は、各特徴部分の代表位置を含んでもよく、各特徴部分の領域を更に含んでもよい。また、注目部分選択部15は、位置差が第1閾値未満かつ奥行差が第2閾値未満となる特徴部分が複数存在する場合、ユーザ指示位置を注目位置とする注目部分を更に選択してもよい。この場合、各注目部分の領域は、ユーザ指示位置と各特徴部分の代表位置を含んでもよく、各特徴部分の代表位置を更に含んでもよい。
 次に、以上のような第2の実施形態の演算装置の具体的な動作の一例について、図8に示すフローチャートを用いて説明する。まず始めに、図9に示す如き画像データ201aが入力される場合の動作について説明する。ここで、注目部分選択部15は、ユーザ指示位置201cを注目部分として選択するものとする。
 ステップST210において、画像データ入力部11は、画像データ201aの入力を受付け、特徴部分検出部12に送信する。なお、画像データ201aは、撮像装置から見て手前側に花束が、奥側に小物が配置された構図である。
 ステップST220において、特徴部分検出部12は、画像データ201aについて特徴部分の代表位置を検出する。特徴部分検出部12は、画像データ201aについて、花束の中心を特徴部分の代表位置201bとして検出する。特徴部分検出部12は、検出された特徴部分の代表位置201bの情報を位置差算出部14、注目部分選択部15、及び距離情報取得部16に送信する。
 ステップST230において、ユーザ指示位置取得部13は、画像データ201a内の小物の位置をユーザ指示位置201cとして取得する。ユーザ指示位置取得部13は、取得したユーザ指示位置201cを位置差算出部14、注目部分選択部15及び距離情報取得部16に送信する。
 ステップST240において、位置差算出部14は、受信した特徴部分の代表位置201bと、ユーザ指示位置201cとの位置差を算出し、注目部分選択部15に送信する。
 ステップST250において、距離情報取得部16は、撮像装置と特徴部分の代表位置201bに相当する花束との距離を示す第1距離情報及び撮像装置とユーザ指示位置201cに相当する小物との距離を示す第2距離情報を取得する。距離情報取得部16は、取得した各距離情報を奥行差算出部17に送信する。
 ステップST260において、奥行差算出部17は、受信した第1距離情報及び第2距離情報に基づき、特徴部分の代表位置201bと、ユーザ指示位置201cとの奥行差を算出し、注目部分選択部15に送信する。
 ステップST270において、注目部分選択部15は、位置差及び奥行差に基づき、注目部分を選択する。具体的には、注目部分選択部15は、位置差が第1閾値未満かつ奥行差が第2閾値未満であるか否かを判定する。注目部分選択部15は、位置差が第1閾値未満かつ奥行差が第2閾値未満と判定した場合、特徴部分の代表位置を注目部分として選択する。注目部分選択部15は、位置差が第1閾値未満でない又は奥行差が第2閾値未満でないと判定した場合、ユーザ指示位置を注目部分として選択する。図9の例の場合、花束の代表位置201bと小物の位置を示すユーザ指示位置201cとの位置差は、第1閾値未満である。しかしながら、撮像部からの花束までの距離と小物までの距離との差である奥行差は、第2閾値以上である。したがって、注目部分選択部15は、最終的に、ユーザ指示位置201cが示す小物の位置を注目部分として選択する。
 また、注目部分選択部15は、撮像部において設定された被写界深度に基づいて、第2閾値を定めてもよい。図9の例の場合、画像データ201aを撮像した際の被写界深度が、花束と小物との奥行差より浅い場合、注目部分選択部15は、当該奥行差より小さな値を第2閾値として設定する。したがって、奥行差は、第2閾値以上となり、注目部分選択部15は、上述の例と同様、ユーザ指示位置201cが示す小物を注目部分として選択する。
 一方、画像データ201aを撮像した際の被写界深度が、花束と小物との奥行差より深い場合、注目部分選択部15は、当該奥行差より大きな値を第2閾値として設定する。このとき、奥行差は、第2閾値未満となり、注目部分選択部15は、花束の代表位置201b及び小物の位置を示すユーザ指示位置201cのいずれも注目部分として選択する。なお、この場合、花束と小物とは、いずれもピントが合った状態となる。注目部分選択部15は、小物の位置を示すユーザ指示位置201cと、花束の代表位置201bとを含む領域201eを注目部分の領域として設定してもよい。また、注目部分選択部15は、小物の位置を示すユーザ指示位置201cと、花束の領域201dとを含む領域201fを注目部分の領域として設定してもよい。
 次に、図10に示す如き画像データ202aが入力され、複数の特徴部分が検出される場合の動作について、上述の例と同様に説明する。なお、画像データ202aは、撮像装置から見て手前側に花束が、奥側に人物が配置された構図である。また、特徴部分検出部12は、人物の顔の代表位置202bと、花束の代表位置202cとを特徴部分として検出する。ユーザ指示位置取得部13は、人物の体の中心であり、顔の代表位置202bと花束の代表位置202cとからほぼ同じ位置差の位置をユーザ指示位置202dとして取得するものとする。
 図10の例の場合、顔の代表位置202bにおける位置差は、第1閾値未満であり、奥行差は、第2閾値未満である。一方、花束の代表位置202cにおける位置差は、第1閾値未満であるが、奥行差は、第2閾値以上である。したがって、注目部分選択部15は、最終的に、顔の代表位置202bを注目部分として選択する。
 また、注目部分選択部15は、撮像装置において設定された被写界深度に基づいて、第2閾値を定めてもよい。図10の例の場合、画像データ202aを撮像した際の被写界深度が、各代表位置202b,202cとユーザ指示位置202dとの奥行差のいずれより深い場合、注目部分選択部15は、各奥行差より大きな値が第2閾値として設定される。この場合、各代表位置202b,202c及びユーザ指示位置202dは、いずれもピントが合った状態となる。このとき、注目部分選択部15は、各代表位置202b,202c及びユーザ指示位置202dのいずれも注目部分として選択する。注目部分選択部15は、人物の中心位置を示すユーザ指示位置202dと、顔の代表位置202bとを含む領域201eを注目部分の領域として設定してもよい。また、注目部分選択部15は、人物の中心位置を示すユーザ指示位置202dと、花束の代表位置202cとを含む領域202f等の領域を注目部分の領域として設定してもよい。領域202e,202fは、各特徴部分の領域を含んでもよい。また、注目部分選択部15は、各特徴部分の領域を含む領域202gを注目部分の領域として設定してもよい。
 以上説明したように、第2の実施形態においては、距離情報取得部16は、撮像装置と、特徴部分の代表位置に相当する被写体及びユーザ指示位置に相当する被写体との距離を示す距離情報を取得する。奥行差算出部17は、各距離情報に基づき、奥行差を算出する。注目部分選択部15は、位置差に加え、奥行差に更に基づき、注目部分を選択する。また、注目部分選択部15は、位置差が第1閾値未満かつ奥行差が第2閾値未満か否かを判定する。注目部分選択部15は、位置差が第1閾値未満かつ当該奥行差が第2閾値未満と判定した場合、特徴部分の代表位置を注目部分として選択し、位置差が第1閾値未満でない又は奥行差が第2閾値未満でないと判定した場合、ユーザ指示位置を注目部分として選択するようにしている。これにより、ピントが合っていない特徴部分の代表位置を注目部分として選択しないように、判定することができる。
 例えば、ユーザは、手前にある特徴部分である花を前ぼけの要素として、奥にある小物を撮影する意図で、小物をユーザ指示位置として指示する。この場合、前ぼけの色味を小物にかぶせるためには、手前の花の付近に、奥の小物を配置することになる。したがって、手前の花と奥の小物との位置差は、第1閾値未満であると判定されることが多い。しかしながら、注目部分選択部15は、手前の花と奥の小物との奥行差が第2閾値以上であることを評価することにより、奥の小物を注目部分として選択することができる。したがって、注目部分選択部15は、ユーザが意図した注目部分を選択でき、ユーザの意図に即した後処理を実行させることができる。後処理の例として、例えばトリミングが実行される場合、ピントが合っていない手前の花を注目部分としたトリミング処理が実行されることを回避することができる。
 また、注目部分選択部15は、撮像装置において設定された被写界深度に基づいて第2閾値を定めるようにしている。これにより、特徴部分の代表位置が注目部分として選択される場合、注目部分選択部15は、ユーザ指示位置と代表位置とが被写界深度の範囲内にあることを保証できる。また、ユーザ指示位置と代表位置とが被写界深度の範囲内にある場合、注目部分選択部15は、ユーザ指示位置と代表位置とをいずれも注目部分として選択することができる。したがって、よりユーザの意図に即した注目部分を選択できる。
 また、特徴部分検出部12は、複数の特徴部分を検出する。注目部分選択部15は、当該複数の特徴部分の各々の代表位置及びユーザ指示位置の位置差に基づき、複数の注目部分を選択するようにしている。これにより、注目部分選択部15は、複数の特徴部分から、位置差又は奥行差の大きい特徴部分を除き、ユーザ指示位置から位置差及び奥行差の小さい特徴部分を注目部分として複数選択することができる。例えば、集合写真や群生している花、及びテーブルいっぱいに並んだ料理を撮影し、後処理としてトリミングを実行しようとする場合、いずれもピントが合った状態の特徴部分が検出される場合がある。このような場合、当該複数の特徴部分をいずれも注目部分として選択することにより、1枚の画像データから注目部分の異なる複数のトリミング画像を生成することができる。このため、ユーザは、バリエーション豊かなトリミング画像から、ユーザの意図に合った画像を取得することができる。
 [第3の実施形態]
 図11は、本発明の第3の実施形態に係る演算装置の一例の機能構成を示すブロック図である。第3の実施形態は、第1の実施形態において、時系列の複数の画像データが入力された場合に特徴部分の信頼度を考慮することで、より注目部分を適切に選択し得る構成となっている。具体的には、図11に示す演算装置1は、第1の実施形態に係る演算装置1の機能構成に加えて、信頼度算出部18を更に備える。以下では、図1と同一部分には同一符号を付してその詳しい説明を省略し、異なる部分について主に述べる。なお、第3の実施形態は、第1の実施形態に限らず、第2の実施形態に対しても適用可能である。
 画像データ入力部11は、時系列の複数の画像データ(以下、「時系列画像データ」という。)の入力を受付ける。画像データ入力部11は、入力を受付けた時系列画像データを特徴部分検出部12に送信する。入力される時系列画像データは、例えば、撮像装置による撮影前の一定期間に得られるライブビュー画像であってもよい。
 画像データ入力部11は、時系列画像データの入力を受付けた後、更に注目部分が選択される画像データの入力を受付ける。画像データ入力部11は、当該画像データを特徴部分検出部12に送信する。なお、当該注目部分が選択される画像データは、時系列画像データの最終フレームの画像データとして時系列画像データと共に特徴部分検出部12に送信されてもよい。
 特徴部分検出部12は、時系列画像データを画像データ入力部11から受信し、時系列画像データ内の特徴量を算出するための解析を順次実行する。特徴部分検出部12は、解析の結果算出された画像データ毎の特徴量に基づき、画像データ毎に特徴部分の代表位置を検出する。特徴部分検出部12は、検出された時系列画像データの代表位置の情報を信頼度算出部18に送信する。また、特徴部分検出部12は、注目部分が選択される画像データ内の代表位置の情報を位置差算出部14及び注目部分選択部15に送信する。
 また、特徴部分検出部12は、特徴部分の領域を検出する場合、時系列画像データ内の特徴部分の領域の情報を信頼度算出部18に送信する。また、特徴部分検出部12は、注目部分が選択される画像データ内の特徴部分の領域の情報を注目部分選択部15に送信する。
 ユーザ指示位置取得部13は、ユーザの操作によって入力される操作情報に基づき、画像データのユーザ指示位置を取得する。ユーザ指示位置取得部13は、入力された操作情報に基づき、画像データ上の当該タッチされた部分の座標をユーザ指示位置として取得する。ユーザ指示位置取得部13は、取得したユーザ指示位置の情報を特徴部分検出部12、位置差算出部14、及び注目部分選択部15に送信する。なお、ユーザ指示位置取得部13によって取得されるユーザ指示位置は、注目部分が選択される画像データに対して取得される。
 信頼度算出部18は、時系列画像データの特徴部分の代表位置の情報を特徴部分検出部12から受信する。信頼度算出部18は、時系列データ内の特徴部分の代表位置の移動量を時系列に解析し、代表位置の変化量(以下、「代表位置変化量」という。)を算出する。信頼度算出部18は、算出された代表位置変化量に基づき、特徴部分の信頼度を算出する。信頼度算出部18は、算出した信頼度を注目部分選択部15に送信する。ここで、信頼度算出部18は、代表位置変化量が小さければ信頼度が高くなり、代表位置変化量が大きければ信頼度が低くなるような代表位置変化量の関数を用いて信頼度を算出することが好ましい。また、信頼度は、連続的な値に限らず、信頼度判定のために予め設定した閾値に対して2値表現となるように算出されてもよい。
 また、信頼度算出部18は、複数の画像データの特徴部分の領域の情報を更に特徴部分検出部12から受信してもよい。この場合、信頼度算出部18は、代表位置変化量に加え、領域の変化量(以下、「領域変化量」という。)を算出し、代表位置変化量及び領域変化量に基づき、信頼度を算出する。
 位置差算出部14は、特徴部分の代表位置の情報を特徴部分検出部12から受信し、ユーザ指示位置の情報をユーザ指示位置取得部13から受信し、位置差を算出する。位置差算出部14は、算出された位置差の情報を注目部分選択部15に送信する。
 注目部分選択部15は、検出された特徴部分の信頼度を信頼度算出部18から更に受信する。注目部分選択部15は、位置差と信頼度とに基づいて注目部分を選択する。具体的には、注目部分選択部15は、信頼度に基づいて第1閾値を定める。すなわち、注目部分選択部15は、信頼度が高い場合、第1閾値を大きく設定し、信頼度が低い場合、第1閾値を小さく設定する。注目部分選択部15は、位置差が第1閾値未満の場合、特徴部分の代表位置を注目部分として選択し、位置差が第1閾値未満でない場合、ユーザ指示位置を注目部分として選択する。
 また、注目部分選択部15は、位置差及び信頼度をパラメタとする関数に応じて出力される評価値に基づいて、注目部分を選択してもよい。具体的には、注目部分選択部15は、評価値が予め定めた閾値(以下、「第4閾値」という。)未満の場合、特徴部分の代表位置を注目部分として選択し、第4閾値以上の場合、ユーザ指示位置を注目部分として選択する。このような場合、位置差が大きく信頼度が低い場合、評価値もこれに応じて大きくなるような関数が設定されることが望ましい。また、位置差が小さく信頼度が高い場合、評価値もこれに応じて小さくなるような関数が設定されることが望ましい。上述した第4閾値は、位置差及び信頼度に応じて第1閾値を動的に設定した場合に対応する。
 次に、以上のような第3の実施形態の演算装置の具体的な動作の一例について、図12に示すフローチャートを用いて説明する。なお、以下の説明では、注目部分は、時系列画像データの最終フレームに対して選択されるものとして説明する。
 始めに、ステップST310において、画像データ入力部11は、時系列画像データの入力を受付け、当該入力を受付けた時系列画像データを特徴部分検出部12に送信する。
 ステップST320において、特徴部分検出部12は、受信した時系列画像データの各画像データに対して解析を実行し、特徴部分の代表位置を検出する。特徴部分検出部12は、検出された時系列画像データ内の時系列の代表位置の情報を信頼度算出部18に送信する。特徴部分検出部12は、注目部分が選択される画像データ内の代表位置の情報を位置差算出部14及び注目部分選択部15に送信する。また、特徴部分検出部12は、領域の情報を更に含む特徴部分を検出する場合、時系列画像データ内の領域の情報を信頼度算出部18に送信する。また、特徴部分検出部12は、注目部分が選択される画像データ内の特徴部分の領域の情報を注目部分選択部15に送信する。
 ステップST330において、信頼度算出部18は、時系列画像データの代表位置の情報を受信し、代表位置変化量を算出する。信頼度算出部18は、算出された代表位置変化量に基づき、特徴部分の信頼度を算出する。また、信頼度算出部18は、時系列画像データの特徴部分の領域の情報を更に受信する場合、代表位置変化量に加えて領域変化量を算出する。信頼度算出部18は、算出された代表位置変化量及び領域変化量に基づき、信頼度を算出する。信頼度算出部18は、算出された信頼度を注目部分選択部15に送信する。
 ステップST340において、ユーザ指示位置取得部13は、ユーザからの操作情報が入力されたか否かを判定し、操作情報が入力された場合、ステップST350を実行する。画像データ入力部11、特徴部分検出部12、及び信頼度算出部18は、操作情報の入力がされるまでステップST310-ST330を繰り返す。
 ステップST350において、ユーザ指示位置取得部13は、ユーザの操作情報に基づき、注目部分が選択される画像データ内のユーザ指示位置を取得する。ユーザ指示位置取得部13は、取得したユーザ指示位置を位置差算出部14及び注目部分選択部15に送信する。
 ステップST360において、位置差算出部14は、受信した特徴部分の代表位置の情報及びユーザ指示位置の情報に基づき、位置差を算出する。位置差算出部14は、算出された位置差の情報を注目部分選択部15に送信する。
 ステップST370において、注目部分選択部15は、受信した位置差及び信頼度に基づき、注目部分を選択する。具体的には、注目部分選択部15は、信頼度の大きさに基づいて第1閾値を定める。また、注目部分選択部15は、特徴部分の領域の情報を更に受信した場合、注目部分の選択の前に、特徴部分の領域の大きさに更に基づいて第1閾値を定めてもよい。注目部分選択部15は、位置差が第1閾値未満か否か判定する。注目部分選択部15は、位置差が第1閾値未満と判定した場合、特徴部分の代表位置を注目部分として選択し、位置差が第1閾値未満でないと判定した場合、ユーザ指示位置を注目部分として選択する。
 以上説明したように、第3の実施形態においては、画像データ入力部11は、時系列の画像データの入力を受付ける。特徴部分検出部12は、入力された時系列の画像データの各々から特徴部分を検出する。信頼度算出部18は、特徴部分の代表位置の時系列変化に基づき、特徴部分の信頼度を算出する。注目部分選択部15は、信頼度及び位置差に基づき、注目部分を選択するようにしている。これにより、動く特徴部分の信頼度は低く算出され当該動く特徴部分の代表位置とユーザ指示位置との位置差に対する第1閾値は小さく設定される。したがって、よりユーザの意図に即した注目部分を適切に選択できる。
 例えば、ユーザは、人通りの多い場所の建物を撮影する意図で、建物をユーザ指示位置として指示する。このような状況では、注目部分を選択する際、特徴部分として検出される通行人の顔が、ユーザ指示位置として指示された建物に近づいている場合がある。しかしながら、信頼度算出部18は、特徴部分である通行人の顔が動いていることから、当該通行人の顔に対して低い信頼度を算出する。注目部分選択部15は、これに伴い通行人の顔に対して第1閾値を小さく設定する。したがって、注目部分選択部15は、建物と通行人の顔との位置差が第1閾値以上であると評価することにより、建物を注目部分として選択することができる。後処理の例としてトリミングが実行される場合、ユーザが意図する後処理として、建物を注目部分とするトリミング処理が実行される。
 [第4の実施形態]
 本発明の第4の実施形態は、第1乃至第3の実施形態のいずれかの演算装置1を備えるデジタルカメラ(以下、カメラという。)に係る。以下では、図1と同一部分には同一符号を付してその詳しい説明を省略し、異なる部分について主に述べる。図13は、本発明の第4の実施形態に係る撮像装置の一例としてのカメラの機能構成を示すブロック図である。図13に示すカメラ20は、レンズ交換式のカメラを例示している。しかしながら、以下で説明する第4の実施形態の技術は、レンズ交換式のカメラにのみ適用されるものではない。
 図13に示すカメラ20は、交換レンズ100と、カメラボディ200とを備えている。交換レンズ100は、カメラボディ200に設けられた図示しないレンズマウントを介してカメラボディ200に着脱自在に構成されている。交換レンズ100がカメラボディ200に装着されることによって、交換レンズ100とカメラボディ200とが通信自在に接続される。
 交換レンズ100は、撮影レンズ101と、絞り機構102と、フォーカス駆動機構103と、絞り駆動機構104と、レンズCPU(Central Processing Unit)105と、を備えている。撮影レンズ101は、図示しない被写体からの光を、カメラボディ200の内部の撮像素子204に結像させるための光学系である。撮影レンズ101は、フォーカスレンズを有し、フォーカスレンズは、図13の一点鎖線で示す光軸方向に駆動されて撮影レンズ101のフォーカスを調整する。絞り機構102は、撮影レンズ101を介して撮像素子204に入射する被写体からの光の量を調整する。
 フォーカス駆動機構103は、モータ等を有し、レンズCPU105の制御のもと、フォーカスレンズをその光軸方向に駆動させる。絞り駆動機構104は、モータ等を有し、レンズCPU105の制御のもと、絞り機構102を開閉駆動させる。レンズCPU105は、交換レンズ100がカメラボディ200に装着された際に通信端子106を介してカメラボディ200内のシーケンスコントローラ(ボディCPU)2201と通信自在に接続される。このレンズCPU105は、ボディCPU2201からの制御に従ってフォーカス駆動機構103や絞り駆動機構104の動作を制御し、被写界深度等のパラメタを調整する。
 カメラボディ200は、フォーカルプレーンシャッタ(シャッタ)201と、シャッタ駆動機構202と、フィルタ群203と、撮像素子204と、撮像素子駆動回路205と、前処理回路206と、SDRAM(Synchronous Dynamic Random Access Memory)207と、記録媒体208と、フラッシュメモリ209と、モニタ駆動回路210と、背面モニタ211と、タッチセンサ212と、操作部213と、着脱検知スイッチ214と、電源供給回路215と、電池216と、制御回路217と、を備えている。
 シャッタ201は、撮像素子204の光電変換面に対して進退自在に配置されている。このシャッタ201は、シャッタ駆動機構202によって駆動されて撮像素子204の光電変換面を露出状態又は遮光状態とする。シャッタ駆動機構202は、ボディCPU2201の制御に従ってシャッタ201を開閉駆動させる。このようなシャッタ201の駆動によって撮像素子204の露光時間が調整される。
 フィルタ群203は、撮影レンズ101を介して入射してくる光の赤外成分を除去する赤外カットフィルタや撮影レンズ101を介して入射してくる光の高周波成分を除去するローパスフィルタといった複数のフィルタを有している。
 撮像素子204は、複数の画素が配置された光電変換面を有し、撮影レンズ101を介して光電変換面上に結像された被写体からの光を電気信号(画像信号)に変換する。撮像素子駆動回路205は、入出力回路2211を介したボディCPU2201からの指示に従って撮像素子204を駆動制御するとともに、撮像素子204で得られた画像信号の読出しを制御する。前処理回路206は、撮像素子駆動回路205を介して撮像素子204から読出された画像信号に対してノイズ除去や増幅等のアナログ処理や、アナログ処理した画像信号をデジタル信号(画像データ)に変換する処理といった前処理を行う。
 このように、交換レンズ100、シャッタ201、シャッタ駆動機構202、フィルタ群203、撮像素子204、撮像素子駆動回路205、及び前処理回路206は、撮像部としても機能する。すなわち、撮像部は、撮像して得られた画像データを制御回路217内の演算装置1に出力する機能を有する。
 SDRAM207は、前処理回路206において得られたデータ等を一時格納しておくためのバッファメモリである。記録媒体208は、例えばカメラボディ200に対して着脱自在に構成されたメモリカードであり、圧縮伸長回路2207において圧縮された画像データを記録する。フラッシュメモリ209は、ボディCPU2201によって読出される制御プログラムやカメラボディ200の各種の設定値等を記憶するメモリである。
 モニタ駆動回路210は、ビデオ信号出力回路2208から入力されたビデオ信号に従って背面モニタ211を駆動し、背面モニタ211の画面上に画像を表示させる。
 背面モニタ211は、カメラボディ200の背面に露出するように配置されている。この背面モニタ211は、モニタ駆動回路210によって駆動されて、圧縮伸長回路2207で伸長された画像等の各種の画像を表示する。また、本実施形態における背面モニタ211は、ユーザ指示位置を取得するための画面の表示も行う。ユーザ指示位置は、各種の後処理を実行する際に選択される注目部分の候補として取得される。後処理の例としては、AF、AE、ホワイトバランス補正、トリミング、特殊効果の付与等がある。タッチセンサ212は、背面モニタ211と一体的に設けられており、ユーザの指の接触をユーザからの操作情報として検出する。ここで、タッチセンサ212として、抵抗膜方式や静電容量方式等、各種の方式のタッチセンサを用いることが可能である。タッチセンサ212は、操作情報に基づいてユーザ指示位置を取得する。
 操作部213は、電源スイッチ、シャッタボタン、設定ボタン、操作ダイヤル、といった各種の操作部である。電源スイッチは、ユーザがカメラボディ200の電源のオンオフを指示するための操作部である。シャッタボタンは、ユーザが撮影実行の指示をするための操作部である。設定ボタンは、ユーザが各種の後処理等に応じたユーザ指示位置を指示するための操作部群である。操作ダイヤルは、ダイヤル式の操作部である。この操作ダイヤルも各種の後処理等に応じたパラメタ設定を行うために用いられる。なお、設定ボタンと操作ダイヤルの機能は、タッチセンサ212に割り当てられてもよい。
 このように、背面モニタ211及びタッチセンサ212、又は操作部213は、ユーザ指示位置取得部としても機能する。ユーザ指示位置取得部は、画像データ内におけるユーザ指示位置を取得し、制御回路217内の演算装置1に出力する機能を有する。例えば、背面モニタ211は、後処理としてAFが実行される場合、ライブビューが表示される画面を表示する。タッチセンサ212は、ユーザがタッチした座標又は当該座標を移動操作して得られた座標を、AF点のユーザ指示位置として演算装置1に出力する。
 なお、ユーザ指示位置取得部は、上述の構成によって操作情報を取得する手法に限らず、種々の構成をとることによって操作情報を取得してもよい。例えば、ユーザ指示位置取得部は、ユーザが特定の位置でフォーカスロックした後に撮影方向をずらして撮影する場合、AF点のずれ量を考慮してユーザ指示位置を取得してもよい。また、ユーザ指示位置取得部は、フォーカスロックした局所画像をずらした画像から探索することによりずれ量を算出してもよい。また、ユーザ指示位置取得部は、加速度センサやジャイロセンサ等の図示しないセンサによってずれ量を算出してもよい。また、ユーザ指示位置取得部は、MF(Manual Focus)によって合焦状態を確認するために拡大表示した領域の中心や、フォーカスピーキング機能によって特定される合焦領域の中心又は重心をユーザ指示位置として取得してもよい。いずれにしても、ユーザ指示位置取得部は、画像データ内におけるユーザ指示位置を取得し、制御回路217内の演算装置1に送信する機能を有する。
 着脱検知スイッチ214は、カメラボディ200に交換レンズ100が装着された際にオンするスイッチであり、オンすることによって、カメラボディ200に交換レンズ100が装着されたことを示す信号を操作入力検知回路2210に出力する。
 電源供給回路215は、電池216の電圧をカメラボディ200の各ブロックが必要とする電圧に変換する。そして、電源供給回路215は、変換した電池216の電圧をカメラボディ200の各ブロックに供給する。電池216は、例えば2次電池であって、カメラボディ200の電源として機能する。
 制御回路217は、カメラボディ200の各種の動作を制御する。この制御回路217は、シーケンスコントローラ(ボディCPU)2201と、コントラストAF回路2202と、SDRAM制御回路2203と、フラッシュメモリ制御回路2204と、記録媒体制御回路2205と、画像処理回路2206と、圧縮伸長回路2207と、ビデオ信号出力回路2208と、タッチセンサ入力回路2209と、操作入力検知回路2210と、入出力回路2211と、通信回路2212と、データバス2213と、演算装置1と、を備えている。
 ボディCPU2201は、制御回路217内の各回路の動作を統括して制御する。また、本実施形態におけるボディCPU2201は、制御部としての機能も有し、演算装置1から出力される注目部分の情報に従って各種の後処理のシーケンス制御も行う。ここで、AF、AE等の後処理のシーケンス制御は、撮像部の動作の制御を含む。また、トリミング、ホワイトバランス補正等の画像処理、特殊効果の付与等の後処理のシーケンス制御は、画像処理回路2206の動作の制御を含む。
 コントラストAF回路2202は、撮像素子204を介して得られる画像データから画像のコントラストを評価するための評価値を算出する。ボディCPU2201は、この評価値及び演算装置1から出力される注目部分の情報に従ってフォーカスレンズのAF制御を行う。ここで、算出される評価値は、レンズ駆動量に基づく撮像部と被写体との距離を示す距離情報を含む。ボディCPU2201は、当該距離情報を演算装置1に送信してもよい。
 このように、コントラストAF回路2202及びボディCPU2201は、撮像部と被写体との距離を示す距離情報を取得する距離情報取得部としても機能する。なお、距離情報取得部は、上述の構成によってコントラストAFの過程で距離情報を取得する手法に限らず、種々の構成をとることによって種々の手法で距離情報を取得してもよい。例えば、像面位相差AF機能を有する場合、特徴部分の代表位置又はユーザ指示位置に近接する位相差画素から算出される距離の値を距離情報として取得することも合理的である。また、像面位相差AF機能を有する場合に取得される距離情報は、近接する複数の位相差画素から算出される距離の値を、当該各位相差画素の位置から代表位置又はユーザ指示位置までの位置の差分を重みとして平均したものであってもよい。いずれにしても、距離情報取得部は、撮像部と被写体との距離を示す距離情報を取得し、当該距離情報を演算装置1へ送信する機能を有する。また、距離情報取得部は、撮像部によって撮像された画像データの被写界深度の情報を、演算装置1に出力する機能を有していてもよい。
 SDRAM制御回路2203は、SDRAM207へのデータの書込み及び読出しを制御する。フラッシュメモリ制御回路2204は、フラッシュメモリ209へのデータの書込み及び読出しを制御する。記録媒体制御回路2205は、記録媒体208へのデータの書込み及び読出しを制御する。
 画像処理回路2206は、前処理回路206において得られ、SDRAM207に格納された画像データに対して各種の画像処理を施す。この画像処理は、画像の色バランスを補正するホワイトバランス補正処理、画像の色を補正する色補正処理、画像の階調を補正する階調補正処理等の後処理が含まれる。画像処理回路2206は、各種の画像処理を開始する前に、演算装置1において選択された画像データ内の注目部分の情報を受信する。画像処理回路2206は、当該注目部分に基づき、画像処理を実行する。画像処理回路2206において画像処理された画像データはSDRAM207に再び格納される。圧縮伸長回路2207は、画像処理後の画像データを読出し、読出した画像データをJPEG方式等の所定の圧縮形式で圧縮する。また、圧縮伸長回路2207は、画像の再生時には、圧縮済みの画像データを読出し、読出した画像データを伸長することも行う。
 ビデオ信号出力回路2208は、SDRAM207から画像データを読み出し、読み出した画像データをビデオ信号に変換してモニタ駆動回路210に出力する。タッチセンサ212とともに入力検出部として機能するタッチセンサ入力回路2209は、タッチセンサ212からの信号から、タッチセンサ212上におけるユーザの指のタッチ位置や指の動きを解析し、解析した結果をボディCPU2201に出力する。
 操作入力検知回路2210は、操作部213の各操作部の操作状態を検知し、検知結果をボディCPU2201に通知する。操作入力検知回路2210を介して操作部の操作が検知された場合に、ボディCPU2201は、操作された操作部の操作内容に応じた制御を実行する。
 入出力回路2211は、撮像素子駆動回路205やシャッタ駆動機構202の制御を行うための信号を制御回路217から出力するためのインターフェース回路である。通信回路2212は、カメラボディ200のボディCPU2201と交換レンズ100のレンズCPU105との通信を行うための各種処理を行う。データバス2213は、前処理回路206において得られた画像データや画像処理回路2206で処理された画像データ等の種々のデータを転送するための転送路である。
 演算装置1は、撮像部によって撮影された画像データ、及びユーザ指示位置取得部によって取得されたユーザ指示位置の入力を受付ける。また、演算装置1は、距離情報取得部によって取得された距離情報の入力を受付けてもよい。演算装置1は、入力された画像データに対して、順次第1乃至第3の実施形態で説明した演算処理を行う。当該演算処理が実行されると、演算装置1は、各種の後処理に使用するため、画像データ内で選択された注目部分の情報をボディCPU2201に送信する。ボディCPU2201によって実行制御された各種の後処理が反映された画像データは、背面モニタ211に表示され、ユーザに提示される。
 以上説明したように、第4の実施形態においては、撮像部は、撮像して得られた画像データを出力する。ユーザ指示位置取得部は、画像データ内におけるユーザ指示位置を取得する。演算装置1は、第1乃至第3の実施形態で説明した通り、注目部分を選択するようにしている。これにより、ユーザの意図した注目部分が適切に選択され、ユーザの意図した後処理を実行することができる。また、背面モニタ211は、ユーザの意図する後処理が実行された画像をユーザに提示する。これにより、ユーザの使用感を損ねることなく、種々の後処理が実行された画像を提供することができる。
 以上各実施形態に基づいて本発明を説明したが、本発明は上述した各実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能である。すなわち、第4の実施形態の技術は、例えば、スマートフォン等の携帯端末が有するカメラのように、レンズを交換しないカメラに適用してもよい。また、第4の実施形態の技術は、撮像部及び制御回路217と、ユーザ指示位置取得部とが構造的に分離し、或いは撮像部と、制御回路217及びユーザ指示位置取得部とが構造的に分離し、互いに無線通信する形態の撮像装置にも適用可能である。
 また、上述した各実施形態における演算装置による各処理の手法、即ち、各フローチャートに示す処理は、何れも制御回路217に実行させることができるプログラムとして記憶させておくこともできる。この他、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリ等の外部記憶装置に格納して配布することができる。ここで、外部記憶装置は、非一時的なコンピュータ読取可能な記憶媒体(non transitory computer readable storage medium)と呼んでもよい。そして、制御回路217は、この外部記憶装置の記憶媒体に記憶されたプログラムを読込み、この読込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。
 また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用
いて動作を説明しているが、この順で動作を実施することが必須であることを意味するも
のではない。
 さらに、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。

Claims (8)

  1.  画像データの入力を受付けることと、
     前記入力を受付けた画像データから特徴部分の代表位置を検出することと、
     前記画像データ内におけるユーザ指示位置を取得することと、
     前記検出された代表位置及び前記取得されたユーザ指示位置の差を示す位置差を算出することと、
     前記算出された位置差が予め定めた第1閾値未満の場合、前記特徴部分の代表位置を注目部分として選択し、前記位置差が前記第1閾値未満でない場合、前記ユーザ指示位置を注目部分として選択することと
     を備える演算方法。
  2.  前記特徴部分の領域を検出することを更に備え、
     前記第1閾値は、前記特徴部分の領域の大きさに基づいて定められる
     請求項1に記載の演算方法。
  3.  前記画像データを取得した撮像部と前記特徴部分の代表位置に対応する被写体との距離を示す第1距離情報、及び前記撮像部と前記ユーザ指示位置に対応する被写体との距離を示す第2距離情報をそれぞれ取得することと、
     前記第1距離情報が示す距離と、前記第2距離情報が示す距離との差を示す奥行差を算出することと、を更に備え、
     前記注目部分を選択することは、前記位置差が前記第1閾値未満かつ前記奥行差が予め定めた第2閾値未満の場合、前記特徴部分の代表位置を注目部分として選択し、前記位置差が前記第1閾値未満でない又は前記奥行差が前記第2閾値未満でない場合、前記ユーザ指示位置を注目部分として選択することを含む、
     請求項1に記載の演算方法。
  4.  前記第2閾値は、前記撮像部において設定された被写界深度に基づいて定められる
     請求項3に記載の演算方法。
  5.  前記代表位置を検出することは、複数の特徴部分の各々の代表位置を検出することを含み、
     前記注目部分を選択することは、前記検出された各々の代表位置と、前記取得されたユーザ指示位置との位置差に基づき、複数の注目部分を選択することを含む、
     請求項1に記載の演算方法。
  6.  前記画像データの入力を受付けることは、時系列の画像データの入力を受付けることを含み、
     前記代表位置を検出することは、前記入力された時系列の画像データの各々から代表位置を検出することを含み、
     前記検出された代表位置の時系列変化に基づき、当該代表位置の信頼度を算出することを更に備え、
     前記注目部分を選択することは、前記算出された信頼度と、前記検出された各代表位置及び前記取得されたユーザ指示位置の差を示す位置差とに基づき、注目部分を選択することを含む、
     請求項1に記載の演算方法。
  7.  演算装置に、
     画像データの入力を受付けることと、
     前記入力を受付けた画像データから特徴部分の代表位置を検出することと、
     前記画像データ内におけるユーザ指示位置を取得することと、
     前記検出された特徴部分の代表位置及び前記取得されたユーザ指示位置の差を示す位置差を算出することと、
     前記算出された位置差が予め定めた第1閾値未満の場合、前記特徴部分の代表位置を注目部分として選択し、前記位置差が前記第1閾値未満でない場合、前記ユーザ指示位置を注目部分として選択することと、
     を実行させるためのプログラム。
  8.  撮像して得られた画像データを出力する撮像部と、
     前記画像データから特徴部分の代表位置を検出する特徴部分検出部と、
     前記画像データ内におけるユーザ指示位置を取得するユーザ指示位置取得部と、
     前記検出された特徴部分の代表位置及び前記取得されたユーザ指示位置の差を示す位置差を算出する位置差算出部と、
     前記算出された位置差が予め定めた第1閾値未満の場合、前記特徴部分の代表位置を注目部分として選択し、前記位置差が前記第1閾値未満でない場合、前記ユーザ指示位置を注目部分として選択する注目部分選択部と、
     を備える撮像装置。
PCT/JP2015/067268 2015-06-16 2015-06-16 演算方法、演算プログラム及び撮像装置 WO2016203536A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2015/067268 WO2016203536A1 (ja) 2015-06-16 2015-06-16 演算方法、演算プログラム及び撮像装置
CN201580080941.3A CN107736009A (zh) 2015-06-16 2015-06-16 运算方法、运算程序和拍摄装置
JP2017524172A JPWO2016203536A1 (ja) 2015-06-16 2015-06-16 演算方法、演算プログラム及び撮像装置
US15/827,572 US10438372B2 (en) 2015-06-16 2017-11-30 Arithmetic method, imaging apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/067268 WO2016203536A1 (ja) 2015-06-16 2015-06-16 演算方法、演算プログラム及び撮像装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/827,572 Continuation US10438372B2 (en) 2015-06-16 2017-11-30 Arithmetic method, imaging apparatus, and storage medium

Publications (1)

Publication Number Publication Date
WO2016203536A1 true WO2016203536A1 (ja) 2016-12-22

Family

ID=57545640

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/067268 WO2016203536A1 (ja) 2015-06-16 2015-06-16 演算方法、演算プログラム及び撮像装置

Country Status (4)

Country Link
US (1) US10438372B2 (ja)
JP (1) JPWO2016203536A1 (ja)
CN (1) CN107736009A (ja)
WO (1) WO2016203536A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021015345A (ja) * 2019-07-10 2021-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、および表示制御装置
CN111147749A (zh) * 2019-12-31 2020-05-12 宇龙计算机通信科技(深圳)有限公司 拍摄方法、拍摄装置、终端及存储介质
JP2021197623A (ja) * 2020-06-12 2021-12-27 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
CN115619410B (zh) * 2022-10-19 2024-01-26 闫雪 自适应金融支付平台

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225317A (ja) * 1991-12-13 1993-09-03 Nec Corp 座標データ指定制御方式
JP4625356B2 (ja) * 2005-03-30 2011-02-02 セイコーエプソン株式会社 ユーザ負担を低減した画像のトリミング

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4530067B2 (ja) * 2008-03-27 2010-08-25 ソニー株式会社 撮像装置、撮像方法及びプログラム
WO2010073619A1 (ja) * 2008-12-26 2010-07-01 パナソニック株式会社 撮像装置
GB2489675A (en) * 2011-03-29 2012-10-10 Sony Corp Generating and viewing video highlights with field of view (FOV) information
JP5848561B2 (ja) * 2011-09-20 2016-01-27 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP6083987B2 (ja) * 2011-10-12 2017-02-22 キヤノン株式会社 撮像装置、その制御方法及びプログラム
US9299168B2 (en) * 2012-03-06 2016-03-29 Apple Inc. Context aware user interface for image editing
KR102155094B1 (ko) * 2014-08-28 2020-09-11 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225317A (ja) * 1991-12-13 1993-09-03 Nec Corp 座標データ指定制御方式
JP4625356B2 (ja) * 2005-03-30 2011-02-02 セイコーエプソン株式会社 ユーザ負担を低減した画像のトリミング

Also Published As

Publication number Publication date
US20180082437A1 (en) 2018-03-22
CN107736009A (zh) 2018-02-23
JPWO2016203536A1 (ja) 2018-03-29
US10438372B2 (en) 2019-10-08

Similar Documents

Publication Publication Date Title
US11172133B2 (en) Zoom control device, control method of zoom control device, and recording medium
US10009540B2 (en) Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data
US8786760B2 (en) Digital photographing apparatus and method using face recognition function
JP5136669B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5669549B2 (ja) 撮像装置
US8026932B2 (en) Image processing apparatus, image processing method, image processing program, and image pickup apparatus
US8553134B2 (en) Imager processing a captured image
JP6474693B2 (ja) 焦点検出装置、焦点検出方法、および記録媒体
US20160191810A1 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
JP5911557B2 (ja) 撮像装置
US10212353B2 (en) Display control apparatus and method of controlling display control apparatus
JP2014081420A (ja) 追尾装置及びその方法
WO2016203536A1 (ja) 演算方法、演算プログラム及び撮像装置
US8743209B2 (en) Image pickup apparatus and method for controlling the same
US11388331B2 (en) Image capture apparatus and control method thereof
US10757326B2 (en) Image processing apparatus and image processing apparatus control method
KR101665175B1 (ko) 화상 취득 장치, 화상 취득 방법 및 기록매체
JP5370555B2 (ja) 撮像装置、撮像方法及びプログラム
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP5109779B2 (ja) 撮影装置
JP2007005966A (ja) 露出量算出システムならびにその制御方法およびその制御プログラム
JP2019169985A (ja) 画像処理装置
JP2011125051A (ja) 画像データ生成装置、画像データ生成方法
JP2008182359A (ja) 顔認識撮像装置
JP2019169023A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15895557

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017524172

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15895557

Country of ref document: EP

Kind code of ref document: A1