CN107736009A - 运算方法、运算程序和拍摄装置 - Google Patents

运算方法、运算程序和拍摄装置 Download PDF

Info

Publication number
CN107736009A
CN107736009A CN201580080941.3A CN201580080941A CN107736009A CN 107736009 A CN107736009 A CN 107736009A CN 201580080941 A CN201580080941 A CN 201580080941A CN 107736009 A CN107736009 A CN 107736009A
Authority
CN
China
Prior art keywords
user
characteristic
indicating positions
threshold value
view data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580080941.3A
Other languages
English (en)
Inventor
古桥幸人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of CN107736009A publication Critical patent/CN107736009A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

图像数据输入部(11)受理图像数据的输入。特征部分检测部(12)从受理了输入的图像数据中检测特征部分的代表位置。用户指示位置取得部(13)取得图像数据内的用户指示位置。位置差计算部(14)计算表示检测出的代表位置与所取得的用户指示位置之差的位置差。在计算出的位置差小于预先确定的第1阈值的情况下,关注部分选择部(15)选择特征部分的代表位置作为代表部分,在位置差不小于第1阈值的情况下,关注部分选择部(15)选择用户指示位置作为关注部分。

Description

运算方法、运算程序和拍摄装置
技术领域
本发明涉及运算方法、运算程序和拍摄装置。
背景技术
已知有为了对图像数据进行用户期望的后处理,自动检测图像数据内的应关注的部分的方法。例如,在日本特许第4625356号公报中,提出有如下技术:图像处理装置选择从图像数据内检测出的特征部分的位置作为关注部分,并根据该关注部分裁剪图像数据。在日本特许第4625356号公报的技术中,图像处理装置通过检测表示人的面部的部分、合焦的部分、以及表示水平线或者铅直线中的至少一方的部分中的至少1个作为特征部分,选择关注部分。
另一方面,以智能手机为代表的具有触摸AF(Auto Focus:自动对焦)或触摸快门功能的拍摄装置能够容易地指示用户想关注的位置。
发明内容
在日本特许第4625356号公报的技术中,在从图像数据内检测出的特征部分与基于用户操作的指示位置一致的情况下,图像处理装置能够选择用户关注的指示位置作为关注部分。与此相对,在日本特许第4625356号公报的技术中,在特征部分与用户的指示位置不一致的情况下,图像处理装置有可能选择用户不关注的指示位置作为关注部分。例如,在以特征部分为目标,用户指示出的位置从特征部分偏离的情况下,有可能选择了用户不关注的指示位置作为关注部分。此外,例如,即使在用户有意指示了从特征部分偏离的位置的情况下,也有可能选择用户不关注的特征部分作为关注部分。
本发明正是鉴于上述情况而完成的,其目的在于提供一种能够选择用户期望的图像数据内的关注部分的运算方法、运算程序和拍摄装置。
为了实现上述目的,本发明的第1方式的运算方法的特征在于,包括:受理图像数据的输入;从受理了所述输入的图像数据中检测特征部分的代表位置;取得所述图像数据内的用户指示位置;计算表示所述检测出的代表位置与所述取得的用户指示位置之差的位置差;以及在所述计算出的位置差小于预先确定的第1阈值的情况下,选择所述特征部分的代表位置作为关注部分,在所述位置差不小于所述第1阈值的情况下,选择所述用户指示位置作为关注部分。受理图像数据的输入;从受理了所述输入的图像数据中检测特征部分的代表位置;取得所述图像数据内的用户指示位置;计算表示所述检测出的代表位置与所述取得的用户指示位置之差的位置差;以及在所述计算出的位置差小于预先确定的第1阈值的情况下,选择所述特征部分的代表位置作为关注部分,在所述位置差不小于所述第1阈值的情况下,选择所述用户指示位置作为关注部分。
为了达成上述目的,本发明的第2方式的运算程序的特征在于使运算装置执行:受理图像数据的输入;从受理了所述输入的图像数据中检测特征部分的代表位置;取得所述图像数据内的用户指示位置;计算表示所述检测出的特征部分的代表位置与所述取得的用户指示位置之差的位置差;以及在所述计算出的位置差小于预先确定的第1阈值的情况下,选择所述特征部分的代表位置作为关注部分,在所述位置差不小于所述第1阈值的情况下,选择所述用户指示位置作为关注部分。
为了达成上述目的,本发明的第3方式的拍摄装置的特征在于,具有:摄像部,其输出拍摄而获得的图像数据;特征部分检测部,其从所述图像数据中检测特征部分的代表位置;用户指示位置取得部,其取得所述图像数据内的用户指示位置;位置差计算部,其计算表示所述检测出的特征部分的代表位置与所述取得的用户指示位置之差的位置差;以及关注部分选择部,其在所述计算出的位置差小于预先确定的第1阈值的情况下,选择所述特征部分的代表位置作为关注部分,在所述位置差不小于所述第1阈值的情况下,选择所述用户指示位置作为关注部分。
发明效果
根据本发明,可提供一种能够选择用户期望的图像数据内的关注部分的运算方法、运算程序和拍摄装置。
附图说明
图1是示出本发明的第1实施方式的运算装置的功能结构的一例的框图。
图2是示出第1实施方式中的运算装置的动作的一例的流程图。
图3是示出第1实施方式中的图像数据的一例的示意图。
图4是示出第1实施方式中的图像数据的一例的示意图。
图5是示出第1实施方式中的图像数据的一例的示意图。
图6是示出本发明的第2实施方式的运算装置的功能结构的一例的框图。
图7是示出第2实施方式中的关注部分选择逻辑的一例的示意图。
图8是示出第2实施方式中的运算装置的动作的一例的流程图。
图9是示出第2实施方式中的图像数据的一例的示意图。
图10是示出第2实施方式中的图像数据的一例的示意图。
图11是示出本发明的第3实施方式的运算装置的功能结构的一例的框图。
图12是示出第3实施方式中的运算装置的动作的一例的流程图。
图13是示出本发明的第4实施方式的拍摄装置的功能结构的一例的框图。
具体实施方式
以下,参照附图对本发明涉及的各实施方式进行说明。另外,以下的运算装置可以使用用于使计算机作为从图像数据中选择关注部分的运算装置发挥功能的程序来实现。即,运算装置可以利用存储器或CPU(Central Processing Unit:中央处理器)等硬件资源和与该硬件资源协作的软件的程序来实现功能块的功能。
[第1实施方式]
图1是示出本发明的第1实施方式的运算装置的一例的功能结构的框图。运算装置1具有如下功能:为了进行反映了用户的意图的后处理,执行利用了图像数据的特征的运算。具体而言,运算装置1具有选择针对所输入的图像数据而检测出的特征部分的代表位置和用户所指示的用户指示位置中的任意一个作为关注部分的功能。这里,后处理例如可举出涉及所选择的关注部分的AF或裁剪等。图1所示的运算装置1具有图像数据输入部11、特征部分检测部12、用户指示位置取得部13、位置差计算部14和关注部分选择部15。
图像数据输入部11受理图像数据的输入。图像数据输入部11向特征部分检测部12发送受理了输入的图像数据。另外,作为输入到图像数据输入部11的图像数据,可以直接输入由未图示的摄像部拍摄的图像数据,也可以经由存储介质等输入。此外,图像数据不限于由摄像部拍摄的图像数据,也可以是CG(Computer Graphics:计算机图形)等图像数据。此外,图像数据输入部11可以通过有线通信输入图像数据,也可以通过无线通信输入。
特征部分检测部12从图像数据输入部11接收图像数据,执行用于计算图像数据内的特征量的解析。特征部分检测部12根据作为解析的结果而计算出的特征量,从图像数据中检测特征部分的代表位置。特征部分的代表位置例如被检测为与在2维上分布的图像数据的配置对应的坐标。特征部分检测部12向位置差计算部14和关注部分选择部15发送检测出的图像数据的特征部分的代表位置的信息。
这里,图像数据内的特征量能够应用在人体的部位、宠物、花、料理、蓝天、云等作为物品具有名称的部分中被提取的特征性的量。此外,利用特征量检测的特征部分不限于作为物品具有名称的部分,也可以是能够应用如饱和度和亮度的变化量或空间频率的高度这样的指标、该指标较高或者较低的部分且作为物品不具有名称的部分。
另外,特征部分检测部12检测的特征部分除了代表位置以外,还可以包含区域。特征部分的区域能够作为计算出的特征量超过预先设定出的阈值的区域或至少包含特征量超过该阈值的区域的矩形区域等任意形状而被检测出。此外,关于具有区域的特征部分的代表位置,能够设定在该区域内具有最大特征量的像素的位置或该区域的中心等,但不限于此,也能够设定区域内的任意位置。在特征部分包含区域的情况下,特征部分检测部12向关注部分选择部15发送代表位置和区域的信息。
此外,特征部分检测部12可以根据对图像数据执行的解析的结果,检测多个特征部分各自的代表位置。在该情况下,特征部分检测部12可以将多个特征部分识别为分别独立的多个特征部分。此外,特征部分检测部12可以通过按照每个特征类别对多个特征部分进行分组,识别为1个特征部分。特征部分检测部12向位置差计算部14发送检测出的多个特征部分中的各个代表位置的信息,向关注部分选择部15发送检测出的多个特征部分各自的代表位置和区域的信息。
这里,作为分组后的特征部分的代表位置,能够设定组的中心、各特征部分的代表位置的重心或用各特征部分的区域的面积进行加权的情况下的各代表位置的重心。此外,特征部分检测部12可以从用户指示位置取得部13接收后述的图像数据的用户指示位置,使用该用户指示位置设定特征部分的代表位置。即,特征部分检测部12能够设定用表示各特征部分的代表位置与用户指示位置之差的位置差(以下,称作“位置差”。)进行了加权的情况下的各代表位置的重心或者最接近用户指示位置的特征部分的代表位置,作为分组后的特征部分的代表位置。
用户指示位置取得部13根据通过用户的操作而输入的操作信息,取得图像数据的用户指示位置。这里,作为用户指示位置的例子,具有作为合焦的位置的合焦指示位置、作为执行图像处理的位置的图像处理指示位置等。用户指示位置取得部13例如通过用户对显示有图像数据的画面上的触摸操作,取得操作信息。用户指示位置取得部13根据所取得的操作信息,取得图像数据上的该被触摸的部分的坐标,作为用户指示位置。另外,用户指示位置取得部13不限于对画面上进行触摸的方法,也能够通过由用户使显示在画面上的光标移动的方法或直接输入坐标的方法等任意方法取得操作信息。用户指示位置取得部13向特征部分检测部12、位置差计算部14和关注部分选择部15发送所取得的用户指示位置的信息。
位置差计算部14从特征部分检测部12接收特征部分的代表位置的信息,从用户指示位置取得部13接收用户指示位置的信息。位置差计算部14计算特征部分的代表位置与用户指示位置的位置差,向关注部分选择部15发送该位置差的信息。位置差例如被计算为用户指示位置与特征部分的代表位置之间的坐标上的距离、或者存在于用户指示位置与特征部分的代表位置之间的像素数等值。此外,在从特征部分检测部12接收到多个特征部分各自的代表位置的信息的情况下,位置差计算部14计算各代表位置的位置差,发送到关注部分选择部15。
关注部分选择部15从特征部分检测部12接收特征部分的代表位置的信息,从用户指示位置取得部13接收用户指示位置的信息。此外,关注部分选择部15从位置差计算部14接收位置差的信息,根据该接收到的位置差选择关注部分。在位置差小于预先确定的阈值(以下,称作“第1阈值”。)的情况下,关注部分选择部15选择特征部分的代表位置作为关注部分,在位置差为第1阈值以上的情况下,关注部分选择部15选择用户指示位置作为关注部分。
这里,关注部分是在对图像数据执行后处理时作为基准的部分。具体而言,后处理包含摄影动作和图像处理。这里,作为摄影动作的例子,包含AF、AE(Auto Exposure:自动曝光)等动作。在这样的摄影动作的后处理中,关注部分利用位置信息进行定义。此外,作为图像处理的例子,包含裁剪、白平衡校正、构图、艺术过滤、艺术效果等特殊效果这样的各种处理。在这样的特殊效果的后处理中,关注部分除了利用位置的信息以外,优选还利用区域信息进行定义。即,关注部分根据被执行的后处理,不限于如上所述的基于应关注的位置的定义,还可以利用应关注的位置和区域进行定义。
关注部分选择部15还可以接收特征部分的区域的信息,并根据该区域的大小确定第1阈值的值。即,在区域的大小较大的情况下,关注部分选择部15将第1阈值设定得较大,在区域的大小较小的情况下,关注部分选择部15将第1阈值设定得较小。在该情况下,第1阈值不限于固定值,也可以根据将代表特征部分的区域的数值作为参数的函数来进行计算。具体而言,第1阈值可以设为对代表特征部分的区域的数值乘以预先设定的系数(例如1.2)所得的值。这里,代表特征部分的区域的数值例如能够适当应用包含该区域的圆的直径、包含该区域的矩形的一个边的长度、该区域的面积等。
此外,在接收到多个位置差的信息的情况下,关注部分选择部15根据该多个位置差选择关注部分。在接收到的各位置差全部为第1阈值以上的情况下,关注部分选择部15将用户指示位置判定为关注部分。在存在各位置差小于第1阈值的特征部分的情况下,关注部分选择部15提取该特征部分。在提取出的特征部分为1个的情况下,关注部分选择部15选择该特征部分的代表位置作为关注部分,在存在多个提取出的特征部分的情况下,关注部分选择部15选择位置差最小的特征部分的代表位置作为关注部分。另外,在存在多个提取出的特征部分的情况下,关注部分选择部15选择将该多个特征部分作为1个组的情况下的代表位置作为关注部分。在该情况下,可以将所选择的关注部分的区域设为包含该成组后的多个特征部分各自的代表位置或各自的区域的区域。
另外,在接收到多个位置差的信息的情况下,关注部分选择部15可以选择多个关注部分。具体而言,在提取出多个位置差小于第1阈值的特征部分的情况下,关注部分选择部15分别选择该多个特征部分各自的代表位置作为关注部分。在该情况下,所选择的关注部分的区域可以设为与被选择为关注部分的代表位置对应的特征部分区域,也可以设为包含所提取的多个特征部分区域的区域。
接着,使用图2所示的流程图对如上这样的第1实施方式的运算装置的具体动作的一例进行说明。
首先,在步骤ST110中,图像数据输入部11受理图像数据的输入,向特征部分检测部12发送受理了该输入的图像数据。
在步骤ST120中,特征部分检测部12对接收到的图像数据执行解析,检测特征部分的代表位置。特征部分检测部12向位置差计算部14和关注部分选择部15发送检测出的特征部分的代表位置的信息。
在步骤ST130中,用户指示位置取得部13根据用户的操作信息,取得图像数据内的用户指示位置。用户指示位置取得部13向位置差计算部14和关注部分选择部15发送所取得的用户指示位置。
在步骤ST140中,位置差计算部14计算接收到的特征部分的代表位置与用户指示位置的位置差。位置差计算部14向关注部分选择部15发送计算出的位置差的信息。
在步骤ST150中,关注部分选择部15根据接收到的位置差选择关注部分。具体而言,关注部分选择部15判定位置差是否小于第1阈值。在判定为位置差小于第1阈值的情况下,关注部分选择部15选择特征部分的代表位置作为关注部分,在判定为位置差不小于第1阈值的情况下,关注部分选择部15选择用户指示位置作为关注部分。
如以上说明那样,在第1实施方式中,位置差计算部14计算由特征部分检测部12检测出的特征部分的代表位置与由用户指示位置取得部13取得的用户指示位置之间的位置差。关注部分选择部15根据计算出的位置差选择关注部分。此外,关注部分选择部15判定位置差是否小于预先确定的第1阈值,在小于第1阈值的情况下,关注部分选择部15选择特征部分的代表位置作为关注部分,在位置差不小于第1阈值的情况下,关注部分选择部15选择用户指示位置作为关注部分。由此,能够针对用户指示的用户指示位置和其附近存在的特征部分判定应选择哪个作为关注部分。
例如,用户以指示图像数据内的面部为意图,触摸画面等而指示用户指示位置。在这样的情况下,用户指示位置取得部13很多情况下会取得身体等的除了面部以外的部位、或者被检测为特征部分的面部周边的背景区域的位置,作为用户指示位置。但是,运算装置1通过评价面部的代表位置与用户指示位置之间的位置差小于第1阈值,能够选择面部作为关注部分。
此外,在另一例子中,用户以指示面部以外的位置为意图,指示与面部离开的位置的建筑物作为用户指示位置。在这样的情况下,运算装置1通过评价面部的代表位置与用户指示位置之间的位置差为第1阈值以上,能够选择建筑物作为关注部分。
因此,运算装置1能够选择用户期望的关注部分,能够执行切合用户意图的后处理。在执行例如裁剪作为后处理的例子的情况下,裁剪后的图像能够包含符合使用者的意图的被摄体。此外,在执行AF作为后处理的情况下,能够将符合使用者的意图的位置决定为合焦位置,进行合焦并拍摄。因此,能够在触摸了从应关注的位置稍微偏离的位置时,避免合焦到所触摸的位置。因此,能够避免图像取得由于微小的触摸偏离引起的失焦相片。
接着,对第1实施方式的动作的若干个变形例进行说明。
(第1变形例)
首先,关于特征部分包含区域的情况下的第1变形例的动作,作为输入了图3所示的图像数据101a和图4所示的图像数据102a进行说明。这里,假设关注部分选择部15针对图像数据101a选择特征部分的代表位置作为关注部分,针对图像数据102a选择用户指示位置作为关注部分。另外,图像数据101a、102a均为相同的画面尺寸。
在步骤ST110中,图像数据输入部11受理图像数据101a、102a的输入。这里,从包含人和背景作为被摄体的方面来看,各图像数据101a、102a是相同的构图,但不同点在于图像数据101a的被摄体被拍得比图像数据102a的被摄体大。
在步骤ST120中,特征部分检测部12针对各图像数据101a、102a检测特征部分。特征部分检测部12针对各图像数据101a、102a的任意一方都检测作为被摄体的人的面部中心作为特征部分的代表位置。这里,假设图像数据101a的代表位置101b和图像数据102a的代表位置102b均在画面上的相同的位置处被检测出。
此外,特征部分检测部12还检测包含人的面部的矩形区域,作为特征部分区域。这里,假设检测图像数据101a的面部区域101c被检测出比图像数据102a的面部区域102c大的区域。
在步骤ST130中,用户指示位置取得部13取得各图像数据101a、102a内的用户指示位置。用户指示位置取得部13针对各图像数据101a、102a的任意一方均取得背景的一部分作为用户指示位置。这里,假设图像数据101a的用户指示位置101d和图像数据102a的用户指示位置102d均为画面上的相同位置。
在步骤ST140中,位置差计算部14计算各图像数据101a、102a内的位置差。如上所述,图像数据101a中的特征部分的代表位置101b和用户指示位置101d的位置关系与图像数据102a中的特征部分的代表位置102b和用户指示位置102d的位置关系相同。因此,位置差计算部14针对各图像数据101a、102a计算相同值的位置差。
在步骤ST150中,关注部分选择部15选择关注部分。关注部分选择部15根据在各图像数据101a、102a内检测出的作为特征部分的人的面部的区域的大小,确定应用于各图像数据101a、102a的第1阈值。这里,图像数据101a的面部区域101c大于图像数据102a的面部区域102c。因此,针对图像数据101a所设定的第1阈值被设定为比针对图像数据102a所设定的第1阈值大的值。其结果,针对图像数据101a所设定的第1阈值大于位置差,针对图像数据102a所设定的第1阈值小于位置差。因此,关注部分选择部15针对图像数据101a选择作为特征部分的代表位置的面部作为关注部分,针对图像数据102a选择作为用户指示位置的背景作为关注部分。
这样,在第1变形例中,特征部分检测部12还检测特征部分的区域。关注部分选择部15根据该特征部分的区域的大小确定第1阈值。由此,关注部分选择部15能够根据特征部分的区域的大小更加合理地解释由用户指示的用户指示位置的意图,选择关注的部分。
(第2变形例)
接着,针对检测多个特征部分各自的代表位置的情况下的第2变形例的动作,作为输入了图5所示的图像数据103a进行说明。这里,假设关注部分选择部15选择多个特征部分各自的代表位置作为关注部分。
在步骤ST110中,图像数据输入部11受理图像数据103a的输入。这里,图像数据103a包含2个人作为被摄体,各人在画面上接近并重叠地拍摄出。
在步骤ST120中,特征部分检测部12针对图像数据103a检测特征部分的代表位置。特征部分检测部12分别检测作为图像数据103a的被摄体的2个人的面部的中心,作为特征部分的代表位置103b、103d。此外,特征部分检测部12还检测包含各人的面部的2个特征部分区域103c、103e。
在步骤ST130中,用户指示位置取得部13取得图像数据103a内的用户指示位置。用户指示位置取得部13取得接近图像数据103a内的各人中的任意一个人的位置,作为用户指示位置103f。
在步骤ST140中,位置差计算部14计算图像数据103a内的位置差。如上所述,图像数据103a中的2个特征部分的代表位置103b、103d与用户指示位置101f的位置关系非常接近。因此,被计算的2个位置差均被计算为比第1阈值小的值。
在步骤ST150中,关注部分选择部15选择关注部分。这里,计算出的2个位置差均较小。因此,关注部分选择部15针对图像数据103a选择2个特征部分的代表位置103b、103d作为关注部分。此外,关注部分选择部15可以分别将被选择为关注部分的各特征部分的区域103c、103e设定为各关注部分的区域。此外,关注部分选择部15可以设定包含各区域103c、103e的区域103g,作为各关注部分的区域。
这样,在第2变形例中,特征部分检测部12检测多个特征部分各自的代表位置。关注部分选择部15根据该各个代表位置与用户指示位置之间的位置差,选择多个关注部分。由此,在特征部分构成组的情况下,关注部分选择部15通过将组内的全部特征部分作为关注部分来处理,能够执行切合用户的意图的后处理。例如,在执行裁剪作为后处理的情况下,根据1张图像数据,生成关注部分不同的多个裁剪图像。因此,用户能够根据变化丰富的裁剪图像,取得符合用户意图的图像。此外,在执行AF作为后处理的情况下,能够根据1张图像数据,对多个关注部分执行对焦包围曝光(Focus Bracket)摄影。因此,关注部分选择部15能够从关注部分中排除非用户期望的部分,并提供包含用户期望的图像在内的多个图像。
[第2实施方式]
图6是示出本发明的第2实施方式的运算装置的一例的功能结构的框图。第2实施方式构成为,通过在第1实施方式中进一步考虑从拍摄装置到被摄体的距离信息,能够进一步选择图像数据内的用户期望的关注部分。具体而言,图6所示的运算装置1还具有距离信息取得部16和深度差计算部17。以下,对与图1相同的部分标注相同的标号并省略其详细的说明,主要对不同部分进行叙述。
特征部分检测部12向距离信息取得部16发送检测出的特征部分的代表位置。在检测出多个特征部分各自的代表位置的情况下,特征部分检测部12向距离信息取得部16发送该多个特征部分的代表位置。用户指示位置取得部13向距离信息取得部16发送所取得的用户指示位置。
距离信息取得部16取得距离信息,该距离信息表示拍摄了输入到图像数据输入部11中的图像数据的拍摄装置与该图像数据内的被摄体之间的距离。具体而言,距离信息取得部16从特征部分检测部12接收图像数据内的特征部分的代表位置,从用户指示位置取得部13接收图像数据内的用户指示位置。距离信息取得部16取得表示拍摄装置与相当于特征部分的代表位置的被摄体之间的距离的距离信息(以下,称作“第1距离信息”。)、以及表示拍摄装置与相当于用户指示位置的被摄体之间的距离的距离信息(以下,称作“第2距离信息”。)。在从特征部分检测部12接收到多个特征部分的代表位置的情况下,距离信息取得部16针对该多个特征部分的代表位置分别取得多个第1距离信息。距离信息取得部16向深度差计算部17发送所取得的各距离信息。
另外,距离信息取得部16可以通过用户的操作输入数值等,由此取得距离信息。此外,距离信息取得部16可以从该摄像部取得表示摄像部与被摄体之间的距离的距离信息。例如,距离信息取得部16可以通过相位差AF、DFD(Depth from Defocus:散焦深度)、光场等方法,与涉及拍摄范围全体的深度的信息一起从摄像部取得距离信息。此外,距离信息取得部可以通过构成为使用来自未图示的激光器等其他传感器的输出,从摄像部取得距离信息。
深度差计算部17从距离信息取得部16接收第1距离信息和第2距离信息。深度差计算部17根据第1距离信息和第2距离信息,计算从拍摄装置到相当于特征部分的代表位置的被摄体的距离、与从拍摄装置到相当于用户指示位置的被摄体的距离之差(以下,称作“深度差”。)。深度差计算部17向关注部分选择部15发送计算出的深度差的信息。此外,在从距离信息取得部16接收到多个特征部分各自的代表位置的距离信息的情况下,深度差计算部17针对特征部分各自的代表位置计算深度差,发送到关注部分选择部15。
关注部分选择部15从深度差计算部17接收深度差的信息。关注部分选择部15根据深度差和位置差选择关注部分。图7是示出关注部分选择部15的基于位置差和深度差的关注部分选择逻辑的一例的示意图。在图7的例子中,在位置差小于第1阈值且深度差小于预先确定的阈值(以下,称作“第2阈值”。)的情况下,关注部分选择部15选择特征部分的代表位置作为关注部分。此外,在位置差不小于第1阈值或深度差不小于第2阈值的情况下,关注部分选择部15选择用户指示位置作为关注部分。
关注部分选择部15不限于上述的选择逻辑,也能够应用任意的选择逻辑选择关注部分。例如,关注部分选择部15不限于固定值,也能够根据位置差和深度差而动态地设定第1阈值和第2阈值的组。关注部分选择部15可以根据依照将位置差和深度差作为参数的函数而输出的评价值,选择关注部分。具体而言,在评价值小于预先确定的阈值(以下,称作“第3阈值”。)的情况下,关注部分选择部15选择特征部分的代表位置作为关注部分,在评价值为第3阈值以上的情况下,关注部分选择部15选择用户指示位置作为关注部分。在这样的情况下,在位置差和深度差较小的情况下,优选设定如评价值也与此对应地变小的函数。上述第3阈值对应于根据位置差和深度差而动态地设定了第1阈值和第2阈值的情况。
此外,关注部分选择部15可以从该摄像部接收在摄像部中设定的拍摄信息。关注部分选择部15根据接收到的拍摄信息计算景深。因此,作为拍摄信息,优选拍摄被输入到图像数据输入部11的图像数据时的镜头的焦距和F值等。关注部分选择部15可以根据在摄像部中设定的景深,动态地确定第2阈值。即,关注部分选择部15将与景深的深度相同程度的值设定为第2阈值。通过这样设定第2阈值,对应于如下情况:在深度差小于第2阈值的情况下,特征部分的代表位置和用户指示位置同时处于合焦的位置关系。这样,在特征部分的代表位置和用户指示位置同时处于合焦的位置关系的情况下,关注部分选择部15可以设用户指示位置与特征部分的代表位置之间的中点为关注部分的关注位置。在该情况下,关注部分的区域可以设为包含用户指示位置和特征部分区域的区域。
此外,在接收到多个位置差和多个深度差的信息时,在存在位置差小于第1阈值且深度差小于第2阈值的特征部分的情况下,关注部分选择部15提取该特征部分。另外,在提取出的特征部分为1个的情况下,关注部分选择部15选择该特征部分的代表位置作为关注部分,在存在多个特征部分的情况下,关注部分选择部15选择位置差和深度差最小的特征部分的代表位置作为关注部分。此外,在使用了基于位置差和深度差的评价值的情况下,关注部分选择部15可以选择该评价值最佳的特征部分的代表位置作为关注部分。这里,评价值最佳的特征部分是位置差和深度差均较小的特征部分。
此外,在存在多个位置差小于第1阈值且深度差小于第2阈值的特征部分的情况下,关注部分选择部15可以选择将该特征部分各自的代表位置作为关注位置的多个关注部分。在该情况下,各关注部分的区域可以包含各特征部分的代表位置,还可以包含各特征部分的区域。此外,在存在多个位置差小于第1阈值且深度差小于第2阈值的特征部分的情况下,关注部分选择部15还可以进一步选择将用户指示位置作为关注位置的关注部分。在该情况下,各关注部分的区域可以包含用户指示位置和各特征部分的代表位置,还可以进一步包含各特征部分的代表位置。
接着,使用图8所示的流程图对如上这样的第2实施方式的运算装置的具体动作的一例进行说明。首先,如图9所示,对输入图像数据201a的情况下的动作进行说明。这里,假设关注部分选择部15选择用户指示位置201c作为关注部分。
在步骤ST210中,图像数据输入部11受理图像数据201a的输入,发送到特征部分检测部12。另外,从拍摄装置观察时,图像数据201a是在眼前侧配置有花束、在深处配置有配件的构图。
在步骤ST220中,特征部分检测部12针对图像数据201a检测特征部分的代表位置。特征部分检测部12针对图像数据201a检测花束的中心,作为特征部分的代表位置201b。特征部分检测部12向位置差计算部14、关注部分选择部15和距离信息取得部16发送检测出的特征部分的代表位置201b的信息。
在步骤ST230中,用户指示位置取得部13取得图像数据201a内的配件的位置作为用户指示位置201c。用户指示位置取得部13向位置差计算部14、关注部分选择部15和距离信息取得部16发送所取得的用户指示位置201c。
在步骤ST240中,位置差计算部14计算接收到的特征部分的代表位置201b与用户指示位置201c之间的位置差,发送到关注部分选择部15。
在步骤ST250中,距离信息取得部16取得表示拍摄装置与相当于特征部分的代表位置201b的花束之间的距离的第1距离信息、以及表示拍摄装置与相当于用户指示位置201c的配件之间的距离的第2距离信息。距离信息取得部16向深度差计算部17发送所取得的各距离信息。
在步骤ST260中,深度差计算部17根据接收到的第1距离信息和第2距离信息,计算特征部分的代表位置201b与用户指示位置201c的深度差,发送到关注部分选择部15。
在步骤ST270中,关注部分选择部15根据位置差和深度差选择关注部分。具体而言,关注部分选择部15判定位置差是否小于第1阈值且深度差是否小于第2阈值。在判定为位置差小于第1阈值且深度差小于第2阈值的情况下,关注部分选择部15选择特征部分的代表位置作为关注部分。在判定为位置差不小于第1阈值或深度差不小于第2阈值的情况下,关注部分选择部15选择用户指示位置作为关注部分。在图9的例子的情况下,花束的代表位置201b与表示配件的位置的用户指示位置201c之间的位置差小于第1阈值。但是,作为从摄像部到花束的距离与到配件的距离之差的深度差为第2阈值以上。因此,关注部分选择部15最终选择用户指示位置201c表示的配件的位置作为关注部分。
此外,关注部分选择部15可以根据在摄像部中设定的景深,确定第2阈值。在图9的例子的情况下,在拍摄图像数据201a时的景深比花束与配件之间的深度差浅的情况下,关注部分选择部15设定比该深度差小的值作为第2阈值。因此,深度差变为第2阈值以上,与上述的例子同样,关注部分选择部15选择用户指示位置201c表示的配件作为关注部分。
另一方面,在拍摄图像数据201a时的景深比花束与配件之间的深度差深的情况下,关注部分选择部15设定比该深度差大的值作为第2阈值。这时,深度差变为小于第2阈值,关注部分选择部15选择花束的代表位置201b和表示配件的位置的用户指示位置201c中的任意一方作为关注部分。另外,在该情况下,花束和配件均成为合焦的状态。关注部分选择部15可以设定包含表示配件的位置的用户指示位置201c和花束的代表位置201b的区域201e作为关注部分的区域。此外,关注部分选择部15可以设定包含表示配件的位置的用户指示位置201c和花束的区域201d的区域201f作为关注部分的区域。
接着,如图10所示,与上述例子同样地对输入图像数据202a、检测多个特征部分的情况下的动作进行说明。另外,从拍摄装置观察时,图像数据202a是在眼前侧配置有花束、在深处配置有人的构图。此外,特征部分检测部12检测人的面部的代表位置202b和花束的代表位置202c作为特征部分。假设用户指示位置取得部13取得作为人体的中心且距离面部的代表位置202b和花束的代表位置202c大致相同的位置差的位置,作为用户指示位置202d。
在图10的例子的情况下,面部的代表位置202b处的位置差小于第1阈值,深度差小于第2阈值。另一方面,花束的代表位置202c处的位置差小于第1阈值,但深度差为第2阈值以上。因此,关注部分选择部15最终选择面部的代表位置202b作为关注部分。
此外,关注部分选择部15可以根据在拍摄装置中设定的景深,确定第2阈值。在图10的例子的情况下,在拍摄图像数据202a时的景深比各代表位置202b、202c与用户指示位置202d之间的深度差中的任意一方均深的情况下,关注部分选择部15设定比各深度差大的值作为第2阈值。在该情况下,各代表位置202b、202c和用户指示位置202d均成为合焦的状态。这时,关注部分选择部15选择各代表位置202b、202c和用户指示位置202d中的任意一方作为关注部分。关注部分选择部15可以设定包含表示人的中心位置的用户指示位置202d和面部的代表位置202b的区域201e作为关注部分的区域。此外,关注部分选择部15可以设定包含表示人的中心位置的用户指示位置202d和花束的代表位置202c的区域202f等区域作为关注部分的区域。区域202e、202f可以包含各特征部分区域。此外,关注部分选择部15可以设定包含各特征部分的区域的区域202g作为关注部分的区域。
如以上说明那样,在第2实施方式中,距离信息取得部16取得距离信息,该距离信息表示拍摄装置与相当于特征部分的代表位置的被摄体和相当于用户指示位置的被摄体之间的距离。深度差计算部17根据各距离信息计算深度差。关注部分选择部15除了根据位置差以外,还根据深度差选择关注部分。此外,关注部分选择部15判定位置差是否小于第1阈值且深度差是否小于第2阈值。在判定为位置差小于第1阈值且该深度差小于第2阈值的情况下,关注部分选择部15选择特征部分的代表位置作为关注部分,在位置差不小于第1阈值或深度差不小于第2阈值的情况下,关注部分选择部15选择用户指示位置作为关注部分。由此,能够以不选择未合焦的特征部分的代表位置作为关注部分的方式进行判定。
例如,用户将位于眼前的作为特征部分的花作为前面模糊的要素,以拍摄深处的配件为意图,指示配件作为用户指示位置。在该情况下,为了使配件罩上前面模糊的色调,在眼前的花的附近配置深处的配件。因此,眼前的花与深处的配件的位置差很多时候被判定为小于第1阈值。但是,关注部分选择部15通过评价眼前的花与深处的配件之间的深度差为第2阈值以上,能够选择深处的配件作为关注部分。因此,关注部分选择部15能够选择用户期望的关注部分,执行切合用户的意图的后处理。在执行例如裁剪作为后处理的例子的情况下,能够避免执行以未合焦的眼前的花为关注部分的裁剪处理。
此外,关注部分选择部15根据在拍摄装置中设定的景深,确定第2阈值。由此,在选择特征部分的代表位置作为关注部分的情况下,关注部分选择部15能够保证用户指示位置和代表位置处于景深的范围内。此外,在用户指示位置和代表位置处于景深的范围内的情况下,关注部分选择部15能够将用户指示位置和代表位置均选择为关注部分。因此,能够选择更切合用户的意图的关注部分。
此外,特征部分检测部12检测多个特征部分。关注部分选择部15根据该多个特征部分各自的代表位置与用户指示位置的位置差,选择多个关注部分。由此,关注部分选择部15从多个特征部分中去除位置差或深度差较大的特征部分,从用户指示位置中选择多个位置差和深度差较小的特征部分作为关注部分。例如,拍摄集合相片、群生的花和满满地摆在盘子中的料理,在想要执行裁剪作为后处理的情况下,有时检测出均为合焦的状态的特征部分。在这样的情况下,通过将该多个特征部分均选择为关注部分,能够根据1张图像数据,生成关注部分不同的多个裁剪图像。因此,用户能够根据变化丰富的裁剪图像,取得符合用户意图的图像。
(第3实施方式)
图11是示出本发明的第3实施方式的运算装置的一例的功能结构的框图。第3实施方式在第1实施方式中构成为,在输入了时间序列的多个图像数据的情况下,通过考虑特征部分的置信度,能够更加适当地选择关注部分。具体而言,图11所示的运算装置1除了第1实施方式的运算装置1的功能结构以外,还具有置信度计算部18。以下,对与图1相同的部分标注相同的标号并省略其详细的说明,主要对不同部分进行叙述。另外,第3实施方式不限于应用于第1实施方式,还能够应用于第2实施方式。
图像数据输入部11受理时间序列的多个图像数据(以下,称作“时间序列图像数据”。)的输入。图像数据输入部11向特征部分检测部12发送受理了输入的时间序列图像数据。输入的时间序列图像数据例如可以是在拍摄装置进行摄影前的一定期间内获得的实时取景图像。
图像数据输入部11在受理了时间序列图像数据的输入之后,还受理被选择关注部分的图像数据的输入。图像数据输入部11向特征部分检测部12发送该图像数据。另外,被选择该关注部分的图像数据可以被作为时间序列图像数据的最后帧的图像数据与时间序列图像数据一起发送到特征部分检测部12。
特征部分检测部12从图像数据输入部11接收时间序列图像数据,依次执行用于计算时间序列图像数据内的特征量的解析。特征部分检测部12根据作为解析的结果而被计算出的每个图像数据的特征量,按照每个图像数据检测特征部分的代表位置。特征部分检测部12向置信度计算部18发送所检测出的时间序列图像数据的代表位置的信息。此外,特征部分检测部12向位置差计算部14和关注部分选择部15发送被选择关注部分的图像数据内的代表位置的信息。
此外,在检测出特征部分的区域的情况下,特征部分检测部12向置信度计算部18发送时间序列图像数据内的特征部分的区域的信息。此外,特征部分检测部12向关注部分选择部15发送被选择关注部分的图像数据内的特征部分区域的信息。
用户指示位置取得部13根据通过用户的操作而输入的操作信息,取得图像数据的用户指示位置。用户指示位置取得部13根据所输入的操作信息,取得图像数据上的该被触摸的部分的坐标,作为用户指示位置。用户指示位置取得部13向特征部分检测部12、位置差计算部14和关注部分选择部15发送所取得的用户指示位置的信息。另外,由用户指示位置取得部13取得的用户指示位置是针对被选择关注部分的图像数据取得的。
置信度计算部18从特征部分检测部12接收时间序列图像数据的特征部分的代表位置的信息。置信度计算部18按照时间序列解析时间序列数据内的特征部分的代表位置的移动量,计算代表位置的变化量(以下,称作“代表位置变化量”。)。置信度计算部18根据计算出的代表位置变化量,计算特征部分的置信度。置信度计算部18向关注部分选择部15发送计算出的置信度。这里,置信度计算部18优选使用如下的代表位置变化量的函数来计算置信度,该函数使得如果代表位置变化量小则置信度高、如果代表位置变化量大则置信度低。此外,置信度不限于连续的值,也可以为了进行置信度判定而对预先设定的阈值以二值表示的方式进行计算。
此外,置信度计算部18可以还从特征部分检测部12接收多个图像数据的特征部分区域的信息。在该情况下,置信度计算部18除了代表位置变化量以外,还计算区域的变化量(以下,称作“区域变化量”。),根据代表位置变化量和区域变化量计算置信度。
位置差计算部14从特征部分检测部12接收特征部分的代表位置的信息,从用户指示位置取得部13接收用户指示位置的信息,计算位置差。位置差计算部14向关注部分选择部15发送计算出的位置差的信息。
关注部分选择部15从置信度计算部18进一步接收检测出的特征部分的置信度。关注部分选择部15根据位置差和置信度,选择关注部分。具体而言,关注部分选择部15根据置信度确定第1阈值。即,在置信度较高的情况下,关注部分选择部15将第1阈值设定得较大,在置信度较低的情况下,关注部分选择部15将第1阈值设定得较小。在位置差小于第1阈值的情况下,关注部分选择部15选择特征部分的代表位置作为关注部分,在位置差不小于第1阈值的情况下,关注部分选择部15选择用户指示位置作为关注部分。
此外,关注部分选择部15可以根据评价值选择关注部分,该评价值根据将位置差和置信度作为参数的函数而输出。具体而言,在评价值小于预先确定的阈值(以下,称作“第4阈值”。)的情况下,关注部分选择部15选择特征部分的代表位置作为关注部分,在评价值为第4阈值以上的情况下,关注部分选择部15选择用户指示位置作为关注部分。在这样的情况下,在位置差较大且置信度较低的情况下,优选设定评价值也与此对应地变大这样的函数。此外,在位置差较小且置信度较高的情况下,优选设定如评价值也与此对应地变小的函数。上述第4阈值对应于根据位置差和置信度而动态地设定第1阈值的情况。
接着,使用图12所示的流程图对如上这样的第3实施方式的运算装置的具体动作的一例进行说明。另外,在以下的说明中,设为关注部分是针对时间序列图像数据的最后帧而选择的来进行说明。
首先,在步骤ST310中,图像数据输入部11受理时间序列图像数据的输入,向特征部分检测部12发送受理了该输入的时间序列图像数据。
在步骤ST320中,特征部分检测部12对接收到的时间序列图像数据的各图像数据执行解析,检测特征部分的代表位置。特征部分检测部12向置信度计算部18发送检测出的时间序列图像数据内的时间序列的代表位置的信息。特征部分检测部12向位置差计算部14和关注部分选择部15发送被选择关注部分的图像数据内的代表位置的信息。此外,在检测还包含区域的信息的特征部分的情况下,特征部分检测部12向置信度计算部18发送时间序列图像数据内的区域的信息。此外,特征部分检测部12向关注部分选择部15发送被选择关注部分的图像数据内的特征部分的区域的信息。
在步骤ST330中,置信度计算部18接收时间序列图像数据的代表位置的信息,计算代表位置变化量。置信度计算部18根据计算出的代表位置变化量,计算特征部分的置信度。此外,在还接收时间序列图像数据的特征部分的区域的信息的情况下,置信度计算部18除了计算代表位置变化量以外,还计算区域变化量。置信度计算部18根据计算出的代表位置变化量和区域变化量,计算置信度。置信度计算部18向关注部分选择部15发送计算出的置信度。
在步骤ST340中,用户指示位置取得部13判定是否输入了来自用户的操作信息,在输入了操作信息的情况下,执行步骤ST350。图像数据输入部11、特征部分检测部12和置信度计算部18反复进行步骤ST310-ST330直到进行操作信息的输入为止。
在步骤ST350中,用户指示位置取得部13根据用户的操作信息,取得被选择关注部分的图像数据内的用户指示位置。用户指示位置取得部13向位置差计算部14和关注部分选择部15发送所取得的用户指示位置。
在步骤ST360中,位置差计算部14根据接收到的特征部分的代表位置的信息和用户指示位置的信息,计算位置差。位置差计算部14向关注部分选择部15发送计算出的位置差的信息。
在步骤ST370中,关注部分选择部15根据接收到的位置差和置信度,选择关注部分。具体而言,关注部分选择部15根据置信度的大小,确定第1阈值。此外,在进一步接收到特征部分区域的信息的情况下,关注部分选择部15可以在选择关注部分之前,还根据特征部分的区域的大小确定第1阈值。关注部分选择部15判定位置差是否小于第1阈值。在判定为位置差小于第1阈值的情况下,关注部分选择部15选择特征部分的代表位置作为关注部分,在判定为位置差不小于第1阈值的情况下,关注部分选择部15选择用户指示位置作为关注部分。
如以上说明那样,在第3实施方式中,图像数据输入部11受理时间序列的图像数据的输入。特征部分检测部12从所输入的时间序列的各个图像数据中检测特征部分。置信度计算部18根据特征部分的代表位置的时序变化,计算特征部分的置信度。关注部分选择部15根据置信度和位置差,选择关注部分。由此,计算出的运动的特征部分的置信度较低,针对该运动的特征部分的代表位置与用户指示位置之间的位置差的第1阈值被设定得较小。因此,能够适当选择更切合用户的意图的关注部分。
例如,用户以拍摄行人较多的场所的建筑物为意图,将建筑物指示为用户指示位置。在这样的状况下,在选择关注部分时,被检测为特征部分的过路人的面部有时接近被指示为用户指示位置的建筑物。但是,由于作为特征部分的过路人的面部是运动的,因此置信度计算部18针对该过路人的面部计算出较低的置信度。随之,关注部分选择部15针对过路人的面部将第1阈值设定得较小。因此,关注部分选择部15通过评价出建筑物与过路人的面部之间的位置差为第1阈值以上,能够选择建筑物作为关注部分。在执行裁剪作为后处理的例子的情况下,执行将建筑物作为关注部分的裁剪处理,作为用户期望的后处理。
[第4实施方式]
本发明的第4实施方式涉及具有第1至第3实施方式中的任意一个运算装置1的数字照相机(以下,称作照相机。)。以下,对与图1相同的部分标注相同的标号并省略其详细的说明,主要对不同部分进行叙述。图13是示出本发明的第4实施方式的作为拍摄装置的一例的照相机的功能结构的框图。图13所示的照相机20例示了镜头更换式的照相机。但是,下面说明的第4实施方式的技术不是仅应用于镜头更换式的照相机的技术。
图13所示的照相机20具有更换镜头100和照相机机身200。更换镜头100构成为经由设置于照相机机身200的未图示的镜头安装部件而在照相机机身200上装卸自如。通过将更换镜头100安装于照相机机身200,将更换镜头100和照相机机身200通信自如地连接。
更换镜头100具有摄影镜头101、光圈机构102、对焦驱动机构103、光圈驱动机构104和镜头CPU(Central Processing Unit:中央处理器)105。摄影镜头101是用于使来自未图示的被摄体的光在照相机机身200的内部的摄像元件204上成像的光学系统。摄影镜头101具有对焦透镜,对焦透镜在用图13的单点划线所示的光轴方向上进行驱动,调整摄影镜头101的对焦。光圈机构102调整经由摄影镜头101而入射到摄像元件204的来自被摄体的光量。
对焦驱动机构103具有电机等,在镜头CPU 105的控制下,将对焦透镜在其光轴方向上驱动。光圈驱动机构104具有电机等,在镜头CPU 105的控制下,对光圈机构102进行开闭驱动。在将更换镜头100安装在照相机机身200上时,镜头CPU 105经由通信端子106与照相机机身200内的序列控制器(机身CPU)2201通信自如地连接。该镜头CPU 105依照来自机身CPU 2201的控制而控制对焦驱动机构103或光圈驱动机构104的动作,调整景深等参数。
照相机机身200具有焦面快门(快门)201、快门驱动机构202、滤光器组203、摄像元件204、摄像元件驱动电路205、预处理电路206、SDRAM(Synchronous Dynamic RandomAccess Memory:同步动态随机存取存储器)207、记录介质208、闪存209、监视器驱动电路210、背面监视器211、触摸传感器212、操作部213、装卸检测开关214、电源供给电路215、电池216和控制电路217。
快门201配置成相对于摄像元件204的光电转换面进退自如。该快门201被快门驱动机构202驱动,使摄像元件204的光电转换面成为曝光状态或遮光状态。快门驱动机构202依照机身CPU 2201的控制对快门201进行开闭驱动。通过这样的快门201的驱动,调整摄像元件204的曝光时间。
滤光器组203具有去除经由摄影镜头101而入射来的光的红外成分的红外截止滤波器或去除经由摄影镜头101而入射来的光的高频成分的低通滤波器这样的多个滤波器。
摄像元件204具有配置有多个像素的光电转换面,将经由摄影镜头101而形成在光电转换面上的来自被摄体的光转换为电信号(图像信号)。摄像元件驱动电路205依照经由输入输出电路2211而来自机身CPU 2201的指示对摄像元件204进行驱动控制,并且控制由摄像元件204获得的图像信号的读出。预处理电路206对经由摄像元件驱动电路205而从摄像元件204读出的图像信号进行去噪或放大等模拟处理、或将模拟处理后的图像信号转换为数字信号(图像数据)的处理这样的预处理。
这样,更换镜头100、快门201、快门驱动机构202、滤光器组203、摄像元件204、摄像元件驱动电路205和预处理电路206还作为摄像部发挥功能。即,摄像部具有将拍摄而获得的图像数据输出到控制电路217内的运算装置1的功能。
SDRAM 207是用于临时存储由预处理电路206获得的数据等的闪存。记录介质208例如是构成为相对于照相机机身200装卸自如的存储卡,记录被压缩解压缩电路2207压缩后的图像数据。闪存209是存储由机身CPU 2201读出的控制程序或照相机机身200的各种设定值等的存储器。
监视器驱动电路210依照从视频信号输出电路2208输入的视频信号驱动背面监视器211,使图像显示在背面监视器211的画面上。
背面监视器211配置成在照相机机身200的背面露出。该背面监视器211由监视器驱动电路210进行驱动,显示被压缩解压缩电路2207解压缩后的图像等各种图像。此外,本实施方式中的背面监视器211还进行用于取得用户指示位置的画面的显示。用户指示位置被作为在执行各种后处理时选择的关注部分的候选而取得。作为后处理的例子,有AF、AE、白平衡校正、裁剪、特殊效果的施加等。触摸传感器212与背面监视器211一体地设置,检测用户的手指的接触作为来自用户的操作信息。这里,作为触摸传感器212,可以使用电阻膜方式或静电电容方式等各种方式的触摸传感器。触摸传感器212根据操作信息,取得用户指示位置。
操作部213是电源开关、快门按钮、设定按钮、操作拨盘这样的各种操作部。电源开关是用于供用户指示照相机机身200的电源的接通/断开的操作部。快门按钮是用于供用户进行摄影执行的指示的操作部。设定按钮是用于供用户指示与各种后处理等对应的用户指示位置的操作部组。操作拨盘是拨盘式的操作部。该操作拨盘还用于进行与各种后处理等对应的参数设定。另外,设定按钮和操作拨盘的功能也可以分配给触摸传感器212。
这样,背面监视器211和触摸传感器212或者操作部213还作为用户指示位置取得部发挥功能。用户指示位置取得部具有如下功能:取得图像数据内的用户指示位置,输出到控制电路217内的运算装置1。例如,在执行AF作为后处理的情况下,背面监视器211显示用于显示实时取景的画面。触摸传感器212将用户触摸的坐标或对该坐标进行移动操作而获得的坐标作为AF点的用户指示位置输出到运算装置1。
另外,用户指示位置取得部不限于通过上述结构取得操作信息的方法,也可以通过采取各种结构,取得操作信息。例如,在用户在特定位置进行了对焦锁定以后使摄影方向偏移来进行拍摄的情况下,用户指示位置取得部可以考虑AF点的偏移量,取得用户指示位置。此外,用户指示位置取得部可以从进行了偏移的图像中搜索进行了对焦锁定的局部图像,由此计算偏移量。此外,用户指示位置取得部可以通过加速度传感器或陀螺仪传感器等未图示的传感器计算偏移量。此外,用户指示位置取得部可以取得为了通过MF(ManualFocus:手动对焦)确认合焦状态而进行了放大显示的区域的中心、或通过对焦峰化功能确定的合焦区域的中心或者重心,作为用户指示位置。不论是哪一个,用户指示位置取得部具有取得图像数据内的用户指示位置并发送到控制电路217内的运算装置1的功能。
装卸检测开关214是在将更换镜头100安装于照相机机身200时接通的开关,通过接通,向操作输入检测电路2210输出表示在照相机机身200上安装有更换镜头100的信号。
电源供给电路215将电池216的电压转换为照相机机身200的各块所需的电压。而且,电源供给电路215将转换后的电池216的电压供给到照相机机身200的各块。电池216例如是2次电池,作为照相机机身200的电源发挥功能。
控制电路217控制照相机机身200的各种动作。该控制电路217具有动作序列控制器(机身CPU)2201、对比度AF电路2202、SDRAM控制电路2203、闪存控制电路2204、记录介质控制电路2205、图像处理电路2206、压缩解压缩电路2207、视频信号输出电路2208、触摸传感器输入电路2209、操作输入检测电路2210、输入输出电路2211、通信电路2212、数据总线2213和运算装置1。
机身CPU 2201统一控制控制电路217内的各电路的动作。此外,本实施方式中的机身CPU 2201还具有作为控制部的功能,依照从运算装置1输出的关注部分的信息还进行各种后处理的动作序列控制。这里,AF、AE等后处理的动作序列控制包含摄像部的动作的控制。此外,裁剪、白平衡校正等图像处理、特殊效果的施加等后处理的动作序列控制包含图像处理电路2206的动作的控制。
对比度AF电路2202根据经由摄像元件204而获得的图像数据,计算用于评价图像的对比度的评价值。机身CPU 2201依照该评价值和从运算装置1输出的关注部分的信息,进行对焦透镜的AF控制。这里,被计算的评价值包含基于透镜驱动量的表示摄像部与被摄体之间的距离的距离信息。机身CPU 2201可以向运算装置1发送该距离信息。
这样,对比度AF电路2202和机身CPU 2201还作为取得表示摄像部与被摄体之间的距离的距离信息的距离信息取得部发挥功能。另外,距离信息取得部不限于通过上述结构在对比度AF的过程中取得距离信息的方法,也可以通过采取各种结构,用各种方法取得距离信息。例如,在具有像面相位差AF功能的情况下,取得根据接近特征部分的代表位置或用户指示位置的相位差像素而计算的距离的值作为距离信息也是合理的。此外,在具有像面相位差AF功能的情况下取得的距离信息也可以是将从该各相位差像素的位置到代表位置或用户指示位置的位置的差分作为权重,对根据接近的多个相位差像素计算的距离的值进行了平均而得到的距离信息。不论是哪一个,距离信息取得部具有如下功能:取得表示摄像部与被摄体之间的距离的距离信息,向运算装置1发送该距离信息。此外,距离信息取得部可以具有向运算装置1输出由摄像部拍摄的图像数据的景深的信息的功能。
SDRAM控制电路2203控制向SDRAM 207的数据的写入和读出。闪存控制电路2204控制向闪存209的数据的写入和读出。记录介质控制电路2205控制向记录介质208的数据的写入和读出。
图像处理电路2206对由预处理电路206获得并存储在SDRAM 207中的图像数据实施各种图像处理。该图像处理包含校正图像的颜色平衡的白平衡校正处理、校正图像的颜色的颜色校正处理、校正图像的灰度的灰度校正处理等后处理。图像处理电路2206在开始各种图像处理以前,接收由运算装置1选择的图像数据内的关注部分的信息。图像处理电路2206根据该关注部分执行图像处理。由图像处理电路2206进行图像处理后的图像数据被再次存储到SDRAM 207中。压缩解压缩电路2207读出图像处理后的图像数据,以JPEG方式等规定的压缩形式压缩所读出的图像数据。此外,压缩解压缩电路2207还进行如下动作:在图像的再现时,读出已压缩的图像数据,对所读出的图像数据进行解压缩。
视频信号输出电路2208从SDRAM 207读出图像数据,将所读出的图像数据转换为视频信号并输出到监视器驱动电路210。与触摸传感器212一起作为输入检测部发挥功能的触摸传感器输入电路2209根据来自触摸传感器212的信号,解析触摸传感器212上的用户的手指的触摸位置或手指的运动,向机身CPU 2201输出解析的结果。
操作输入检测电路2210检测操作部213的各操作部的操作状态,将检测结果通知给机身CPU 2201。在经由操作输入检测电路2210检测出操作部的操作的情况下,机身CPU2201执行与所操作的操作部的操作内容对应的控制。
输入输出电路2211是用于从控制电路217输出用于进行摄像元件驱动电路205和快门驱动机构202的控制的信号的接口电路。通信电路2212进行用于进行照相机机身200的机身CPU 2201与更换镜头100的镜头CPU 105的通信的各种处理。数据总线2213是用于传输由预处理电路206获得的图像数据或被图像处理电路2206处理后的图像数据等各种数据的传输路径。
运算装置1受理由摄像部拍摄的图像数据和由用户指示位置取得部取得的用户指示位置的输入。此外,运算装置1可以受理由距离信息取得部取得的距离信息的输入。运算装置1对所输入的图像数据依次进行第1至第3实施方式中所说明的运算处理。在执行了该运算处理时,运算装置1向机身CPU 2201发送用于各种后处理、在图像数据内选择的关注部分的信息。将反映了由机身CPU 2201执行控制的各种后处理的图像数据显示在背面监视器211上,提示给用户。
如以上说明那样,在第4实施方式中,摄像部输出进行拍摄而获得的图像数据。用户指示位置取得部取得图像数据内的用户指示位置。如第1至第3实施方式中所说明那样,运算装置1选择关注部分。由此,能够适当选择用户期望的关注部分,执行用户期望的后处理。此外,背面监视器211向用户提示被执行了用户期望的后处理的图像。由此,能够在不损害用户的使用感的情况下,提供执行了各种后处理的图像。
根据以上各实施方式说明了本发明,但本发明不限于上述各实施方式,可以在本发明的宗旨范围内进行各种变形和应用。即,第4实施方式的技术例如可以应用于如智能手机等便携终端具有的照相机那样不更换镜头的照相机。此外,第4实施方式的技术还能够应用于摄像部和控制电路217与用户指示位置取得部在构造上分离或者摄像部与控制电路217和用户指示位置取得部在构造上分离且相互进行无线通信的形式的拍摄装置。
此外,还能够将上述的各实施方式中的运算装置的各处理的方法、即各流程图所示的处理均存储为控制电路217可执行的程序。除此以外,还能够存储到存储卡(ROM卡、RAM卡等)、磁盘(软(注册商标)盘、硬盘等)、光盘(CD-ROM、DVD等)、半导体存储器等外部存储装置中进行发布。这里,外部存储装置可以称作非暂时性计算机可读存储介质(nontransitory computer readable storage medium)。而且,控制电路217能够通过读入该外部存储装置的存储介质所存储的程序,并根据该所读入的程序控制动作,执行上述处理。
此外,在上述各动作流程图的说明中,为了方便,使用“首先”、“接着”等说明动作,但不是指必须按该顺序实施动作。
并且,能够通过上述各实施方式公开的多个结构要素的适当组合形成各种发明。例如,可以从各实施方式所示的全部结构要素中删除几个结构要素。并且,可以适当组合不同实施方式的结构要素。

Claims (8)

1.一种运算方法,其包括:
受理图像数据的输入;
从受理了所述输入的图像数据中检测特征部分的代表位置;
取得所述图像数据内的用户指示位置;
计算表示所述检测出的代表位置与所述取得的用户指示位置之差的位置差;以及
在所述计算出的位置差小于预先确定的第1阈值的情况下,选择所述特征部分的代表位置作为关注部分,在所述位置差不小于所述第1阈值的情况下,选择所述用户指示位置作为关注部分。
2.根据权利要求1所述的运算方法,其中,
该运算方法还包括:检测所述特征部分的区域,
所述第1阈值是根据所述特征部分的区域的大小来确定的。
3.根据权利要求1所述的运算方法,其中,所述运算方法包括:
分别取得第1距离信息和第2距离信息,所述第1距离信息表示取得了所述图像数据的摄像部与对应于所述特征部分的代表位置的被摄体之间的距离,所述第2距离信息表示所述摄像部与对应于所述用户指示位置的被摄体之间的距离;以及
计算表示所述第1距离信息所表示的距离与所述第2距离信息所表示的距离之差的深度差,
选择所述关注部分的步骤包括:在所述位置差小于所述第1阈值且所述深度差小于预先确定的第2阈值的情况下,选择所述特征部分的代表位置作为关注部分,在所述位置差不小于所述第1阈值或者所述深度差不小于所述第2阈值的情况下,选择所述用户指示位置作为关注部分。
4.根据权利要求3所述的运算方法,其中,
所述第2阈值是根据在所述摄像部中设定的景深来确定的。
5.根据权利要求1所述的运算方法,其中,
检测所述代表位置的步骤包括检测多个特征部分各自的代表位置,
选择所述关注部分的步骤包括根据所述检测出的各个代表位置与所述取得的用户指示位置之间的位置差,选择多个关注部分。
6.根据权利要求1所述的运算方法,其中,
受理所述图像数据的输入的步骤包括受理时间序列的图像数据的输入,
检测所述代表位置的步骤包括从所述输入的时间序列的各个图像数据检测代表位置,
所述运算方法还包括:根据所述检测出的代表位置的时序变化,计算该代表位置的置信度,
选择所述关注部分的步骤包括:根据所述计算出的置信度、以及表示所述检测出的各代表位置与所述取得的用户指示位置之差的位置差,选择关注部分。
7.一种程序,其使运算装置执行:
受理图像数据的输入;
从受理了所述输入的图像数据中检测特征部分的代表位置;
取得所述图像数据内的用户指示位置;
计算表示所述检测出的特征部分的代表位置与所述取得的用户指示位置之差的位置差;以及
在所述计算出的位置差小于预先确定的第1阈值的情况下,选择所述特征部分的代表位置作为关注部分,在所述位置差不小于所述第1阈值的情况下,选择所述用户指示位置作为关注部分。
8.一种拍摄装置,其具有:
摄像部,其输出拍摄而获得的图像数据;
特征部分检测部,其从所述图像数据中检测特征部分的代表位置;
用户指示位置取得部,其取得所述图像数据内的用户指示位置;
位置差计算部,其计算表示所述检测出的特征部分的代表位置与所述取得的用户指示位置之差的位置差;以及
关注部分选择部,其在所述计算出的位置差小于预先确定的第1阈值的情况下,选择所述特征部分的代表位置作为关注部分,在所述位置差不小于所述第1阈值的情况下,选择所述用户指示位置作为关注部分。
CN201580080941.3A 2015-06-16 2015-06-16 运算方法、运算程序和拍摄装置 Pending CN107736009A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/067268 WO2016203536A1 (ja) 2015-06-16 2015-06-16 演算方法、演算プログラム及び撮像装置

Publications (1)

Publication Number Publication Date
CN107736009A true CN107736009A (zh) 2018-02-23

Family

ID=57545640

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580080941.3A Pending CN107736009A (zh) 2015-06-16 2015-06-16 运算方法、运算程序和拍摄装置

Country Status (4)

Country Link
US (1) US10438372B2 (zh)
JP (1) JPWO2016203536A1 (zh)
CN (1) CN107736009A (zh)
WO (1) WO2016203536A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021015345A (ja) * 2019-07-10 2021-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、および表示制御装置
CN111147749A (zh) * 2019-12-31 2020-05-12 宇龙计算机通信科技(深圳)有限公司 拍摄方法、拍摄装置、终端及存储介质
JP2021197623A (ja) * 2020-06-12 2021-12-27 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
CN115619410B (zh) * 2022-10-19 2024-01-26 闫雪 自适应金融支付平台

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225317A (ja) * 1991-12-13 1993-09-03 Nec Corp 座標データ指定制御方式
CN101547313A (zh) * 2008-03-27 2009-09-30 索尼株式会社 一种成像装置、成像方法和程序
JP4625356B2 (ja) * 2005-03-30 2011-02-02 セイコーエプソン株式会社 ユーザ負担を低減した画像のトリミング
CN102265602A (zh) * 2008-12-26 2011-11-30 松下电器产业株式会社 图像拍摄装置
CN103024261A (zh) * 2011-09-20 2013-04-03 佳能株式会社 摄像装置及其控制方法
CN103858043A (zh) * 2011-10-12 2014-06-11 佳能株式会社 摄像设备及其控制方法和程序

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2489675A (en) * 2011-03-29 2012-10-10 Sony Corp Generating and viewing video highlights with field of view (FOV) information
US9159144B2 (en) * 2012-03-06 2015-10-13 Apple Inc. Color adjustors for color segments
KR102155094B1 (ko) * 2014-08-28 2020-09-11 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225317A (ja) * 1991-12-13 1993-09-03 Nec Corp 座標データ指定制御方式
JP4625356B2 (ja) * 2005-03-30 2011-02-02 セイコーエプソン株式会社 ユーザ負担を低減した画像のトリミング
CN101547313A (zh) * 2008-03-27 2009-09-30 索尼株式会社 一种成像装置、成像方法和程序
CN102265602A (zh) * 2008-12-26 2011-11-30 松下电器产业株式会社 图像拍摄装置
CN103024261A (zh) * 2011-09-20 2013-04-03 佳能株式会社 摄像装置及其控制方法
CN103858043A (zh) * 2011-10-12 2014-06-11 佳能株式会社 摄像设备及其控制方法和程序

Also Published As

Publication number Publication date
US20180082437A1 (en) 2018-03-22
JPWO2016203536A1 (ja) 2018-03-29
US10438372B2 (en) 2019-10-08
WO2016203536A1 (ja) 2016-12-22

Similar Documents

Publication Publication Date Title
WO2020038109A1 (zh) 拍照方法、装置、终端及计算机可读存储介质
CN101753822B (zh) 摄像装置和摄像装置中的图像处理方法
CN103493471B (zh) 摄像装置和摄像方法
US7764880B2 (en) Pickup apparatus
CN104702826B (zh) 摄像设备及其控制方法
CN102843509B (zh) 图像处理装置和图像处理方法
CN101616252B (zh) 摄像装置及其摄像装置的控制方法
CN103220463B (zh) 摄影装置和摄影装置的控制方法
CN100499747C (zh) 数码相机
CN104702824B (zh) 摄像装置及摄像装置的控制方法
CN104782110B (zh) 图像处理装置、摄像装置及图像处理方法
US8605142B2 (en) Multi-eye image pickup device
CN107105157A (zh) 从手持设备所捕获的多个图像进行肖像图像合成
JP2004320287A (ja) デジタルカメラ
CN101118366A (zh) 摄像设备及其控制方法
JP2007233247A (ja) 焦点調節量決定装置、方法、およびプログラム、ならびに撮像装置
CN105554370B (zh) 图像处理设备和图像处理方法
CN102404503B (zh) 自动调焦设备和摄像设备
CN103905727A (zh) 被摄体区域跟踪设备及其控制方法
CN101262561A (zh) 成像设备及其控制方法
CN105100586A (zh) 检测装置及检测方法
CN107736009A (zh) 运算方法、运算程序和拍摄装置
CN104243804B (zh) 摄像设备、图像处理设备及其控制方法
JP2004320285A (ja) デジタルカメラ
CN107306326A (zh) 摄像装置和摄像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20200407