CN115735211A - 信息处理装置、学习设备、摄像装置、信息处理装置的控制方法及程序 - Google Patents

信息处理装置、学习设备、摄像装置、信息处理装置的控制方法及程序 Download PDF

Info

Publication number
CN115735211A
CN115735211A CN202180045835.7A CN202180045835A CN115735211A CN 115735211 A CN115735211 A CN 115735211A CN 202180045835 A CN202180045835 A CN 202180045835A CN 115735211 A CN115735211 A CN 115735211A
Authority
CN
China
Prior art keywords
image
training data
specific object
information processing
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180045835.7A
Other languages
English (en)
Inventor
内田亮宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of CN115735211A publication Critical patent/CN115735211A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Studio Devices (AREA)

Abstract

信息处理装置具备处理器和与处理器连接或内置于其中的内存。处理器在由图像传感器进行了伴随将特定被摄体作为聚焦对象区域的聚焦动作的拍摄时,将与表示通过拍摄而得到的摄像图像内的特定被摄体的特定被摄体图像有关的特定被摄体数据作为用于机器学习的数据而输出。

Description

信息处理装置、学习设备、摄像装置、信息处理装置的控制方 法及程序
技术领域
本发明的技术涉及一种信息处理装置、学习设备、摄像装置、信息处理装置的控制方法及程序。
背景技术
在国际公开第2008/133237号中公开了一种拍摄物体空间的摄像装置。该摄像装置的特征在于,具备被摄体特征点学习构件、被摄体特征点学习信息存储部、摄影候选图像信息获取构件、图像检索处理构件及摄影条件调整构件。被摄体特征点学习构件从拍摄物体空间而得到的图像信息中检测规定被摄体的图像,并且提取表示被摄体图像的特征点的被摄体特征点学习信息。被摄体特征点学习信息存储部存储被摄体特征点学习信息。摄影候选图像信息获取构件获取成为摄影候选的图像,即摄影候选图像。图像检索处理构件根据所获取的摄影候选图像,判定在表示摄影候选图像中包括的至少一个被摄体图像所具有的特征点的摄影候选图像特征点信息中,是否包括表示与预先存储在被摄体特征点学习信息存储部中的被摄体特征点学习信息所表示的特征点一致的特征点。摄影条件调整构件经判定的结果,在摄影候选图像特征点信息中包括表示与被摄体特征点学习信息所表示的特征点一致的特征点的情况下,对进行摄影条件的最优化的摄影条件最优化构件进行指示,以使对摄影候选图像中的与摄影候选图像特征点信息对应的被摄体进行摄影条件的最优化。
在日本特开2013-80428号公报中公开了一种程序,其使计算机执行如下步骤:获取步骤,获取使第1装置通过学习而适应的第1学习数据;及数据转换步骤,基于使第2装置通过学习而适应的第2学习数据的数据形式,将所获取的第1学习数据转换为适合于第2学习数据的数据形式的数据形式的学习数据。
发明内容
本发明的技术所涉及的一种实施方式提供一种信息处理装置,其与从通过由图像传感器拍摄而得到的摄像图像中以手动操作选择用于机器学习的特定被摄体图像的情况相比,能够简单地收集用于机器学习。
用于解决技术课题的手段
本发明的技术所涉及的第1方式为一种信息处理装置,其具备:处理器;及内存,与处理器连接或内置于其中,处理器在由图像传感器进行了伴随将特定被摄体作为聚焦对象区域的聚焦动作的拍摄时,将与表示通过拍摄而得到的摄像图像内的特定被摄体的特定被摄体图像有关的特定被摄体数据作为用于机器学习的数据而输出。
本发明的技术所涉及的第2方式为第1方式所涉及的信息处理装置,其中,机器学习是有监督机器学习,处理器进行如下处理:将与特定被摄体图像有关的信息即标签赋予到特定被摄体数据,将特定被摄体数据作为用于有监督机器学习的训练数据而输出。
本发明的技术所涉及的第3方式为第1方式或第2方式所涉及的信息处理装置,其中,处理器在基于从图像传感器输出的信号的显示用动态图像显示于监视器上的状态下,以与其他图像区域可以区分的方式显示聚焦对象区域,特定被摄体图像是与摄像图像内的聚焦对象区域的位置对应的图像。
本发明的技术所涉及的第4方式为第3方式所涉及的信息处理装置,其中,处理器通过在显示用动态图像中显示包围聚焦对象区域的框,以与其他图像区域可以区分的方式显示聚焦对象区域。
本发明的技术所涉及的第5方式为第4方式所涉及的信息处理装置,其中,框的位置按照被赋予的位置变更指示可以变更。
本发明的技术所涉及的第6方式为第4方式或第5方式所涉及的信息处理装置,其中,框的尺寸按照被赋予的尺寸变更指示可以变更。
本发明的技术所涉及的第7方式为第1方式至第6方式中任一方式所涉及的信息处理装置,其中,处理器将摄像图像与聚焦对象区域的坐标作为用于机器学习的数据而输出。
本发明的技术所涉及的第8方式为第1方式或第2方式所涉及的信息处理装置,其中,处理器进行如下处理:将基于从图像传感器输出的信号的显示用动态图像显示于监视器上;在显示用动态图像中,接受聚焦对象区域的指定;及在包括聚焦对象区域的规定区域中,基于表示与聚焦对象区域的相似度的相似评价值在第1规定范围内的区域,提取特定被摄体图像。
本发明的技术所涉及的第9方式为第8方式所涉及的信息处理装置,其中,处理器以与其他图像区域可以区分的方式显示聚焦对象区域。
本发明的技术所涉及的第10方式为第8方式或第9方式所涉及的信息处理装置,其中,聚焦对象区域及特定被摄体图像中的至少一方以通过分割规定区域而得到的分割区域单位来确定。
本发明的技术所涉及的第11方式为第8方式至第10方式中任一方式所涉及的信息处理装置,其中,相似评价值是基于在聚焦动作中使用的聚焦评价值的值。
本发明的技术所涉及的第12方式为第8方式至第11方式中任一方式所涉及的信息处理装置,其中,相似评价值是基于规定区域的颜色信息的颜色评价值。
本发明的技术所涉及的第13方式为第8方式至第12方式中任一方式所涉及的信息处理装置,其中,处理器在显示用动态图像中表示特定被摄体的显示用特定被摄体图像与特定被摄体图像的差异度超过第2规定范围时,进行异常检测处理,显示用特定被摄体图像基于相似评价值来确定。
本发明的技术所涉及的第14方式为第1方式至第13方式中任一方式所涉及的信息处理装置,其中,特定被摄体数据包括特定被摄体图像的坐标,处理器将摄像图像和特定被摄体图像的坐标作为用于机器学习的数据而输出。
本发明的技术所涉及的第15方式为第1方式至第14方式中任一方式所涉及的信息处理装置,其中,特定被摄体数据是从摄像图像切出的特定被摄体图像,处理器将所切出的特定被摄体图像作为用于机器学习的数据而输出。
本发明的技术所涉及的第16方式为第1方式至第15方式中任一方式所涉及的信息处理装置,其中,处理器进行如下处理:将数据存储于内存中,使用存储在内存中的数据进行机器学习。
本发明的技术所涉及的第17方式为一种学习设备,其具备:接受器件,接受从第1方式至第15方式中任一方式所涉及的信息处理装置输出的数据;及运算装置,使用由接受器件接受的数据进行机器学习。
本发明的技术所涉及的第18方式为一种摄像装置,其具备:第1方式至第16方式中任一方式所涉及的信息处理装置;及图像传感器。
本发明的技术所涉及的第19方式为第18方式所涉及的摄像装置,其中,图像传感器在多个对焦位置进行拍摄,关于通过进行拍摄而得到的多个摄像图像,处理器将从对焦于特定被摄体的对焦图像中得到的特定被摄体图像的坐标,作为未对焦于特定被摄体的非对焦图像中的特定被摄体图像的坐标而输出。
本发明的技术所涉及的第20方式为一种信息处理装置的控制方法,其包括:在由图像传感器进行了伴随将特定被摄体作为聚焦对象区域的聚焦动作的拍摄时,输出与表示通过拍摄而得到的摄像图像内的特定被摄体的特定被摄体图像有关的特定被摄体数据作为用于机器学习的数据。
本发明的技术所涉及的第21方式为一种程序,其用于使计算机执行如下处理:处理包括:在由图像传感器进行了伴随将特定被摄体作为聚焦对象区域的聚焦动作的拍摄时,输出与表示通过拍摄而得到的摄像图像内的特定被摄体的特定被摄体图像有关的特定被摄体数据作为用于机器学习的数据。
附图说明
图1是表示训练数据生成系统的一例的示意图。
图2是表示摄像装置的前表面侧外观的一例的立体图。
图3是表示摄像装置的背面侧外观的一例的后视图。
图4是摄像装置的框图。
图5是表示在选择了训练数据摄像模式时标签选择画面显示于监视器上的方式的一例的摄像装置的后视图。
图6是表示在显示于监视器上的即时预览图像上重叠显示有AF框的方式的一例的摄像装置的后视图。
图7是表示根据被摄体脸部的位置来变更AF框的位置的方式的一例的摄像装置的后视图。
图8是表示根据被摄体脸部的位置来变更AF框的尺寸的方式的一例的摄像装置的后视图。
图9是表示AF框的位置坐标的一例的说明图。
图10是表示从第1实施方式所涉及的信息处理装置输出的训练数据存储于数据库中的方式的一例的说明图。
图11是表示通过第1实施方式所涉及的信息处理装置进行的训练数据生成处理的流程的一例的流程图。
图12是表示根据被摄体左眼的位置来变更AF框的位置及尺寸的方式的一例的摄像装置的后视图。
图13是表示第2实施方式所涉及的信息处理装置根据每个分割区域的对焦位置间距离从主曝光图像中提取特定被摄体图像的方式的一例的说明图。
图14是表示具有第2实施方式所涉及的信息处理装置的摄像装置的光电转换元件中包括的各像素的配置的一例的示意图。
图15是表示相对于图14所示的光电转换元件中包括的第1相位差像素及第2相位差像素的、被摄体光的入射特性的一例的概念图。
图16是表示通过第2实施方式所涉及的信息处理装置进行的训练数据生成处理的流程的一个例子的流程图。
图17是表示第3实施方式所涉及的信息处理装置根据每个分割区域的色差从主曝光图像中提取特定被摄体图像的方式的一例的说明图。
图18是表示通过第3实施方式所涉及的信息处理装置进行的训练数据生成处理的流程的一个例子的流程图。
图19是表示通过第4实施方式所涉及的信息处理装置进行的训练数据生成处理的流程的一个例子的流程图。
图20是表示在即时预览图像与主曝光图像之间特定被摄体图像的尺寸差异度超过尺寸规定范围的情况下,第5实施方式所涉及的信息处理装置将警告信息输出到学习设备的方式的一例的说明图。
图21是表示在即时预览图像与主曝光图像之特定被摄体图像的中心位置的差异度超过位置规定范围的情况下,第5实施方式所涉及的信息处理装置将警告信息输出到学习设备的方式的一例的说明图。
图22A是表示通过第5实施方式所涉及的信息处理装置进行的训练数据生成处理的流程的一个例子的流程图。
图22B是图22A所示流程图的继续。
图23是第6实施方式所涉及的信息处理装置确定特定被摄体图像的位置坐标的方式的一例的说明图。
图24是表示从第6实施方式所涉及的信息处理装置输出的训练数据存储于数据库中的方式的一例的说明图。
图25是表示通过第6实施方式所涉及的信息处理装置进行的训练数据生成处理的流程的一个例子的流程图。
图26是表示从主曝光图像切出并输出特定被摄体图像时的训练数据的一例的说明图。
图27是表示训练数据生成程序从存储有训练数据生成程序的存储介质安装到摄像装置内的控制器的方式的一例的框图。
具体实施方式
以下,按照附图,对本发明的技术所涉及的摄像装置和摄像装置的动作方法的一例进行说明。
首先,对以下说明中使用的术语进行说明。
CPU是指“Central Processing Unit:中央处理器”的简称。RAM是指“RandomAccess Memory:随机存取内存”的简称。NVM是指“Non-Volatile Memory:非易失性内存”的简称。IC是指“Integrated Circuit:集成电路”的简称。ASIC是指“Application SpecificIntegrated Circuit:专用集成电路”的简称。PLD是指“Programmable Logic Device:可编程逻辑器件”的简称。FPGA是指“Field Programmable Gate Array:现场可编程门阵列”的简称。SoC是指“System-on-a-chip:片上系统”的简称。SSD是指“Solid S tate Drive:固态驱动器”的简称。USB是指“Universal Serial Bus:通用串行总线”的简称。HDD是指“HardDisk Drive:硬盘驱动器”的简称。EEPR OM是指“Electrically Erasable andProgrammable Read Only Memory:电可擦编程只读内存”的简称。EL是指“Electro-Luminescent:电致发光”的简称。I/F是指“Interface:接口”的简称。UI是指“UserInterface:用户界面”的简称。TOF是指“Time of Flight:飞行时间”的简称。fps是指“frame per second:每秒帧数”的简称。MF是指“Manual Focus:手动对焦”的简称。AF是指“Auto Focus:自动对焦”的简称。以下,为了便于说明,作为本发明的技术所涉及的“处理器”的一例而例示出CPU,但本发明的技术所涉及的“处理器”也可以如CPU及GPU等那样是多个处理装置的组合。作为本发明的技术所涉及的“处理器”的一例,在适用CPU及GPU的组合的情况下,GPU在CPU的控制下进行动作,并承担图像处理的执行。
在本说明书的说明中,“垂直”除了完全垂直以外,还指包括本发明技术所属技术领域中通常容许的误差的含义的垂直。
在以下说明中,除了在监视器上显示的“图像”以外,不是表现为“图像数据”,而是表现为“图像”的情况下,“图像”中还包括“表示图像的数据(图像数据)”的意思。在本说明书中,“图像内的被摄体”是指在图像内作为图像而包括的被摄体。
[第1实施方式]
作为一例,如图1所示,训练数据生成系统10具备摄像装置12、学习设备14及与学习设备14连接的数据库16。
摄像装置12例如是数码相机。摄像装置12经由互联网等通信网络可通信地连接于学习设备14。摄像装置12具有正常摄像模式和训练数据摄像模式作为摄像系统的动作模式。在正常摄像模式中,摄像装置12通过使机械快门48(参考图4)工作,将成像于图像传感器24的受光面24A(参考图4)上的图像(以下,称为“主曝光图像”)存储于内存中。在训练数据摄像模式中,摄像装置12将与表示主曝光图像内的特定被摄体的图像(以下,称为“特定被摄体图像”)有关的数据作为用于机器学习的数据输出到学习设备14。以下,将与特定被摄体图像有关的数据也称为“特定被摄体数据”。另外,机器学习例如包括深度学习及卷积神经网络等。
学习设备14例如是计算机。数据库16具备HDD或EEPROM等存储器,并存储由学习设备14接受的数据。
用于机器学习的数据例如是在机器学习中为了构建模型而使用的训练数据。在本实施方式中,训练数据是包括特定被摄体数据、与特定被摄体图像有关的信息即标签的带标签的图像数据。学习设备14通过使用训练数据进行有监督机器学习而构建将拍摄到图像上的被摄体的类别进行分类的类别分类模型。
在图1所示例中,摄像装置12的用户11(以下,简称为“用户11”)将摄像装置12设定为训练数据摄像模式,并依次拍摄特定被摄体A、B及C。用户11在拍摄特定被摄体A之前,在摄像装置12中,经由接受部60(参考图4)选择表示“脸部”的标签LA。摄像装置12将与通过拍摄特定被摄体A而得到的主曝光图像PA内的特定被摄体图像SA有关的特定被摄体数据与标签LA建立对应关联,并作为训练数据17A输出到学习设备14。学习设备14接受训练数据17A,并将与特定被摄体图像SA有关的特定被摄体数据与标签LA建立对应关联,并存储于数据库16中。
同样地,用户11在拍摄特定被摄体B之前,在摄像装置12中,经由接受部60(参考图4)选择表示“汽车”的标签LB。摄像装置12将与通过拍摄特定被摄体B而得到的主曝光图像PB内的特定被摄体图像SB有关的特定被摄体数据与标签LB建立对应关联,并作为训练数据17B输出到学习设备14。学习设备14接受训练数据17B,并将与特定被摄体图像SB有关的特定被摄体数据与标签LB建立对应关联,并存储于数据库16中。
并且,用户11在拍摄特定被摄体C之前,在摄像装置12中,经由接受部60(参考图4)选择表示“花”的标签LC。摄像装置12将与通过拍摄特定被摄体C而得到的主曝光图像PC内的特定被摄体图像SC有关的特定被摄体数据与标签LC建立对应关联,并作为训练数据17C输出到学习设备14。学习设备14接受训练数据17C,并将与特定被摄体图像SC有关的特定被摄体数据与标签LC建立对应关联,并存储于数据库16中。
在此,主曝光图像PA、PB及PC是本发明的技术所涉及的“摄像图像”的一例。特定被摄体A、B及C是本发明的技术所涉及的“特定被摄体”的一例。特定被摄体图像SA、SB及SC是本发明的技术所涉及的“特定被摄体图像”的一例。特定被摄体数据是本发明的技术所涉及的“特定被摄体数据”的一例。另外,在以下说明中,在不需要区分说明主曝光图像PA、PB及PC时统称为“主曝光图像P”。并且,在以下说明中,在不需要区分说明特定被摄体A、B及C的情况下,不标注符号而称为“特定被摄体”。并且,在以下说明中,在不需要区分说明特定被摄体图像SA、SB及SC时统称为“特定被摄体图像S”。
标签LA、LB及LC是本发明的技术所涉及的“标签”的一例。训练数据17A、17B及17C是本发明的技术所涉及的“数据”及“训练数据”的一例。另外,在以下说明中,在不需要区分说明标签LA、LB及LC时统称为“标签L”。并且,在以下说明中,在不需要区分说明训练数据17A、17B及17C时统称为“训练数据17”。
作为一例,如图2所示,摄像装置12是以镜头可换式且省略了反光镜的数码相机。摄像装置12具备摄像装置主体20和可更换地安装于摄像装置主体20的可更换镜头22。另外,在此,作为摄像装置12的一例而举出镜头可换式且省略了反光镜的数码相机,但本发明的技术并不限定于此,也可以是镜头固定式数码相机,也可以是未省略反光镜的数码相机,也可以是内置于智能器件、可穿戴终端、细胞观察装置、眼科观察装置或外科显微镜等各种电子设备中的数码相机。
在摄像装置主体20中设置有图像传感器24。图像传感器24具备光电转换元件80(参考图14)。图像传感器24具有受光面24A(参考图14)。图像传感器24以受光面24A的中心与光轴OA一致的方式配置在摄像装置主体20内。
图像传感器24是CMOS图像传感器。在可更换镜头22安装到摄像装置主体20的情况下,表示被摄体的被摄体光透过可更换镜头22成像于图像传感器24上,表示被摄体图像的图像数据由图像传感器24生成。在此,图像传感器24是本发明的技术所涉及的“图像传感器”的一例。
另外,在本实施方式中,作为图像传感器24而例示出CMOS图像传感器,但本发明的技术不限于此,例如,即使图像传感器24是CCD图像传感器等其他类型的图像传感器,本发明的技术也成立。
在摄像装置主体20的上表面上设置有释放按钮26及转盘28。转盘28在设定摄像装置12的动作模式时被操作。作为摄像装置12的动作模式,有包括正常摄像模式与训练数据摄像模式的摄像系统的动作模式、以及包括回放模式的回放系统的动作模式。
释放按钮26作为摄像准备指示部及摄像指示部而发挥作用,可以检测摄像准备指示状态和摄像指示状态这两个阶段的按压操作。摄像准备指示状态是指例如从待机位置被按下至中间位置(半按位置)的状态,摄像指示状态是指被按下至超过中间位置的最终按下位置(全按位置)的状态。另外,以下,将“从待机位置被按下至半按位置的状态”称为“半按状态”,将“从待机位置被按下至全按位置的状态”称为“全按状态”。并且,以下,将释放按钮26被按下至最终按下位置(全按位置)的操作也称为“主曝光操作”。另外,“主曝光操作”可以通过例如触摸后述触摸面板/监视器3等其他方法来进行。
作为一例,如图3所示,在摄像装置主体20的背面上设置有触摸面板/监视器30及指示键32。
触摸面板/监视器30具备监视器34及触摸面板36(参考图4)。作为监视器34的一例,可以举出有机EL显示器。监视器34可以不是有机EL显示器,而是无机EL显示器、液晶显示器等其他类型的显示器。另外,监视器34是本发明的技术所涉及的“监视器”的一例。
监视器34显示图像和/或字符信息等。监视器34在摄像装置12为摄像系统的动作模式的情况下,用于显示通过进行即时预览图像用拍摄即连续拍摄而得到的即时预览图像。即时预览图像用拍摄(以下,也称为“即时预览图像用摄像”)例如按照60fps的帧速率进行。另外,即时预览图像用摄像的帧速率并不限定于60fps,也可以高于或低于60fps。
在此,即时预览图像是指基于通过由图像传感器24拍摄而得到的图像数据的显示用动态图像。在此,即时预览图像是本发明的技术所涉及的“显示用动态图像”的一例。即时预览图像通常也被称为实时取景图像。并且,监视器34也用于显示主曝光图像P。此外,监视器34也用于显示当摄像装置12为回放模式时的回放图像及菜单画面等。
触摸面板36是透射型触摸面板,重叠于监视器34的显示区域的表面。触摸面板36通过检测手指或触控笔等指示体的接触而接受来自用户11的指示。
另外,在本实施方式中,作为触摸面板/监视器30的一例,可以举出触摸面板36重叠于监视器34的显示区域表面上的外挂型触摸面板/显示器,但这仅为一例。例如,作为触摸面板/监视器30,也可以适用外嵌型或内嵌型触摸面板/显示器。
指示键32接受各种指示。在此,“各种指示”是指例如可以选择各种菜单的菜单画面的显示指示、一个或多个菜单的选择指示、选择内容的确定指示、选择内容的删除指示、放大、缩小及帧传送等各种指示等。并且,这些指示可以通过触摸面板36来进行。
作为一例,如图4所示,摄像装置12具备卡口37及38。卡口37设置于摄像装置主体20上。卡口38在可更换镜头22中设置于与卡口37的位置对置的位置。可更换镜头22通过卡口38键合于卡口37而可更换地安装于摄像装置主体20。
作为一例,如图4所示,摄像透镜40包括物镜40A、聚焦透镜40B及光圈40C。物镜40A、聚焦透镜40B及光圈40C从被摄体侧(物体侧)到摄像装置主体20侧(像侧)沿着光轴OA以物镜40A、聚焦透镜40B及光圈40C的顺序配置。
并且,可更换镜头22具备滑动机构42、马达44及46。在滑动机构42上,沿着光轴OA可滑动地安装有聚焦透镜40B。并且,在滑动机构42上连接有马达44,滑动机构42受到马达44的动力而工作,由此使聚焦透镜40B沿着光轴OA移动。
光圈40C是开口的大小可变的光圈。在光圈40C上连接有马达46,光圈40C通过接受马达46的动力进行工作而调节曝光。另外,可更换镜头22的结构物和/或动作方法根据需要可以变更。
马达44及46经由卡口38连接于摄像装置主体20,并按照来自摄像装置主体20的命令而控制驱动。另外,在本实施方式中,作为马达44及46的一例而采用步进马达。从而,马达44及46根据来自摄像装置主体20的命令,与脉冲信号同步进行动作。并且,在图4所示例中示出马达44及46设置于可更换镜头22的例子,但并不限定于此,也可以马达44及46中的至少一个设置于摄像装置主体20,也可以马达44及46两者设置于摄像装置主体20。
摄像装置12在正常摄像模式的情况下,按照对摄像装置主体20赋予的指示选择性地设定为MF模式及AF模式中的一种。MF模式是手动对焦的动作模式。在MF模式中,例如,通过由用户11操作可更换镜头22的聚焦环(省略图示),聚焦透镜40B以与聚焦环的操作量对应的移动量沿着光轴OA移动,由此调节焦点。
在AF模式中,释放按钮26处于半按状态,由此摄像装置主体20进行与被摄体距离对应的对焦位置的运算,并使聚焦透镜40B朝向通过运算而得到的对焦位置移动,由此调节焦点。然后,释放按钮26持续处于全按状态,由此摄像装置主体20进行主曝光动作(后述)。在此,对焦位置是指对焦状态下的聚焦透镜40B在光轴OA上的位置。
另外,在训练数据摄像模式的情况下,摄像装置12设定为AF模式。以下,为了便于说明,将使聚焦透镜40B对准于对焦位置的控制也称为“AF控制”。并且,以下,为了便于说明,将对焦位置的运算也称为“AF运算”。
摄像装置主体20具备机械快门48。机械快门48是焦平面快门,配置在光圈40C与受光面24A之间。机械快门48通过接受来自马达等驱动源(省略图示)的动力而工作。机械快门48具有遮挡透过摄像透镜40成像于图像传感器24的受光面24A上的被摄体光的遮光机构(省略图示)。根据机械快门48开闭遮光机构的时刻,摄像装置12进行主曝光动作。主曝光动作是指取入成像于受光面24A上的图像(主曝光图像P)的图像数据并存储于内存中的动作。另外,主曝光动作是本发明的技术所涉及的“摄像”的一例。
摄像装置主体20具备控制器50及UI系统器件52。控制器50控制整个摄像装置12。UI系统器件52是对用户11呈现信息,或者接受来自用户11的指示的设备。在控制器50上,经由总线58连接有UI系统器件52,控制器50进行来自UI系统器件52的各种信息的获取、以及UI系统器件52的控制。注意,控制器50是本发明的技术所涉及的“信息处理装置”的一例。
控制器50具备CPU50A、NVM50B、RAM50C、控制I/F50D及输入I/F50E。C PU50A、NVM50B、RAM50C、控制I/F50D及输入I/F50E经由总线58彼此连接。
CPU50A是本发明的技术所涉及的“处理器”的一例。CPU50A控制整个摄像装置12。NVM50B是本发明的技术所涉及的“内存”的一例。作为NVM50B的一例,可以举出EEPROM。然而,EEPROM仅为一例,例如,也可以是铁电内存来代替EEPROM,若为可搭载于摄像装置12上的非易失性内存,则可以是任何内存。RAM50C是执行各种程序时的用作工作区等的易失性内存。
在NVM50B中存储有各种程序51。CPU50A从NVM50B读取所需程序51,并在RAM50C上执行所读取的程序51,由此集中控制摄像装置12。
控制I/F50D是具有FPGA的设备,其连接于图像传感器24。CPU50A经由控制I/F50D控制图像传感器24。并且,控制I/F50D经由卡口37及38连接于马达44及46,CPU50A经由控制I/F50D控制马达44及46。
输入I/F50E连接于图像传感器24。输入I/F50E接受从图像传感器24输出的图像数据。控制器50对图像数据实施例如白平衡调整、锐度调整、伽马校正、色彩空间转换处理及色差校正等公知的信号处理,由此生成表示主曝光图像P的主曝光图像数据。
在总线58上连接有外部I/F54。外部I/F54是具有FPGA的设备。在外部I/F54上连接有USB内存或存储卡等外部装置(省略图示)。外部I/F54管理CPU50A与外部装置之间的各种信息的收发。CPU50A经由外部I/F54使主曝光图像数据存储于外部装置中。
并且,在总线58上连接有通信I/F56。通信I/F56经由互联网等通信网络可通信地连接于学习设备14。在训练数据摄像模式中,CPU50A经由通信I/F56将训练数据17输出到学习设备14。
UI系统设备52具备触摸面板/监视器30及接受部60。监视器34及触摸面板36连接于总线58。从而,CPU50A使监视器34显示各种信息,并按照通过触摸面板36接受的各种指示进行动作。
接受部60具备触摸面板36及硬键部62。硬键部62是多个硬键,包括释放按钮26、转盘28及指示键32。硬键部62连接于总线58,CPU50A按照由硬键部62接受的各种指示进行动作。
另外,在图4所示例中,为了便于图示,作为总线58而图示出一根总线,但也可以是多根总线。总线58可以是串行总线,也可以是包括数据总线、地址总线及控制总线等的并行总线。
在NVM50B中存储的各种程序51中包括训练数据生成程序51A。在摄像装置12设定为训练数据摄像模式的情况下,CPU50A从NVM50B读取训练数据生成程序51A,并在RAM50C上执行所读取的训练数据生成程序51A,由此作为训练数据生成部53进行动作。训练数据生成部53执行训练数据生成处理。关于由训练数据生成部53进行训练数据生成处理,以下具体地进行说明。
作一例,如图5所示,在训练数据摄像模式中,训练数据生成部53在触摸面板/监视器30上显示标签选择画面64。在标签选择画面64上显示有“请选择赋予到被摄体的标签”的消息64A和列出多个标签候选的表64B。
在表64B的第1列中,显示有表示相对大的属性的标签候选(以下,也称为“大标签候选”)。大标签候选例如是“人物”、“交通工具”及“建筑物”。在表64B的其他列中,显示表示将第1列的大标签候选细分化的属性的标签候选(以下,也称为“小标签候选”)。例如,在大标签候选为“人物”的情况下,作为小标签候选,可以举出“脸部”、“男性”、“女性”及“儿童”。用户11通过用指示体接触到触摸面板36,从表64B中选择任意的标签候选。
在拍摄图1所示的特定被摄体A的情况下,作为一例,如图5所示,用户11经由触摸面板/监视器30从表64B中所列出的标签候选中选择“脸部”的标签。另外,图5中列出的标签候选是一例,标签候选并不限定于此。并且,标签候选的显示方法并不限定于此。在图5所示例中选择了一个小标签候选,但也可以选择大标签候选,或者可以选择多个小标签候选。
训练数据生成部53接受所选择的标签L。训练数据生成部53将所接受的标签L存储于RAM50C中。
作一例,如图6所示,在接受标签L之后,训练数据生成部53使基于从图像传感器24输出的摄像信号的即时预览图像66显示于监视器34上。并且,在训练数据摄像模式中,训练数据生成部53在显示有即时预览图像66的监视器34的中央重叠显示AF框68。AF框68是用于在AF模式中以与其他图像区域可区分的方式在即时预览图像66上显示成为对焦对象的区域(以下,也称为“聚焦对象区域”)的框。另外,AF框68是本发明的技术所涉及的“框”的一例。并且,聚焦对象区域是本发明的技术所涉及的“聚焦对象区域”的一例。并且,摄像信号是本发明的技术所涉及的“信号”的一例。
AF框68包括矩形框线68A和配置在框线68A的四边上的四个三角箭头68B-U、68B-D、68B-R及68B-L。以下,在不需要区分说明三角箭头68B-U、68B-D、68B-R及68B-L时统称为“三角箭头68B”。
用户11通过用指示体接触到触摸面板36上的三角箭头68B,能够对训练数据生成部53赋予使AF框68的位置沿各三角箭头68B所示方向移动的位置变更指示。训练数据生成部53按照被赋予的位置变更指示,在监视器34上变更AF框68的位置。在此,位置变更指示是本发明的技术所涉及的“位置变更指示”的一例。另外,在触摸面板36上显示的三角箭头68B仅为用于接受来自用户11的位置变更指示的手段的一例,若能够经由接受部60接受来自用户11的位置变更指示,则其手段不受限定。
例如,在图6中,用户11通过用指示体接触到触摸面板36上的三角箭头68B-U及68B-L,对训练数据生成部53赋予以框线68A包围表示特定被摄体A的脸部的区域的方式使AF框68移动的位置变更指示。由此,AF框68例如移动到图7所示的位置。
并且,用户11在显示于触摸面板/监视器30上的框线68A上进行捏合或捏开动作,由此能够对训练数据生成部53赋予使框线68A的尺寸变更的尺寸变更指示。作为一例,如图8所示,与图7所示例相比,在降低了摄像透镜40的变焦倍率的情况下,用户11对训练数据生成部53赋予以框线68A包围表示特定被摄体A的脸部的区域的方式使框线68A的尺寸变小的尺寸变更指示。训练数据生成部53按照被赋予的尺寸变更指示,在监视器34上变更框线68A的尺寸。另外,尺寸变更指示是本发明的技术所涉及的“尺寸变更指示”的一例。另外,捏合及捏开动作仅为用于接受来自用户11的尺寸变更指示的手段的一例,若能够经由接受部60接受来自用户11的位置变更指示,则其手段并不受限定。
用户11在变更AF框68的位置及尺寸之后,进行将释放按钮26按下至半按位置的AF动作。在此,AF动作是本发明的技术所涉及的“聚焦动作”的一例。在进行AF动作的情况下,训练数据生成部53在即时预览图像66中将由框线68A包围的区域指定为聚焦对象区域F。
训练数据生成部53获取表示聚焦对象区域F的位置的位置坐标。作为一例,如图9所示,聚焦对象区域F的位置坐标以即时预览图像66的左下角为原点O(0,0),由框线68A的右下角Q1A的坐标(X1A,Y1A)、框线68A的左上角Q2A的坐标(X2A,Y2A)表示。训练数据生成部53将所获取的聚焦对象区域F的位置坐标存储于RAM50C中。另外,位置坐标是本发明的技术所涉及的“坐标”的一例。
在用户11进行AF动作之后将释放按钮26按下至全按位置的情况下,由摄像装置12进行主曝光动作,训练数据生成部53从主曝光图像PA中提取表示聚焦对象区域F的图像作为特定被摄体图像SA。作为一例,如图10所示,训练数据生成部53将与特定被摄体图像SA有关的特定被摄体数据和标签LA建立对应关联,并作为训练数据17A输出到学习设备14。与特定被摄体图像SA有关的特定被摄体数据包括主曝光图像PA和表示主曝光图像PA内的特定被摄体图像SA的位置的位置坐标,即聚焦对象区域F的位置坐标。
同样地,在训练数据摄像模式中,在用户11使AF框68以包围特定被摄体B的方式移动之后使摄像装置12进行了AF动作及主曝光动作的情况下,训练数据生成部53从主曝光图像PB中提取表示聚焦对象区域F的图像作为特定被摄体图像SB。训练数据生成部53将与特定被摄体图像SB有关的特定被摄体数据和标签LB建立对应关联,并作为训练数据17B输出到学习设备14。与特定被摄体图像SB有关的特定被摄体数据包括主曝光图像PB和表示主曝光图像PB内的特定被摄体图像SB的位置的位置坐标。
同样地,在训练数据摄像模式中,在用户11使AF框68以包围特定被摄体C的方式移动之后使摄像装置12进行了AF动作及主曝光动作的情况下,训练数据生成部53从主曝光图像PC中提取表示聚焦对象区域F的图像作为特定被摄体图像SC。训练数据生成部53将与特定被摄体图像SC有关的特定被摄体数据和标签LC建立对应关联,并作为训练数据17C输出到学习设备14。与特定被摄体图像SC有关的特定被摄体数据包括主曝光图像PC和表示主曝光图像PC内的特定被摄体图像SC的位置的位置坐标。
学习设备14具备计算机15和输入/输出I/F14D。输入/输出I/F14D与摄像装置12的通信I/F56可通信地连接。输入/输出I/F14D从摄像装置12接受训练数据17。计算机15将通过输入/输出I/F14D接受的训练数据17存储于数据库16中。并且,计算机15从数据库16读取训练数据17,并使用所读取的训练数据17进行机器学习。
计算机15包括CPU14A、NVM14B和RAM14C。CPU14A控制整个学习设备14。作为NVM14B的一例,可以举出EEPROM。然而,EEPROM仅为一例,例如,可以是铁电内存来代替EEPROM,若为可搭载于学习设备14上的非易失性内存,则可以是任何内存。RAM14C是执行各种程序时的用作工作区等的易失性内存。
在NVM14B中存储有学习执行程序72。CPU14A从NVM14B读取学习执行程序72,并在RAM14C上执行所读取的学习执行程序72,由此作为学习执行部76进行动作。学习执行部76按照学习执行程序72使用训练数据17使神经网络74学习,由此构建有监督学习模型。
接着,参考图11,对该第1实施方式所涉及的摄像装置12的作用进行说明。图11中示出由训练数据生成部53执行的训练数据生成处理的流程的一例。训练数据生成处理通过CPU50A执行训练数据生成程序51A来实现。训练数据生成处理在摄像装置12设定为训练数据摄像模式时开始。
在图11所示的训练数据生成处理中,首先,在步骤ST101中,训练数据生成部53例如使如图5所示的标签选择画面64显示于触摸面板/监视器30上。然后,训练数据生成处理转移到步骤ST102。
在步骤ST102中,训练数据生成部53判定是否在触摸面板/监视器30上选择了标签L。在步骤ST102中,在选择了标签L的情况下,判定被肯定,训练数据生成处理转移到步骤ST103。在步骤ST102中,在未选择标签L的情况下,判定被否定,训练数据生成处理转移到步骤ST101。
在步骤ST103中,训练数据生成部53使即时预览图像66显示于触摸面板/监视器30上。然后,训练数据生成处理转移到步骤ST104。
在步骤ST104中,训练数据生成部53在显示于触摸面板/监视器30上的即时预览图像66上重叠显示AF框68。然后,训练数据生成处理转移到步骤ST105。
在步骤ST105中,训练数据生成部53按照来自用户11的位置变更指示及尺寸变更指示而变更AF框68的位置及尺寸。用户11在即时预览图像66中,以表示特定被摄体的区域由AF框68的框线68A包围的方式,经由接受部60赋予位置变更指示及尺寸变更指示。然后,训练数据生成处理转移到步骤ST106。
在步骤ST106中,训练数据生成部53判定是否进行了AF动作。在步骤ST106中,在进行了AF动作的情况下,判定被肯定,训练数据生成处理转移到步骤ST107。在步骤ST106中,在未进行AF动作的情况下,判定被否定,训练数据生成处理转移到步骤ST105。
在步骤ST107中,训练数据生成部53获取由AF框68表示的聚焦对象区域F的位置坐标。然后,训练数据生成处理转移到步骤ST108。
在步骤ST108中,训练数据生成部53判定是否进行了主曝光。在步骤ST108中,在进行了主曝光的情况下,判定被肯定,训练数据生成处理转移到步骤ST109。在步骤ST108中,在未进行主曝光的情况下,判定被否定,训练数据生成处理转移到步骤ST106。
在步骤ST109中,训练数据生成部53获取主曝光图像P。然后,训练数据生成处理转移到步骤ST110。
在步骤ST110中,训练数据生成部53从主曝光图像P中提取表示聚焦对象区域F的图像作为特定被摄体图像S。然后,训练数据生成处理转移到步骤ST111。
在步骤ST111中,训练数据生成部53将特定被摄体数据和标签L建立对应关联,并输出到学习设备14。特定被摄体数据包括主曝光图像P和特定被摄体图像S的位置坐标,即聚焦对象区域F的位置坐标。学习设备14将所接受的特定被摄体数据和标签L作为训练数据17存储于数据库16中。由此,训练数据生成处理结束。
如以上说明,在该第1实施方式中,在由图像传感器24进行了伴随将特定被摄体作为聚焦对象区域的聚焦动作的主曝光动作的情况下,训练数据生成部53将与通过主曝光动作而得到的主曝光图像P内的特定被摄体图像S有关的特定被摄体数据作为用于机器学习的训练数据17而输出。从而,根据该结构,与从通过由图像传感器24拍摄而得到的主曝光图像P中以手动操作提取特定被摄体图像S的情况相比,能够简单地收集用于机器学习的训练数据17。
并且,在该第1实施方式中,机器学习是有监督机器学习。训练数据生成部53将与特定被摄体图像S有关的信息即标签L赋予到特定被摄体数据,并将特定被摄体数据作为用于有监督机器学习的训练数据17而输出。从而,根据该结构,能够收集在有监督机器学习中需要的训练数据17。
并且,在该第1实施方式中,训练数据生成部53使基于从图像传感器24输出的摄像信号的即时预览图像66显示于监视器34上。训练数据生成部53在即时预览图像66中,使用AF框68以与其他图像区域可以区分的方式显示聚焦对象区域F。特定被摄体图像S是与主曝光图像P内的聚焦对象区域F的位置对应的图像。从而,根据该结构,与特定被摄体图像S和聚焦对象区域F的位置无关的情况相比,能够容易提取特定被摄体图像S。
并且,在该第1实施方式中,训练数据生成部53通过在即时预览图像66上显示包围聚焦对象区域F的AF框68,以与其他图像区域可以区分的方式显示聚焦对象区域F。从而,根据该结构,与不显示AF框68的情况相比,用户11容易识别特定被摄体图像S。
并且,在该第1实施方式中,AF框68的位置按照被赋予的位置变更指示可以变更。从而,根据该结构,与AF框68的位置固定的情况相比,用户11能够使聚焦对象区域F自由移动。
并且,在该第1实施方式中,AF框68的尺寸按照被赋予的尺寸变更指示可以变更。从而,根据该结构,与AF框68的尺寸固定的情况相比,用户11能够使聚焦对象区域F的尺寸自由变更。
并且,在该第1实施方式中,特定被摄体数据包括特定被摄体图像S的位置坐标。训练数据生成部53将主曝光图像P和聚焦对象区域F的位置坐标,即特定被摄体图像S的位置坐标作为用于机器学习的训练数据17而输出。从而,根据该结构,与切出并输出特定被摄体图像S的情况相比,具有可以减少处理工序的优点。
并且,在该第1实施方式中,学习设备14具备接受从摄像装置12的控制器50输出的特定被摄体数据的输入/输出I/F14D、以及使用通过输入/输出I/F14D接受的特定被摄体数据进行机器学习的计算机15。并且,摄像装置12具备控制器50和图像传感器24。从而,根据该结构,与从通过由图像传感器24拍摄而得到的主曝光图像P中以手动操作选择了用于学习的特定被摄体图像S的情况相比,学习设备14能够简单地收集用于学习的训练数据17。
另外,在上述第1实施方式中,作为一例,如图1所示,一个用户11通过使用同一摄像装置12拍摄多个特定被摄体A、B及C而获取训练数据17A、17B及17C,但本发明的技术并不限定于此。也可以多个用户使用分别不同的摄像装置12拍摄不同的被摄体,并从多个摄像装置12向同一学习设备14输出训练数据17。在该情况下,由多个用户获取的训练数据17输出到同一学习设备14,由此学习设备14能够有效地收集训练数据17。
并且,在上述第1实施方式中,训练数据生成部53输出框线68A的右下角Q1A及左上角Q2A的坐标作为特定被摄体图像S的位置坐标,但本发明的技术并不限定于此。训练数据生成部53也可以输出框线68A的右上角及左下角的坐标。或者,训练数据生成部53可以输出框线68A的一个角的坐标和构成框线68A的纵边及横边的长度。或者,训练数据生成部53可以输出框线68A的中心的坐标和从中心到纵边及横边的长度。并且,特定被摄体图像S的位置坐标由以即时预览图像66的左下角为原点时的坐标来表示,但本发明的技术并不限定于此,也可以以即时预览图像66的其他角为原点,或者可以以即时预览图像66的中心为原点。
[第2实施方式]
该第2实施方式与上述第1实施方式不同点在于,通过由AF框68包围而指定的聚焦对象区域F不被提取为特定被摄体图像S。以下,具体说明与第1实施方式的不同点。在以下说明中,对与第1实施方式相同的结构及作用标注相同的符号,并省略其说明。
作为一例,如图12所示,在该第2实施方式中,在触摸面板/监视器30上显示有基于从图像传感器24输出的摄像信号的即时预览图像66,此外,AF框68重叠显示于即时预览图像66上。在图12所示例中,训练数据生成部53在即时预览图像66中,经由接受部60接受来自用户11的位置变更指示及尺寸变更指示,由此在表示特定被摄体A的左眼的图像上配置AF框68。然后,通过进行AF动作,由框线68A包围的特定被摄体A的左眼区域指定为聚焦对象区域F。训练数据生成部53在即时预览图像66中接受聚焦对象区域F的指定。然后,摄像装置12进行主曝光动作,由此训练数据生成部53获取对焦于聚焦对象区域F的主曝光图像P。
作为一例,如图13所示,在通过拍摄而得到的主曝光图像P中,训练数据生成部53设定包括聚焦对象区域F的候选区域78。候选区域78是成为提取特定被摄体图像S的候选区域。另外,候选区域78是本发明的技术所涉及的“规定区域”的一例。
候选区域78例如分割为9行×9列的矩阵状。以下,为了区分表示各分割区域,为了便于说明,如图13所示,根据各分割区域的位置标注符号。例如,对位于候选区域78的第1行第1列的分割区域标注符号D11,对位于候选区域78的第2行第1列的分割区域标注符号D21。并且,在不需要区分说明分割区域时统称为“分割区域D”。另外,分割区域D是本发明的技术所涉及的“分割区域”的一例。
位于候选区域78的中心的分割区域D55与聚焦对象区域F一致。即,聚焦对象区域F的位置及尺寸以分割区域D单位被指定。
作为一例,如图14所示,图像传感器24具备光电转换元件80。光电转换元件80具有配置成矩阵状的多个感光像素,受光面24A由这些感光像素形成。感光像素是具有光电二极管PD的像素,对所接受的光进行光电转换,并输出与受光量对应的电信号。各分割区域D的图像数据基于从多个光电二极管PD输出的电信号而生成。
在光电二极管PD中配置有滤色器。滤色器包括最有助于得到亮度信号的与G(绿色)波长区域对应的G滤光片、与R(红色)波长区域对应的R滤光片、与B(蓝色)波长区域对应的B滤光片。
光电转换元件80具备相位差像素84和与相位差像素84不同的像素即非相位差像素86这两种感光像素。通常,非相位差像素86也被称为正常像素。光电转换元件80具有R像素、G像素及B像素这三种感光像素作为非相位差像素86。R像素、G像素、B像素及相位差像素84在行方向(例如,使摄像装置主体20的底面接触到水平面的状态下的水平方向)及列方向(例如,与水平方向垂直的方向即垂直方向)上分别以规定的周期性规则地配置。R像素是与配置有R滤光片的光电二极管PD对应的像素,G像素及相位差像素84是与配置有G滤光片的光电二极管PD对应的像素,B像素是与配置有B滤光片的光电二极管PD对应的像素。
在受光面24A上排列有多个相位差像素线82A和多个非相位差像素线82B。相位差像素线82A是包括相位差像素84的水平线。具体而言,相位差像素线82A是相位差像素84和非相位差像素86混合存在的水平线。非相位差像素线82B是仅包括多个非相位差像素86的水平线。
在受光面24A上,相位差像素线82A与规定行数量的非相位差像素线82B沿着列方向交替配置。在此所说的“规定线数”是指例如两行。另外,在此,作为规定行数而例示出两行,但本发明的技术并不限定于此,规定行数可以是三行以上的几行,也可以是十几行、几十行或几百行等。
相位差像素线82A从第1行到最终行沿列方向跳过两行排列。相位差像素线82A的一部分像素是相位差像素84。具体而言,相位差像素线82A是相位差像素84与非相位差像素86周期性地排列的水平线。
相位差像素84大致分为第1相位差像素84-L和第2相位差像素84-R。在相位差像素线82A中,作为G像素,第1相位差像素84-L和第2相位差像素84-R在行方向上以数像素间隔交替配置。
第1相位差像素84-L及第2相位差像素84-R配置成在列方向上交替出现。在图14所示例中,在第4列中,从第1行沿着列方向以第1相位差像素84-L、第2相位差像素84-R、第1相位差像素84-L及第2相位差像素84-R的顺序配置。即,第1相位差像素84-L与第2相位差像素84-R从第1行沿着列方向交替配置。并且,在图14所示例中,在第10列中,从第1行沿着列方向以第2相位差像素84-R、第1相位差像素84-L、第2相位差像素84-R及第1相位差像素84-L的顺序配置。即,第2相位差像素84-R与第1相位差像素84-L从第1行沿着列方向交替配置。
作为一例,如图15所示,第1相位差像素84-L具备遮光部件88-L、微透镜90及光电二极管PD。在第1相位差像素84-L中,在微透镜90与光电二极管PD的受光面之间配置有遮光部件88-L。光电二极管PD的受光面中的行方向的左半部分(从受光面面对被摄体时的左侧,换言之,从被摄体面对受光面时的右侧)由遮光部件88-L遮光。
第2相位差像素84-R具备遮光部件88-R、微透镜90及光电二极管PD。在第2相位差像素84-R中,在微透镜90与光电二极管PD的受光面之间配置有遮光部件88-R。光电二极管PD的受光面中的行方向的右半部分(从受光面面对被摄体时的右侧,换言之,从被摄体面对受光面时的左侧)由遮光部件88-R遮光。另外,以下,为了便于说明,在不需要区分说明遮光部件88-L及88
-R的情况下,称为“遮光部件88”。
通过摄像透镜40的射出光瞳的光束大致分为左区域通过光92L及右区域通过光92R。左区域通过光92L是指在通过摄像透镜40的射出光瞳的光束中,从相位差像素侧84面对被摄体侧时的左半部分的光束,右区域通过光92R是指在通过摄像透镜40的射出光瞳的光束中,从相位差像素侧84面对被摄体侧时的右半部分的光束。通过摄像透镜40的射出光瞳的光束由作为光瞳分割部发挥作用的微透镜90、遮光部件88-L及遮光部件88-R左右分割,第1相位差像素84-L接受左区域通过光92L作为被摄体光,第2相位差像素84-R接受右区域通过光92R作为被摄体光。其结果,由光电转换元件80生成相当于与左区域通过光92L对应的被摄体图像的第1相位差图像数据、以及相当于与右区域通过光92R对应的被摄体图像的第2相位差图像数据。
训练数据生成部53在拍摄聚焦对象区域F的相位差像素84中,从配置在同一相位差像素线82A中的第1相位差像素84-L获取一行量的第1相位差图像数据,从配置在同一相位差像素线82A中的第2相位差像素84-R获取一行量的第2相位差图像数据。训练数据生成部53基于一行量的第1相位差图像数据与一行量的第2相位差图像数据的偏移量α,测定到聚焦对象区域F为止的距离。另外,导出从偏差量α到聚焦对象区域F为止的距离的方法是公知技术,因此在此省略详细说明。
训练数据生成部53基于到所测定的聚焦对象区域F为止的距离进行AF运算,由此导出聚焦透镜40B的对焦位置。以下,将基于到聚焦对象区域F为止的距离导出的聚焦透镜40B的对焦位置也称为“聚焦对象区域对焦位置”。训练数据生成部53进行使聚焦透镜40B对准于聚焦对象区域对焦位置的聚焦动作。
并且,关于各分割区域D,训练数据生成部53在拍摄各分割区域D的相位差像素84中,从配置在同一相位差像素线82A中的第1相位差像素84-L获取一行量的第1相位差图像数据,从配置在同一相位差像素线82A中的第2相位差像素84-R获取一行量的第2相位差图像数据。训练数据生成部53基于一行量的第1相位差图像数据与一行量的第2相位差图像数据的偏移量α,测定到各分割区域D为止的距离。
训练数据生成部53基于到所测定的各分割区域D为止的距离进行AF运算,由此导出各分割区域D中的聚焦透镜40B的对焦位置。以下,将基于到各分割区域D为止的距离导出的聚焦透镜40B的对焦位置也称为“分割区域对焦位置”。
关于各分割区域D,训练数据生成部53判定从聚焦对象区域对焦位置到分割区域对焦位置的距离(以下,也称为“对焦位置间距离”)是否小于预先设定的距离阈值。训练数据生成部53确定为对焦位置间距离小于距离阈值的分割区域D是与聚焦对象区域F的相似度高的区域。在此,距离阈值是例如通过实机的测试和/或计算机模拟等,作为用于提取特定被摄体图像S的阈值而预先导出的值。距离阈值可以是固定值,也可以是根据被赋予的指示和/或条件(例如,摄像条件等)变更的可变值。
另外,对焦位置间距离是本发明的技术所涉及的“相似评价值”的一例。并且,聚焦对象区域对焦位置是本发明的技术所涉及的“聚焦评价值”的一例。并且,距离阈值是本发明的技术所涉及的“第1规定范围”的一例。
在图13所示例中,训练数据生成部53对在候选区域78中包括的81个分割区域D中去除聚焦对象区域F(分割区域D55)的80个分割区域D计算对焦位置间距离。训练数据生成部53判定所算出的对焦位置间距离是否小于距离阈值。在图13中,由阴影表示的分割区域D是判定为对焦位置间距离小于距离阈值的分割区域,即确定为与聚焦对象区域F的相似度高的分割区域。
训练数据生成部53基于所确定的分割区域D从主曝光图像P中提取特定被摄体图像S。在图13所示例中,训练数据生成部53以刚好包围所确定的分割区域D的方式,以分割区域D单位提取矩形的特定被摄体图像S。
接着,参考图16,对该第2实施方式所涉及的摄像装置12的作用进行说明。图16中示出第2实施方式所涉及的训练数据生成处理的流程的一例。
在图16中,步骤ST201~步骤ST209与图11的步骤ST101~步骤ST109相同,因此省略说明。
在步骤ST210中,训练数据生成部53在主曝光图像P中设定候选区域78及分割区域D。然后,训练数据生成处理转移到步骤ST211。
在步骤ST211中,训练数据生成部53计算各分割区域D的对焦位置间距离。然后,训练数据生成处理转移到步骤ST212。
在步骤ST212中,训练数据生成部53确定对焦位置间距离小于距离阈值的分割区域D。然后,训练数据生成处理转移到步骤ST213。
在步骤ST213中,训练数据生成部53基于所确定的分割区域D从主曝光图像P中提取特定被摄体图像S。并且,训练数据生成部53获取所提取的特定被摄体图像S的位置坐标。然后,训练数据生成处理转移到步骤ST214。
在步骤ST214中,训练数据生成部53将特定被摄体数据和标签L建立对应关联,并输出到学习设备14。特定被摄体数据是包括主曝光图像P和特定被摄体图像S的位置坐标的数据。学习设备14将所接受的特定被摄体数据及标签L作为训练数据17存储于数据库16中。由此,训练数据生成处理结束。
如以上说明,在该第2实施方式中,训练数据生成部53使基于从图像传感器24输出的摄像信号的即时预览图像66显示于触摸面板/监视器30。训练数据生成部53在即时预览图像66中经由接受部60从用户11接受聚焦对象区域F的指定。训练数据生成部53在包括聚焦对象区域F的候选区域78中,基于表示与聚焦对象区域F的相似度的对焦位置间距离小于距离阈值的分割区域D,从主曝光图像P中提取特定被摄体图像S。从而,根据该结构,用户11将特定被摄体A的一部分作为聚焦对象区域F进行拍摄,由此从主曝光图像P中提取表示整个特定被摄体A的特定被摄体图像S,因此与必须将整个特定被摄体A指定为聚焦对象区域F的情况相比,能够通过简单的操作来收集用于学习的训练数据17。
并且,在该第2实施方式中,训练数据生成部53通过显示包围聚焦对象区域F的AF框68,以其他图像区域可以区分的方式显示聚焦对象区域F。从而,根据该结构,与不显示AF框68的情况相比,用户11容易识别特定被摄体图像S。
并且,在该第2实施方式中,聚焦对象区域F及特定被摄体图像S中的至少一方以通过分割候选区域78而得到的分割区域D单位来确定。从而,根据该结构,与未分割候选区域78的情况相比,从主曝光图像P中提取特定被摄体图像S所需处理变得容易。
并且,在该第2实施方式中,从在聚焦动作中使用的聚焦对象区域对焦位置到各分割区域对焦位置的距离(对焦位置间距离)用作表示与聚焦对象区域F的相似度的相似评价值。从而,根据该结构,与不使用在聚焦动作中使用的聚焦对象区域对焦位置的情况相比,训练数据生成部53能够从主曝光图像P中容易提取特定被摄体图像S。
另外,在该第2实施方式中,作为一例,如图13所示,聚焦对象区域F包括一个分割区域D55,但聚焦对象区域F也可以指定为包括两个以上的分割区域D。并且,候选区域78的位置及尺寸并不限定于图13所示例,若候选区域78包括聚焦对象区域F,则可以设定为任意的位置及尺寸。并且,分割区域D的数量、位置及尺寸也并不限定于图13所示例,而可以任意变更。
并且,在上述第2实施方式中,作为一例,如图13所示,例示出矩形的特定被摄体图像S,但本发明的即使并不限定于此。训练数据生成部53在主曝光图像P中可以仅提取相对于聚焦对象区域F的对焦位置间距离小于距离阈值的分割区域D,即图13中由阴影表示的分割区域D作为特定被摄体图像S。
[第3实施方式]
该第3实施方式与第2实施方式不同点在于,代替对焦位置间距离而使用基于候选区域78的颜色信息的颜色评价值作为相似评价值。以下,对与第2实施方式的不同点进行说明。在以下说明中,对与第1实施方式及第2实施方式相同的结构及作用标注相同的符号,并省略其说明。
作为一例,如图17所示,在主曝光图像P中,与所述第2实施方式同样地设定有聚焦对象区域F、候选区域78及多个分割区域D。训练数据生成部53计算各分割区域D的RGB累计值。RGB累计值是将各分割区域D的每个RGB的电信号累计的值。并且,训练数据生成部53基于RGB累计值计算表示各分割区域D的颜色的RGB值。
训练数据生成部53以相当于聚焦对象区域F的分割区域D55的颜色为基准,计算聚焦对象区域F与各分割区域D的色差(以下,简称为“色差”)。另外,聚焦对象区域F的RGB值为(RF,GF,BF),在分割区域D的RGB值为(RD,GD,BD)的情况下,聚焦对象区域F与分割区域D的色差使用以下式来计算。
色差={(RD-RF)2+(GD-GF)2+(BD-BF)2}1/2
训练数据生成部53对各分割区域D判定所算出的色差是否小于预先设定的色差阈值。训练数据生成部53确定色差小于色差阈值的分割区域D是与聚焦对象区域F的相似度高的区域。在此,色差阈值是例如通过实际装置的测试和/或计算机模拟等,作为用于提取特定被摄体图像S的阈值而预先导出的值。色差阈值可以是固定值,也可以是根据被赋予的指示和/或条件(例如,摄像条件等)变更的可变值。另外,RGB值是本发明的技术所涉及的“颜色信息”的一例。并且,色差是本发明的技术所涉及的“相似评价值”及“颜色评价值”的一例。并且,色差阈值是本发明的技术所涉及的“第1规定范围”的一例。
在图17所示例中,训练数据生成部53对从候选区域78中包括的81个分割区域D中去除聚焦对象区域F(分割区域D55)的80个分割区域D计算色差。训练数据生成部53判定所算出的色差是否小于色差阈值。在图17中,由阴影表示的分割区域D是判定为色差小于色差阈值的分割区域,即确定为与聚焦对象区域F的相似度高的分割区域。
训练数据生成部53以刚好包围所确定的分割区域D的方式,以分割区域D单位从主曝光图像P中提取矩形的特定被摄体图像S。
接着,参考图18,对该第3实施方式所涉及的摄像装置12的作用进行说明。图18中示出第3实施方式所涉及的训练数据生成处理的流程的一例。
在图18中,步骤ST301~步骤ST309与图11的步骤ST101~步骤ST109相同,因此省略说明。并且,在图18中,步骤ST310与图16的步骤ST210相同,因此省略说明。
在步骤ST311中,训练数据生成部53计算各分割区域D的色差。然后,训练数据生成处理转移到步骤ST312。
在步骤ST312中,训练数据生成部53确定色差小于色差阈值的分割区域D。然后,训练数据生成处理转移到步骤ST313。
在步骤ST313中,训练数据生成部53基于所确定的分割区域D从主曝光图像P中提取特定被摄体图像S。并且,训练数据生成部53获取所提取的特定被摄体图像S的位置坐标。然后,训练数据生成处理转移到步骤ST314。
在步骤ST314中,训练数据生成部53将特定被摄体数据和标签L建立对应关联,并输出到学习设备14。特定被摄体数据是包括主曝光图像P和特定被摄体图像S的位置坐标的数据。学习设备14将所接受的特定被摄体数据及标签L作为训练数据17存储于数据库16中。由此,训练数据生成处理结束。
如以上说明,在该第3实施方式中,聚焦对象区域F与各分割区域D的色差用作相似评价值。从而,根据该结构,与不使用聚焦对象区域F与各分割区域D的色差的情况相比,训练数据生成部53能够从主曝光图像P中容易提取特定被摄体图像S。
另外,在该第3实施方式中,训练数据生成部53将聚焦对象区域F与各分割区域D的色差不用作相似评价值,但本发明的技术并不限定于此。训练数据生成部53除了聚焦对象区域F与各分割区域D的色差以外,或者代替色差,还可以将聚焦对象区域F与各分割区域D的彩度差用作相似评价值。
[第4实施方式]
在该第4实施方式中,训练数据生成部53使用对焦位置间距离和色差两者,从主曝光图像P中提取特定被摄体图像S。该第4实施方式所涉及的摄像装置12的结构与上述第1实施方式相同,因此省略说明。并且,该第4实施方式所涉及的对焦位置间距离及色差的计算方法与上述第2实施方式及第3实施方式相同,因此省略说明。
参考图19,对该第4实施方式所涉及的摄像装置12的作用进行说明。图19中示出第4实施方式所涉及的训练数据生成处理的流程的一例。
在图19中,步骤ST401~步骤ST409与图11的步骤ST101~步骤ST109相同,因此省略说明。并且,在图19中,步骤ST410与图16的步骤ST210相同,因此省略说明。
在步骤ST411中,训练数据生成部53计算各分割区域D的对焦位置间距离。然后,训练数据生成处理转移到步骤ST412。
在步骤ST412中,训练数据生成部53计算各分割区域D的色差。然后,训练数据生成处理转移到步骤ST413。
在步骤ST413中,训练数据生成部53确定对焦位置间距离小于距离阈值且色差小于色差阈值的分割区域D。然后,训练数据生成处理转移到步骤ST414。
在步骤ST414中,训练数据生成部53基于所确定的分割区域D从主曝光图像P中提取特定被摄体图像S。并且,训练数据生成部53获取所提取的特定被摄体图像S的位置坐标。然后,训练数据生成处理转移到步骤ST415。
在步骤ST415中,训练数据生成部53将特定被摄体数据和标签L建立对应关联,并输出到学习设备14。学习设备14将所接受的特定被摄体数据及标签L作为训练数据17存储于数据库16中。由此,训练数据生成处理结束。
如以上说明,在该第4实施方式中,对焦位置间距离和色差两者用作相似评价值。从而,根据该结构,与不使用对焦位置间距离和色差两者的情况相比,训练数据生成部53能够从主曝光图像P中高精度地提取特定被摄体图像S。
[第5实施方式]
该第5实施方式例如在特定被摄体为移动物体时是有效的。在该第5实施方式中,在因特定被摄体从AF动作到主曝光动作之间移动而判断为从主曝光图像P中提取的特定被摄体图像S的可靠性低的情况下,表示可靠性低的警告信息赋予到特定被摄体数据。以下,参考图20~图22,对该实施方式5进行说明。另外,该第5实施方式所涉及的摄像装置12的结构与上述第1实施方式相同,因此省略说明。
作为一例,如图20所示,在用户11进行了AF动作的情况下,训练数据生成部53获取例如以60fps的帧速率连续拍摄的即时预览图像66中的一帧。训练数据生成部53在一帧的即时预览图像66中,基于在上述第2实施方式中说明的对焦位置间距离和/或在上述第3实施方式中说明的色差,提取表示特定被摄体的图像(以下,称为“即时预览特定被摄体图像LS”)。另外,即时预览特定被摄体图像LS是本发明的技术所涉及的“显示用特定被摄体图像”的一例。
训练数据生成部53求出所提取的即时预览特定被摄体图像LS的右下角Q1L和左上角Q2L的坐标作为即时预览特定被摄体图像LS的位置坐标。并且,训练数据生成部53基于即时预览特定被摄体图像LS的位置坐标,求出即时预览特定被摄体图像LS的尺寸和即时预览特定被摄体图像LS的中心点QCL的坐标(XC L,YCL)(以下,称为“即时预览特定被摄体图像LS的中心坐标”)。
然后,在用户11进行了主曝光操作的情况下,训练数据生成部53获取主曝光图像P。训练数据生成部53通过与提取上述即时预览特定被摄体图像LS相同的方法,从主曝光图像P中提取特定被摄体图像S。
训练数据生成部53求出所提取的特定被摄体图像S的右下角Q1E和左上角Q2E的坐标作为特定被摄体图像S的位置坐标。并且,训练数据生成部53基于特定被摄体图像S的位置坐标,求出特定被摄体图像S的尺寸和特定被摄体图像S的中心点QCE的坐标(XCE,YCE)(以下,称为“特定被摄体图像S的中心坐标”)。
训练数据生成部53通过比较即时预览特定被摄体图像LS的尺寸与特定被摄体图像S的尺寸,计算即时预览特定被摄体图像LS与特定被摄体图像S的尺寸差异度。作为一例,如图20所示,在所算出的尺寸差异度超过预先设定的尺寸规定范围的情况下,训练数据生成部53将警告所提取的特定被摄体图像S的可靠性低的警告信息与特定被摄体数据及标签L一同输出到学习设备14。另外,尺寸差异度是本发明的技术所涉及的“差异度”的一例。并且,尺寸规定范围是本发明的技术所涉及的“第2规定范围”的一例。并且,输出警告信息的处理是本发明的技术所涉及的“异常检测处理”的一例。
并且,训练数据生成部53通过比较即时预览特定被摄体图像LS的中心坐标与特定被摄体图像S的中心坐标,计算即时预览特定被摄体图像LS与特定被摄体图像S的中心位置的差异度。作为一例,如图21所示,在所算出的中心位置的差异度超过预先设定的位置规定范围的情况下,训练数据生成部53将警告所提取的特定被摄体图像S的可靠性低的警告信息与特定被摄体数据及标签L一同输出到学习设备14。另外,中心位置的差异度是本发明的技术所涉及的“差异度”的一例。并且,位置规定范围是本发明的技术所涉及的“第2规定范围”的一例。
参考图22A及图22B,对该第5实施方式所涉及的摄像装置12的作用进行说明。在图22A及图22B中示出第5实施方式所涉及的训练数据生成处理的流程的一例。
在图22A中,步骤ST501~步骤ST507与图11的步骤ST101~步骤ST107相同,因此省略说明。
在步骤ST508中,训练数据生成部53在即时预览图像66中获取一帧。然后,训练数据生成处理转移到步骤ST509。
在步骤ST509中,训练数据生成部53在所获取的一帧的即时预览图像66中设定候选区域78及分割区域D。然后,训练数据生成处理转移到步骤ST510。
在步骤ST510中,训练数据生成部53计算各分割区域D的对焦位置间距离和/或色差。然后,训练数据生成处理转移到步骤ST511。
在步骤ST511中,训练数据生成部53确定满足“对焦位置间距离<距离阈值”和/或“色差<色差阈值”的分割区域D。然后,训练数据生成处理转移到步骤ST512。
在步骤ST512中,训练数据生成部53基于所确定的分割区域D从一帧的即时预览图像66中提取即时预览特定被摄体图像LS。然后,训练数据生成处理转移到步骤ST513。
在步骤ST513中,训练数据生成部53计算即时预览特定被摄体图像LS的位置坐标、尺寸及中心坐标。然后,训练数据生成处理转移到步骤ST514。
在步骤ST514中,训练数据生成部53判定是否进行了主曝光。在步骤ST514中,在进行了主曝光的情况下,判定被肯定,训练数据生成处理转移到步骤ST515。在步骤ST514中,在未进行主曝光的情况下,判定被否定,训练数据生成处理转移到步骤ST506。
在步骤ST515中,训练数据生成部53获取主曝光图像P。然后,训练数据生成处理转移到步骤ST516。
在步骤ST516中,训练数据生成部53在主曝光图像P中设定候选区域78及分割区域D。然后,训练数据生成处理转移到步骤ST517。
在步骤ST517中,训练数据生成部53计算各分割区域D的对焦位置间距离和/或色差。然后,训练数据生成处理转移到步骤ST518。
在步骤ST518中,训练数据生成部53确定满足“对焦位置间距离<距离阈值”和/或“色差<色差阈值”的分割区域D。然后,训练数据生成处理转移到步骤ST519。
在步骤ST519中,训练数据生成部53基于所确定的分割区域D从主曝光图像P中提取特定被摄体图像S。然后,训练数据生成处理转移到步骤ST520。
在步骤ST520中,训练数据生成部53计算特定被摄体图像S的位置坐标、尺寸及中心坐标。然后,训练数据生成处理转移到步骤ST521。
在步骤ST521中,训练数据生成部53通过比较即时预览特定被摄体图像LS的尺寸与特定被摄体图像S的尺寸,计算即时预览特定被摄体图像LS与特定被摄体图像S的尺寸差异度。然后,训练数据生成处理转移到步骤ST522。
在步骤ST522中,训练数据生成部53判定所算出的尺寸差异度是否在尺寸规定范围内。在步骤ST522中,在尺寸差异度在尺寸规定范围内的情况下,判定被肯定,训练数据生成处理转移到步骤ST523。在步骤ST522中,在尺寸差异度超过尺寸规定范围的情况下,判定被否定,训练数据生成处理转移到步骤ST526。
在步骤ST523中,训练数据生成部53通过比较即时预览特定被摄体图像LS的中心位置与特定被摄体图像S的中心位置,计算即时预览特定被摄体图像LS与特定被摄体图像S的中心位置的差异度。然后,训练数据生成处理转移到步骤ST524。
在步骤ST524中,训练数据生成部53判定所算出的中心位置的差异度是否在位置规定范围内。在步骤ST524中,在中心位置的差异度在位置规定范围内的情况下,判定被肯定,训练数据生成处理转移到步骤ST525。在步骤ST524中,在中心位置的差异度超过位置规定范围的情况下,判定被否定,训练数据生成处理转移到步骤ST526。
在步骤ST525中,训练数据生成部53将特定被摄体数据和标签L建立对应关联并输出到学习设备14。特定被摄体数据是包括主曝光图像P和特定被摄体图像S的位置坐标的数据。另一方面,在步骤ST526中,训练数据生成部53除了特定被摄体数据及标签L以外,还将警告信息输出到学习设备14。由此,训练数据生成处理结束。
如以上说明,根据该第5实施方式,在从即时预览图像66中提取的即时预览特定被摄体图像LS与从主曝光图像P中提取的特定被摄体图像S之间的尺寸差异度超过尺寸规定范围的情况下,或者在即时预览特定被摄体图像LS与特定被摄体图像S之间的中心位置的差异度超过位置规定范围的情况下,训练数据生成部53将警告信息输出到学习设备14。从而,与判断为可靠性低的特定被摄体图像S有关的特定被摄体数据被赋予警告信息并输出到学习设备14,因此与不被赋予警告信息的情况相比,训练数据17的质量提高。
另外,在上述第5实施方式中,训练数据生成部53对与判断为可靠性低的特定被摄体图像S有关的特定被摄体数据赋予警告信息并输出到学习设备14,但本发明的技术并不限定于此。训练数据生成部53可以不将与判断为可靠性低的特定被摄体图像S有关的特定被摄体数据输出到学习设备14。并且,训练数据生成部53可以向特定被摄体数据赋予表示对特定被摄体图像S的可靠性的可靠性数并输出到学习设备14。在该情况下,学习设备14可以参考可靠性数不接受可靠性数低的特定被摄体数据。
[第6实施方式]
在该第6实施方式中,训练数据生成部53使图像传感器24在多个对焦位置进行主曝光动作,由此除了对焦于聚焦对象区域F的主曝光图像P(以下,也称为“对焦图像”)以外,还获取未对焦于聚焦对象区域F的主曝光图像P(以下,也称为“非对焦图像”)。训练数据生成部53不仅输出与拍摄到对焦图像上的特定被摄体图像S有关的特定被摄体数据作为训练数据17,而且将与拍摄到非对焦图像上的特定被摄体图像S有关的特定被摄体数据作为训练数据17而输出。以下,参考图23~图25,对该实施方式6进行说明。另外,该第6实施方式所涉及的摄像装置12的结构与上述第1实施方式相同,因此省略说明。
作为一例,如图23所示,训练数据生成部53使图像传感器24在包括通过基于到聚焦对象区域F为止的距离进行AF运算而导出的对焦位置的多个对焦位置进行主曝光动作。例如,在将特定被摄体A的左眼位置作为聚焦对象区域F进行了拍摄的情况下(参考图12),训练数据生成部53使图像传感器24在包括基于到聚焦对象区域F为止的距离导出的对焦位置的五个对焦位置进行主曝光动作。在此,五个对焦位置是本发明的技术所涉及的“多个焦点位置”的一例。
由此,图像传感器24除了对焦于特定被摄体A的主曝光图像(对焦图像)P3以外,还输出未对焦于特定被摄体A的主曝光图像(非对焦图像)P1、P2、P4及P5。非对焦图像P1及P2是对焦于比特定被摄体A更靠近摄像装置12的被摄体的前焦点图像。并且,非对焦图像P4及P5是对焦于比特定被摄体A更远离摄像装置12的被摄体的后焦点图像。另外,对焦图像P3是本发明的技术所涉及的“对焦图像”的一例。非对焦图像P1、P2、P4及P5是本发明的技术所涉及的“非对焦图像”的一例。
训练数据生成部53基于在上述第2实施方式中说明的对焦位置间距离和/或在上述第3实施方式中说明的色差,从对焦图像P3中提取特定被摄体图像S。并且,训练数据生成部53求出所提取的特定被摄体图像S的位置坐标。
作为一例,如图24所示,训练数据生成部53将对焦图像P3、特定被摄体图像S的位置坐标及标签L建立对应关联,并作为训练数据17-3输出到学习设备14。
并且,训练数据生成部53将各非对焦图像P1、P2、P4或P5、从对焦图像P3中提取的特定被摄体图像S的位置坐标、以及标签L建立对应关联,并作为训练数据17-1、17-2、17-4或17-5输出到学习设备14。即,训练数据生成部53将从对焦图像P3中提取的特定被摄体图像S的位置坐标作为非对焦图像P1、P2、P4或P5中的特定被摄体图像S的位置坐标而输出。学习设备14接受训练数据17-1~17-5,并存储于数据库16中。
参考图25,对该第6实施方式所涉及的摄像装置12的作用进行说明。图25中示出该第6实施方式所涉及的训练数据生成处理的流程的一例。
在图25中,步骤ST601~步骤ST607与图11的步骤ST101~步骤ST107相同,因此省略说明。
在步骤ST608中,训练数据生成部53判定是否进行了主曝光操作。在步骤ST608中,在进行了主曝光操作的情况下,判定被肯定,在包括基于到聚焦对象区域F为止的距离的对焦位置的多个对焦位置进行主曝光动作,训练数据生成处理转移到步骤ST609。在步骤ST608中,在未进行主曝光操作的情况下,判定被否定,训练数据生成处理转移到步骤ST606。
在步骤ST609中,训练数据生成部53获取多个主曝光图像P1~P5。在多个主曝光图像P1~P5中,主曝光图像P3是对焦图像,主曝光图像P1、P2、P4及P5是非对焦图像。然后,训练数据生成处理转移到步骤ST610。
在步骤ST610中,训练数据生成部53在对焦图像P3中设定候选区域78及分割区域D。然后,训练数据生成处理转移到步骤ST611。
在步骤ST611中,训练数据生成部53计算各分割区域D的对焦位置间距离和/或色差。然后,训练数据生成处理转移到步骤ST612。
在步骤ST612中,训练数据生成部53确定对焦位置间距离小于距离阈值和/或色差小于色差阈值的分割区域D。然后,训练数据生成处理转移到步骤ST613。
在步骤ST613中,训练数据生成部53基于所确定的分割区域D从主曝光图像(对焦图像)P3中提取特定被摄体图像S。然后,训练数据生成处理转移到步骤ST614。
在步骤ST614中,训练数据生成部53获取特定被摄体图像S的位置坐标。然后,训练数据生成处理转移到步骤ST615。
在步骤ST615中,将特定被摄体数据与标签L建立对应关联,并输出到学习设备14。特定被摄体数据是包括主曝光图像P1~P5的每一个和从主曝光图像P3中提取的特定被摄体图像S的位置坐标的数据。从而,在该第6实施方式中,通过一次执行训练数据生成处理而输出5种类型的特定被摄体数据。学习设备14将特定被摄体数据与标签L建立对应关联,并存储于数据库16中。由此,训练数据生成处理结束。
如以上说明,在该第6实施方式中,图像传感器24在多个对焦位置进行主曝光动作。关于通过进行主曝光动作而得到的多个主曝光图像P1~P5的每一个,训练数据生成部53将从对焦图像P3得到的特定被摄体图像S的位置坐标作为非对焦图像P1、P2、P4及P5的每一个中的特定被摄体图像S的位置坐标而输出。从而,根据该结构,与以手动操作提取特定被摄体图像S的情况相比,训练数据生成部53能够简单地获取与对焦图像P3中包括的特定被摄体图像S有关的特定被摄体数据、以及与非对焦图像P1、P2、P4及P5的每一个中包括的特定被摄体图像S有关的特定被摄体数据。
并且,根据该结构,训练数据生成部53能够通过一次选择标签L对多个主曝光图像P1~P5单独赋予标签。由此,能够省去对多个主曝光图像P1~P5赋予标签L的工时。并且,训练数据生成部53可以在拍摄之后对主曝光图像P1~P5赋予标签L。在该情况下,也期望通过一次选择标签L对连续拍摄的多个主曝光图像P1~P5赋予标签L。若在拍摄之后单独赋予标签L,则根据非对焦图像的模糊方式可能会产生不知道什么图像的问题。然而,通过一次选择标签L,对连续拍摄的多个主曝光图像P1~P5赋予相同的标签L,由此能够消除这种问题。在该情况下,期望训练数据生成部53将对对焦图像P3选择的标签L赋予到非对焦图像P1、P2、P4及P5的每一个。
另外,在上述第6实施方式中,在一次主曝光动作中,训练数据生成部53输出通过在五个对焦位置进行拍摄而得到的五种类型的特定被摄体数据,但本发明的技术并不限定于此。图像传感器24进行拍摄的对焦位置可以多于或少于五个。训练数据生成部53输出与对焦位置的数量对应的类型的特定被摄体数据。
并且,在上述第6实施方式中,训练数据生成部53可以对包括非对焦图像P1、P2、P4及P5的特定被摄体数据赋予表示非对焦程度的AF评价值。并且,训练数据生成部53可以基于AF评价值将表示“对焦”或“非对焦”的标签赋予到特定被摄体数据。由此,与不赋予AF评价值的情况相比,训练数据17的质量提高。
在上述第1实施方式~第6实施方式中,特定被摄体数据包括主曝光图像P和特定被摄体图像S的位置坐标,但本发明的技术并不限定于此。作为一例,如图26所示,特定被摄体数据可以是从主曝光图像P切出的特定被摄体图像S。训练数据生成部53将从主曝光图像P切出的特定被摄体图像S与标签L建立对应关联,并作为用于机器学习的训练数据17而输出。根据该结构,与主曝光图像P不被切出而输出的情况下,所输出的特定被摄体数据的大小变小。另外,“训练数据生成部53将特定被摄体数据作为用于机器学习的数据而输出”,具体而言,包括训练数据生成部53存储主曝光图像P和特定被摄体图像S的位置坐标的存储处理、或者从主曝光图像P切出特定被摄体图像S的切出处理等。
并且,在上述第1实施方式~第6实施方式中,框线68A为矩形,但本发明的技术并不限定于此,框线68A的形状可以任意变更。
并且,在上述第1实施方式~第6实施方式中,通过将由AF框68包围的区域作为聚焦对象区域F,聚焦对象区域F以与其他图像区域可以区分的方式显示,但本发明的技术并不限定于此。训练数据生成部53例如可以在即时预览图像66上显示箭头,并将由箭头指示的区域作为聚焦对象区域F。并且,训练数据生成部53例如可以通过感知指示体对触摸面板36的接触而接受聚焦对象区域F的指定,并以与其他图像区域可以区分的颜色来显示被指定的聚焦对象区域F。
并且,在上述第1实施方式~第6实施方式中,学习设备14将从摄像装置12输出的训练数据17存储于数据库16中,并使用存储在数据库16中的训练数据17进行机器学习,但本发明的技术并不限定于此。例如,摄像装置12的CPU50A将自身获取的训练数据17存储于NVM50B中,并使用存储在NVM50B中的训练数据17进行机器学习。根据该结构,由于摄像装置12能够执行训练数据17的获取和学习,因此与以不同装置进行训练数据17的获取和学习的情况相比,可以减少装置的数量。
并且,在上述第1实施方式~第6实施方式中,在摄像装置12设定为训练数据摄像模式的情况下,训练数据生成部53在AF动作及主曝光动作之前使标签选择画面64显示于触摸面板/监视器30上,以使用户11选择标签L,但本发明的技术并不限定于此。训练数据生成部53也可以在使图像传感器24获取主曝光图像P之后,使标签选择画面64显示于触摸面板/监视器30上,并从用户11接受标签L的选择。
并且,在上述第1实施方式~第6实施方式中,训练数据生成部53将特定被摄体数据和标签L建立对应关联,并作为用于有监督机器学习的训练数据17输出到学习设备14,但本发明的技术并不限定于此。训练数据生成部53可以仅将特定被摄体数据输出到学习设备14。在该情况下,用户11可以在学习设备14中进行对特定被摄体数据的标签标注。并且,也可以不进行对特定被摄体数据的标签标注。在该情况下,特定被摄体数据可以用作无监督机器学习的训练数据,也可以用于现有的模式识别技术。
并且,在上述第1实施方式~第6实施方式中,已例举说明并用非相位差像素组86G和相位差像素组84G的形式例,但本发明的技术并不限定于此。例如,也可以代替非相位差像素组86G和相位差像素组84G,而设为选择性地生成并读取相位差图像数据和非相位差图像数据的区域传感器。在该情况下,在区域传感器中,二维地排列有多个感光像素。作为区域传感器中包括的感光像素,例如,使用不具有遮光部件的独立的一对光电二极管。在生成并读取非相位差图像数据的情况下,通过感光像素的整个区域(一对光电二极管)进行光电转换,在生成并读取相位差图像数据的情况下(例如,进行被动方式测距的情况),通过一对光电二极管中的一个光电二极管进行光电转换。在此,一对光电二极管中的一个光电二极管是与在上述实施方式中说明的第1相位差像素84-L对应的光电二极管,一对光电二极管中的一个光电二极管是与在上述实施方式中说明的第2相位差像素84-R对应的光电二极管。另外,可以通过区域传感器中包括的所有感光像素选择性地生成并读取相位差图像数据和非相位差图像数据,但并不限定于此,也可以通过区域传感器中包括的一部分感光像素选择性地生成并读取相位差图像数据和非相位差图像数据。
并且,在上述第1实施方式~第6实施方式中,例举相位差方式对导出到聚焦对象区域F为止的距离的方法进行了说明,但本发明的技术并不限定于此,也可以使用TOF方式或对比度方式。
此外,在上述第1实施方式~第6实施方式中,已例举说明NVM50B中存储有训练数据生成程序51A的形式例,但本发明的技术并不限定于此。例如,如图27所示,训练数据生成程序51A可以存储于存储介质100中。存储介质100是非临时存储介质。作为存储介质100的一例,可以举出SSD或USB内存等任意的便携式存储介质。
存储在存储介质100中的训练数据生成程序51A安装于控制器50中。CPU50A按照训练数据生成程序51A执行训练数据生成处理。
并且,可以在经由通信网络(省略图示)连接于控制器50的其它计算机或服务器装置等存储部中存储有训练数据生成程序51A,根据上述摄像装置12的请求,下载训练数据生成程序51A并安装于控制器50。
另外,不需要将在连接于控制器50的其它计算机或服务器装置等存储部或存储介质100中存储有所有训练数据生成程序51A,而可以存储训练数据生成程序51A的一部分。
在图4所示例中示出在摄像装置12中内置有控制器50的形式例,但本发明的技术并不限定于此,例如,控制器50可以设置于摄像装置12外部。
在图4所示例中,CPU50A是单个CPU,但是也可以是多个CPU。并且,可以代替CPU50A而适用GPU。
在图4所示例中例示出控制器50,但是本发明的技术并不限定于此,可以代替控制器50而适用包括ASIC、FPGA和/或PLD的设备。并且,可以代替控制器50而使用硬件结构及软件结构的组合。
作为执行在上述实施方式中说明的训练数据生成处理的硬件资源,能够使用以下所示各种处理器。作为处理器,例如,可以举出如下通用的处理器,即CPU,其通过执行软件,即程序,作为执行训练数据生成处理的硬件资源而发挥作用。并且,作为处理器,例如,可以举出FPGA、PLD或ASIC等具有为了执行特定处理而专门设计的电路结构的处理器即专用电路。在任何处理器中也内置或连接有内存,任何处理器都通过使用内存而执行训练数据生成处理。
执行训练数据生成处理的硬件资源可以由这些各种处理器中的一个构成,也可以由相同类型或不同类型的两个以上处理器的组合(例如,多个FPGA的组合、或CPU与FPGA的组合)构成。并且,执行训练数据生成处理的硬件资源可以是一个处理器。
作为由一个处理器构成的例子,第一,有如下方式:通过一个以上CPU和软件的组合来构成一个处理器,该处理器作为执行训练数据生成处理的硬件资源发挥作用。第二,存在如下方式:如以SoC等为代表,使用由一个IC芯片实现包括执行训练数据生成处理的多个硬件资源的整体系统的功能的处理器。如此,训练数据生成处理通过使用一个以上上述各种处理器作为硬件资源而实现。
此外,作为这些各种处理器的硬件结构,更具体而言,能够使用将半导体元件等电路元件组合而成的电路。并且,上述训练数据生成处理仅为一例。从而,在不脱离主旨的范围内,当然,可以删除不必要的步骤,或者添加新的步骤,或者切换处理顺序。
以上所示的记载内容及图示内容是对本发明的技术所涉及部分的详细说明,仅为本发明的技术的一例。例如,与上述结构、功能、作用及效果有关的说明是与本发明的技术所涉及部分的结构、功能、作用及效果的一例有关的说明。因此,在不脱离本发明的技术的主旨的范围内,当然,可以对以上所示的记载内容及图示内容删除不必要的部分,或者添加新的要素,或者进行替换。并且,为了避免复杂化且容易理解本发明的技术所涉及的部分,在以上所示的记载内容及图示内容中,省略了在可以实施本发明的技术的方面不需要特别说明的与技术常识等有关的说明。
在本说明书中,“A和/或B”的含义与“A及B中的至少一个”相同。即,“A和/或B”是指可以只是A,可以只是B,也可以是A及B的组合。并且,在本说明书中,附加“和/或”来表现三个以上的事项的情况下,也可以适用与“A和/或B”相同的概念。
本说明书中所记载的所有文献、专利申请及技术标准,以与具体且分别记载通过参考而援用各文献、专利申请及技术标准之情况相同之程度,通过参考而援用于本说明书中。

Claims (21)

1.一种信息处理装置,其具备:
处理器;及
内存,与所述处理器连接或内置于其中,
所述处理器在由图像传感器进行了伴随将特定被摄体作为聚焦对象区域的聚焦动作的拍摄时,将与表示通过所述拍摄而得到的摄像图像内的所述特定被摄体的特定被摄体图像有关的特定被摄体数据作为用于机器学习的数据而输出。
2.根据权利要求1所述的信息处理装置,其中,
所述机器学习是有监督机器学习,
所述处理器进行如下处理:
将与所述特定被摄体图像有关的信息即标签赋予到所述特定被摄体数据;及
将所述特定被摄体数据作为用于所述有监督机器学习的训练数据而输出。
3.根据权利要求1或2所述的信息处理装置,其中,
所述处理器在基于从所述图像传感器输出的信号的显示用动态图像显示于监视器上的状态下,以与其他图像区域可以区分的方式显示所述聚焦对象区域,
所述特定被摄体图像是与所述摄像图像内的所述聚焦对象区域的位置对应的图像。
4.根据权利要求3所述的信息处理装置,其中,
所述处理器通过在所述显示用动态图像中显示包围所述聚焦对象区域的框,以与所述其他图像区域可以区分的方式显示所述聚焦对象区域。
5.根据权利要求4所述的信息处理装置,其中,
所述框的位置按照被赋予的位置变更指示可以变更。
6.根据权利要求4或5所述的信息处理装置,其中,
所述框的尺寸按照被赋予的尺寸变更指示可以变更。
7.根据权利要求1至6中任一项所述的信息处理装置,其中,
所述处理器将所述摄像图像与所述聚焦对象区域的坐标作为用于所述机器学习的所述数据而输出。
8.根据权利要求1或2所述的信息处理装置,其中,
所述处理器进行如下处理:
将基于从所述图像传感器输出的信号的显示用动态图像显示于监视器上;
在所述显示用动态图像中,接受所述聚焦对象区域的指定;及
在包括所述聚焦对象区域的规定区域中,基于表示与所述聚焦对象区域的相似度的相似评价值在第1规定范围内的区域,提取所述特定被摄体图像。
9.根据权利要求8所述的信息处理装置,其中,
所述处理器以与其他图像区域可以区分的方式显示所述聚焦对象区域。
10.根据权利要求8或9所述的信息处理装置,其中,
所述聚焦对象区域及所述特定被摄体图像中的至少一方以通过分割所述规定区域而得到的分割区域单位来确定。
11.根据权利要求8至10中任一项所述的信息处理装置,其中,
所述相似评价值是基于在聚焦动作中使用的聚焦评价值的值。
12.根据权利要求8至11中任一项所述的信息处理装置,其中,
所述相似评价值是基于所述规定区域的颜色信息的颜色评价值。
13.根据权利要求8至12中任一项所述的信息处理装置,其中,
所述处理器在所述显示用动态图像中表示所述特定被摄体的显示用特定被摄体图像与所述特定被摄体图像的差异度超过第2规定范围时,进行异常检测处理,
所述显示用特定被摄体图像基于所述相似评价值来确定。
14.根据权利要求1至13中任一项所述的信息处理装置,其中,
所述特定被摄体数据包括所述特定被摄体图像的坐标,
所述处理器将所述摄像图像和所述特定被摄体图像的坐标作为用于所述机器学习的所述数据而输出。
15.根据权利要求1至14中任一项所述的信息处理装置,其中,
所述特定被摄体数据是从所述摄像图像切出的所述特定被摄体图像,
所述处理器将所切出的所述特定被摄体图像作为用于所述机器学习的所述数据而输出。
16.根据权利要求1至15中任一项所述的信息处理装置,其中,
所述处理器进行如下处理:
将所述数据存储于所述内存中;及
使用存储在所述内存中的所述数据进行所述机器学习。
17.一种学习设备,其具备:
接受器件,接受从权利要求1至15中任一项所述的所述信息处理装置输出的所述数据;及
运算装置,使用由所述接受器件接受的所述数据进行所述机器学习。
18.一种摄像装置,其具备:
权利要求1至16中任一项所述的信息处理装置;及
所述图像传感器。
19.根据权利要求18所述的摄像装置,其中,
所述图像传感器在多个对焦位置进行拍摄,
关于通过进行所述拍摄而得到的多个所述摄像图像,所述处理器将从对焦于所述特定被摄体的对焦图像中得到的所述特定被摄体图像的坐标,作为未对焦于所述特定被摄体的非对焦图像中的所述特定被摄体图像的坐标而输出。
20.一种信息处理装置的控制方法,其包括:
在由图像传感器进行了伴随将特定被摄体作为聚焦对象区域的聚焦动作的拍摄时,输出与表示通过所述拍摄而得到的摄像图像内的所述特定被摄体的特定被摄体图像有关的特定被摄体数据作为用于机器学习的数据。
21.一种程序,其用于使计算机执行如下处理:
所述处理包括:在由图像传感器进行了伴随将特定被摄体作为聚焦对象区域的聚焦动作的拍摄时,输出与表示通过所述拍摄而得到的摄像图像内的特定被摄体的所述特定被摄体图像有关的特定被摄体数据作为用于机器学习的数据。
CN202180045835.7A 2020-06-30 2021-06-08 信息处理装置、学习设备、摄像装置、信息处理装置的控制方法及程序 Pending CN115735211A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020113522 2020-06-30
JP2020-113522 2020-06-30
PCT/JP2021/021754 WO2022004303A1 (ja) 2020-06-30 2021-06-08 情報処理装置、学習機器、撮像装置、情報処理装置の制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
CN115735211A true CN115735211A (zh) 2023-03-03

Family

ID=79315226

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180045835.7A Pending CN115735211A (zh) 2020-06-30 2021-06-08 信息处理装置、学习设备、摄像装置、信息处理装置的控制方法及程序

Country Status (4)

Country Link
US (1) US20230131704A1 (zh)
JP (2) JP7495498B2 (zh)
CN (1) CN115735211A (zh)
WO (1) WO2022004303A1 (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011160044A (ja) * 2010-01-29 2011-08-18 Sanyo Electric Co Ltd 撮像装置
JP2016099668A (ja) 2014-11-18 2016-05-30 キヤノン株式会社 学習方法、学習装置、画像認識方法、画像認識装置及びプログラム
JP6641446B2 (ja) 2017-12-26 2020-02-05 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、記憶媒体
JP2019215489A (ja) * 2018-06-14 2019-12-19 オリンパス株式会社 撮像装置および焦点調節方法
JP2020091702A (ja) 2018-12-06 2020-06-11 オリンパス株式会社 撮像装置および撮像方法

Also Published As

Publication number Publication date
JP7495498B2 (ja) 2024-06-04
JP2024109836A (ja) 2024-08-14
WO2022004303A1 (ja) 2022-01-06
US20230131704A1 (en) 2023-04-27
JPWO2022004303A1 (zh) 2022-01-06

Similar Documents

Publication Publication Date Title
KR100967855B1 (ko) 디지털 이미지의 프레이밍 및 샤프니스를 확인하기 위한 시스템 및 방법
US20160044233A1 (en) Image capturing apparatus capable of storing focus detection data
KR102229811B1 (ko) 단말기를 위한 촬영 방법 및 단말기
JP2016024489A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP2017060010A (ja) 撮像装置、撮像装置の制御方法、およびプログラム
CN113287295B (zh) 摄像元件、摄像装置、摄像元件的工作方法及存储介质
TWI508554B (zh) 基於光場相機的影像對焦處理方法及其系統
CN115735211A (zh) 信息处理装置、学习设备、摄像装置、信息处理装置的控制方法及程序
JPWO2014045525A1 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
EP1669787A1 (en) Imaging lens position control device
CN115812177A (zh) 图像处理装置、摄像装置、图像处理方法及程序
JP7173067B2 (ja) 撮像装置、撮影システム、撮像方法及びプログラム
JP6780748B2 (ja) 画像処理装置、及び画像処理プログラム
JP6566091B2 (ja) 画像生成装置、及び画像検索装置
JP5769534B2 (ja) 撮像装置、撮像方法、およびプログラム
CN113228611B (zh) 成像元件、摄像装置、成像元件的工作方法及计算机可读存储介质
JP7421008B2 (ja) 撮像装置、撮像方法、及びプログラム
CN113132614B (zh) 一种摄像头光学变焦电子装置、方法、单元及存储器
CN115885516A (zh) 摄像支持装置、摄像装置、摄像支持方法及程序
JP2021073813A (ja) 撮像装置、撮像装置の制御方法およびコンピュータのプログラム
JP5588267B2 (ja) 画像データ管理装置、画像データ管理プログラム、及び画像データ管理方法
JP2016161759A (ja) 撮像装置
JP2021125741A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
CN115714922A (zh) 图像拍摄系统、方法、装置、处理设备及介质
JP2016058875A (ja) 画像処理装置および撮像装置、ならびにそれらの制御方法、プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination