CN112514370A - 图像处理装置、摄像装置、图像处理方法及程序 - Google Patents

图像处理装置、摄像装置、图像处理方法及程序 Download PDF

Info

Publication number
CN112514370A
CN112514370A CN201980049814.5A CN201980049814A CN112514370A CN 112514370 A CN112514370 A CN 112514370A CN 201980049814 A CN201980049814 A CN 201980049814A CN 112514370 A CN112514370 A CN 112514370A
Authority
CN
China
Prior art keywords
image data
optical noise
unit
reading
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980049814.5A
Other languages
English (en)
Other versions
CN112514370B (zh
Inventor
河合智行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of CN112514370A publication Critical patent/CN112514370A/zh
Application granted granted Critical
Publication of CN112514370B publication Critical patent/CN112514370B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/445Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by skipping some contiguous pixels within the read portion of the array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • H04N25/626Reduction of noise due to residual charges remaining after image readout, e.g. to remove ghost images or afterimages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

一种图像处理装置包括:读取部,将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据读取到存储器部的被划分的多个区域的每个区域,并且在每个区域图像数据的读取结束之后,再次读取预先确定的区域的数据;及输出部,输出校正图像数据,所述校正图像数据是通过由成像元件拍摄并存储在存储器部中的摄像图像数据按照与由读取部再次读取的数据对应地确定的光噪声并按多个区域的每个区域被校正而得到的。

Description

图像处理装置、摄像装置、图像处理方法及程序
技术领域
本公开的技术涉及一种图像处理装置、摄像装置、图像处理方法及程序。
背景技术
CMOS图像传感器通常是称为滚动快门的顺序读取方式。另一方面,还已知一种图像传感器,其一边使用CMOS图像传感器,一边与像素相邻地设置电荷累积部,并且所有像素同时向电荷累积部传送电荷,由此实现了电子全域快门。在采用全域快门方式的情况下,通过光电转换元件中的光电转换而生成的电荷从曝光结束后到读取为止储存在电荷累积部。
然而,在从电荷储存在电荷累积部中起到读取为图像信息为止的期间,由于朝向光电二极管和/或电荷累积部的杂散光等,有时会产生由曝光以外的原因引起的电荷并重叠于电荷累积部。被重叠的电荷成为被称为光噪声的噪声,对所拍摄的图像带来不良影响。
为了减少这种噪声,例如在日本特开2012-134756号公报中公开了一种摄像装置,其控制成如下:使所有像素总括曝光,在曝光结束的时刻,使像素部所具备的所有像素的第1传送部驱动,以使光电转换部所累积的光电荷仅总括传送到第1累积部,并经由第1放大部、第1连接部及第1输出信号线将第1累积部中所累积的电荷读取为光信号,并且经由第2放大部、第2连接部及第2输出信号线将第2累积部中所累积的电荷读取为光噪声信号。根据该结构,在第2累积部中仅累积光噪声电荷,因此能够获取光噪声去除信号。
在日本特开2006-108889号公报中公开了一种固体摄像装置,其为在将所有像素的信号电荷总括传送到累积部(Floating Diffusion:浮动扩散、FD)之后依次读取信号的方式的摄像装置,其中,通过减去第一行或第一列和第二行或第一列的信号而得到一行或一列分量的信号。由此,能够提取所有像素的曝光时间相同的S/N高的图像信号,适合于频闪调光用信号、自动对焦用信号、电子取景器等动态图像摄影等高速拍摄。
在日本特开2008-028516号公报中公开了一种相机系统,其具备以二维状排列有多个具有光电二极管、电荷累积部、传送晶体管、复位晶体管、放大晶体管、选择晶体管的像素的像素部,并构成为设置有:MOS型成像元件,所有像素同时使光电二极管的信号复位,在规定时间之后,从光电二极管向电荷累积部进行信号传送,然后依次进行从像素读取信号的动作;及光圈机构3,作为入射光量变更机构而抑制在MOS型成像元件的各像素中读取信号的动作中入射的光量。由此,能够提供一种相机系统,其具有全域快门功能,在高亮度被摄体拍摄时,也能够防止产生信号劣化或错误信号。
在日本特开2011-216966号公报中公开了一种成像元件,其具备:信号处理部的高亮度检测部,检测与像素阵列部的每单位像素的溢流漏极的电流值对应的电压值作为单位像素的受光量;电平分析部,根据由高亮度检测部读取的电压值,对构成像素阵列部的像素以行单位来求出受光电平的顺序,并登录到地址列表中;信号处理部,由地址列表信息来更新系统控制部的地址列表;及系统控制部,从地址列表的行单位顺序的上位,依次以行单位由像素阵列部读取受光信号。由此,当由图像传感器拍摄图像时,可以减少产生噪声。
发明内容
发明要解决的技术课题
然而,在上述日本特开2012-134756号公报、日本特开2006-108889号公报、日本特开2008-028516号公报及日本特开2011-216966号公报中公开的技术中,不变更成像元件或摄像装置的机械结构,则难以得到抑制光噪声的摄像图像。
本公开的一种实施方式提供一种不变更成像元件或摄像装置的机械结构而能够得到抑制光噪声的摄像图像的图像处理装置、摄像装置、图像处理方法及程序。
用于解决技术课题的手段
第1方式所涉及的图像处理装置包括:读取部,将由具备多个光电转换元件的成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据读取到存储器部的被划分的多个区域的每个区域,并且在每个区域图像数据的读取结束之后,再次读取预先确定的区域的数据;及输出部,输出校正图像数据,所述校正图像数据是通过由成像元件拍摄并存储在存储器部中的摄像图像数据按照与由读取部再次读取的数据对应地确定的光噪声并按多个区域的每个区域被校正而得到的。由此,不变更成像元件或摄像装置的机械结构而能够得到抑制光噪声的摄像图像。
在第2方式所涉及的图像处理装置中,预先确定的区域是从存储器部首先读取的区域。由此,能够获取最长时间的只有光噪声的数据,并能够测定和校正更接近现实的光噪声量。
在第3方式所涉及的图像处理装置中,校正图像数据是通过基于读取部的读取顺序相邻的一对区域图像数据的比较结果,根据读取部的读取顺序在后的区域图像数据来确定具有光噪声的像素位置,并按照所确定的像素位置及光噪声的量在每个区域被校正而得到的。由此,能够分别高精度地求出产生了光噪声的位置和量。
在第4方式所涉及的图像处理装置中,比较结果是相邻的一对区域图像数据的每个图像数据的差分。由此,能够高精度地求出产生了光噪声的位置。
在第5方式所涉及的图像处理装置中,多个光电转换元件对预先确定的多个原色的每个原色具有灵敏度。由此,能够适用于彩色成像元件。
在第6方式所涉及的图像处理装置中,区域图像数据的每个区域图像数据是存储在存储器部中的图像数据以组单位被间拔的区域图像数据,所述组单位中对多个原色的每个原色具有灵敏度的光电转换元件具有预先确定的排列。由此,彩色成像元件中的光噪声的检测精度提高。
在第7方式所涉及的图像处理装置中,比较结果是一对区域图像数据在被同步化处理之后被比较的结果。由此,彩色成像元件中的光噪声的检测精度提高。
在第8方式所涉及的图像处理装置中,根据对一对区域图像数据的比较结果进行过滤处理的结果来确定像素位置,或者根据一对区域图像数据在被过滤处理之后被比较的比较结果来确定像素位置。由此,通过低通滤波处理,拍摄到精细或对比度大的被摄体时的光噪声检测精度提高。
在第9方式所涉及的图像处理装置中,读取部在满足预先确定的摄像条件的情况下,在多个区域图像数据的每个区域图像数据的读取结束之后,进行再次读取数据的处理。由此,能够仅在需要光噪声校正的摄像条件时执行光噪声校正处理。
在第10方式所涉及的图像处理装置中,摄像条件是如下条件中的至少一个条件:基于成像元件的摄像时间比预先确定的时间短的条件;及在存储在存储器部中的图像数据内,存在亮度超过预先确定的亮度的图像区域的条件。由此,仅在上述摄像条件时,能够执行光噪声校正处理。
在第11方式所涉及的图像处理装置还包括:获取部,从存储部获取光噪声特性信息,所述存储部预先存储有关于多个区域的每个区域的表示光噪声特性的光噪声特性信息,校正图像数据是通过摄像图像数据按照光噪声和由获取部获取的光噪声特性信息在每个区域被校正而得到的。由此,能够通过预先获取光噪声特性信息正确地进行光噪声校正。
在第12方式所涉及的图像处理装置中,光噪声特性信息是基于如下两个值之比的值,即,作为多个区域中的由读取部再次读取的区域的光噪声而预先确定的值,和基于作为多个区域中的与区域不同的区域的光噪声而预先确定的值。由此,能够迅速地进行光噪声校正。
在第13方式所涉及的图像处理装置,其包括:读取部,将由具备多个光电转换元件的成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据读取到存储器部的被划分的多个区域的每个区域;及输出部,输出校正图像数据,所述校正图像数据是通过由成像元件拍摄并存储在存储器部中的摄像图像数据按照与由读取部分别读取的区域图像数据对应地确定的光噪声并按多个区域的每个区域被校正而得到的。由此,不变更成像元件或摄像装置的机械结构而能够得到抑制光噪声的摄像图像。
在第14方式所涉及的图像处理装置中,校正图像数据是通过基于读取部的读取顺序相邻的一对区域图像数据的比较结果,从读取部的读取顺序在后的区域图像数据内确定具有差分的像素位置,并按照所确定的像素位置及差分在每个区域被校正而得到的。由此,不变更成像元件或摄像装置的机械结构而能够得到抑制光噪声的摄像图像。
在第15方式所涉及的图像处理装置中,区域是通过将以矩阵方式排列的光电转换元件的存储器部通过预先确定的方法以行单位来间拔而得到的。由此,能够适用场读取技术。
第16方式所涉及的图像处理装置还包括控制部,所述控制部进行使基于由输出部输出的校正图像数据的图像显示于显示部的控制。由此,能够显示校正图像数据。
第17方式所涉及的摄像装置包括:第1方式至第15方式中任一项所涉及的图像处理装置;及接受部,接受使成像元件开始拍摄的指示。由此,能够得到具有光噪声校正功能的摄像装置。
第18方式所涉及的图像处理方法,其包括如下两个步骤:将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据读取到存储器部的被划分的多个区域的每个区域,并且在每个区域图像数据的读取结束之后,再次读取预先确定的区域的数据;及输出校正图像数据,所述校正图像数据是通过由成像元件拍摄并存储在存储器部中的摄像图像数据按照与再次读取的数据对应地确定的光噪声并按多个区域的每个区域被校正而得到的。
第19方式所涉及的图像处理方法,其包括如下两个步骤:将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据读取到存储器部的被划分的多个区域的每个区域;及输出校正图像数据,所述校正图像数据是通过由成像元件拍摄并存储在存储器部中的摄像图像数据按照与分别读取的区域图像数据对应地确定的光噪声并按多个区域的每个区域被校正而得到的。
第20方式所涉及的程序,其用于使计算机执行包括如下步骤的处理:将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据读取到存储器部的被划分的多个区域的每个区域,并且在每个区域图像数据的读取结束之后,再次读取预先确定的区域的数据;及输出校正图像数据,所述校正图像数据是通过由成像元件拍摄并存储在存储器部中的摄像图像数据按照与再次读取的数据对应地确定的光噪声并按多个区域的每个区域被校正而得到的。
第21方式所涉及的程序,其用于使计算机执行包括如下步骤的处理:将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据读取到存储器部的被划分的多个区域的每个区域;及输出校正图像数据,所述校正图像数据是通过由成像元件拍摄并存储在存储器部中的摄像图像数据按照与分别读取的区域图像数据对应地确定的光噪声并按多个区域的每个区域被校正而得到的。
另一实施方式所涉及的图像处理装置,其具有处理器和存储器,处理器执行包括如下步骤的处理:将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据读取到存储器部的被划分的多个区域的每个区域,并且在每个区域图像数据的读取结束之后,再次读取预先确定的区域的数据;及输出校正图像数据,所述校正图像数据是通过由成像元件拍摄并存储在存储器部中的摄像图像数据按照与再次读取的数据对应地确定的光噪声并按多个区域的每个区域被校正而得到的。
另一实施方式所涉及的图像处理装置,其具有处理器和存储器,处理器执行包括如下步骤的处理:将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据读取到存储器部的被划分的多个区域的每个区域;及输出校正图像数据,所述校正图像数据是通过由成像元件拍摄并存储在存储器部中的摄像图像数据按照与由读取部分别读取的区域图像数据对应地确定的光噪声并按多个区域的每个区域被校正而得到的。
根据本公开的一实施方式,不变更成像元件或摄像装置的机械结构而能够得到抑制光噪声的摄像图像。
附图说明
图1是表示第1实施方式所涉及的摄像装置的外观的一例的概略立体图。
图2是图1所示的摄像装置的后视图。
图3是表示第1实施方式所涉及的摄像装置的电气系统的主要部分结构的一例的框图。
图4是表示第1实施方式所涉及的成像元件的主要部分结构的一例的框图。
图5是第1实施方式所涉及的成像元件的局部放大俯视图。
图6是从存储器部读取图像数据的时序图,图6A是一实施方式所涉及的时序图,图6B是现有技术的时序图。
图7是将第1实施方式所涉及的成像元件的区域进行划分的方法的一例。
图8是各场的元件排列的一例的图,图8A表示第1场的像素排列,图8B表示第2场的像素排列,图8C表示第3场的像素排列。
图9是表示第1实施方式所涉及的差分获取处理流程的一例的流程图。
图10是表示第1实施方式所涉及的图像数据差分获取处理流程的一例的流程图。
图11是表示第1实施方式所涉及的噪声位置确定处理流程的一例的流程图。
图12是表示通过由第1实施方式所涉及的摄像装置拍摄而得到的摄像图像的分布方式的一例的噪声映射图。
图13是表示第1实施方式所涉及的场图像校正处理流程的一例的流程图。
图14是表示第2实施方式所涉及的噪声位置确定处理流程的一例的流程图。
图15是表示第3实施方式所涉及的噪声位置确定处理流程的一例的流程图。
图16是表示第4实施方式所涉及的噪声位置确定处理流程的一例的流程图。
图17是表示第5及第6实施方式所涉及的光噪声校正处理流程的一例的流程图。
图18是表示第7实施方式所涉及的差分获取处理流程的一例的流程图。
图19是表示第8实施方式所涉及的噪声校正与否处理流程的一例的流程图。
图20是表示第8实施方式所涉及的噪声校正与否处理流程的变形例的流程图。
图21是在第1~第8实施方式所涉及的摄像装置中安装存储在便携式存储介质中的程序的方式的一例的示意图。
图22是表示第9实施方式所涉及的智能手机的外观的一例的立体图。
图23是表示第9实施方式所涉及的智能手机的电气系统的主要部分结构的一例的框图。
具体实施方式
首先,对本说明书中使用的缩写进行说明。“PLS”是指“Parasitic LightSensitivity:寄生光灵敏度”的缩写。“CMOS”是指“Complementary Metal OxideSemiconductor:互补型金属氧化物半导体”的缩写。“OVF”是指“Optical View Finder:光学取景器”的缩写。“EVF”是指“Electric View Finder:电子取景器”的缩写。“LCD”是指“Liquid Crystal Display:液晶显示器”的缩写。“I/F”是指“Interface:接口”的缩写。“CPU”是指“Central Processing Unit:中央处理单元”的缩写。“ROM”是指“Read OnlyMemory:只读存储器”的缩写。“RAM”是指“Random Access Memory:随机存取存储器”的缩写。“EEPROM”是指“Electrically Erasable Programmable Read Only Memory:电可擦可编程只读存储器”的缩写。“ASIC”是指“Application Specific Integrated Circuit:专用集成电路”的缩写。“FPGA”是指“Field Programmable Gate Array:现场可编程门阵列”的缩写。“PLD”是指“Programmable Logic Device:可编程逻辑设备”的缩写。“LAN”是指“Local Area Network:局域网”的缩写。SSD是指“Solid State Drive:固态硬盘”的缩写。USB是指“Universal Serial Bus:通用串行总线”的缩写。DVD-ROM是指“DigitalVersatile Disc Read Only Memory:数据化通用只读光盘存储器”的缩写。“SoC”是指“System On Chip:片上系统”的缩写。“IC”是指“Integrated Circuit:集成电路”的缩写。“PDA”是指“Personal Digital Assistants:个人数字助理”的缩写。“GPS”是指“GlobalPositioning System:全球定位系统”的缩写。“OELD”是指“Organic ElectroLuminescence Display:有机电致发光显示器”的缩写。“JPEG”是指“Joint Photographiccoding Experts Group:联合图像编码专家组”的缩写。“RFID”是指“Radio FrequencyIdentification:射频识别”的缩写。“SIM”是指“Subscriber Identity Module:订户身份模型”的缩写。“UIM”是指“User Identity Module Card:用户身份模块卡”的缩写。“I/O”是指“Input/Output:输入/输出”的缩写。
(第1实施方式)
以下,参考附图对本公开的技术的实施方式的一例进行说明。图1是表示第1实施方式所涉及的摄像装置100的外观的一例的立体图。图2是图1所示的摄像装置100的后视图。作为可以适用以下说明的实施方式的摄像装置,有数码相机及数码摄像机等摄像装置、搭载于电子内窥镜及附有相机的移动电话等上的摄像模块等,在此,以数码相机为例进行说明。
摄像装置100是镜头可换式相机,是包括相机主体200和以可更换的方式安装于相机主体200上的可更换镜头300,并省略了反光镜的数码相机。并且,在相机主体200上设置有混合式取景器(注册商标)220。在此提及的混合式取景器220是指例如可选择地使用OVF及EVF的取景器。
通过相机主体200所具备的卡口256和与卡口256对应的可更换镜头300侧的卡口346(参考图3)键合,相机主体200与可更换镜头300以可更换的方式被安装。可更换镜头300包括摄影镜头16及聚焦镜头302,并将被摄体的光学图像发送到相机主体200的成像元件。
在相机主体200的前表面上设置有包括在混合式取景器220中的OVF取景器窗241。并且,在相机主体200的前表面上设置有取景器切换214。若使取景器切换214向箭头SW方向转动,则选择性地显示可以由OVF视觉辨认的光学图像和可以由EVF视觉辨认的电子图像即即时预览图像。另外,OVF的光轴L2是与可更换镜头300的光轴L1不同的光轴。并且,在相机主体200的上表面上,主要设置有释放按钮211及摄影模式或回放模式等的设定用转盘212。
在图2所示的相机主体200的背面设置有OVF的取景器目镜部242、显示部213、十字键222、菜单键224及选择按钮225。
十字键222作为输出菜单选择、变焦或帧传送等各种指令信号的多功能键而发挥功能。菜单键224是兼具如下功能的操作键:作为菜单按钮的功能,用于发出使菜单显示于显示部213的画面上的指令;及作为OK按钮的功能,发出确定及执行选择内容等的指令。选择按钮225使用于删除选择项目等显示内容和/或取消指定内容,或者返回到前一个操作状态时等。
显示部213例如由LCD来实现,用于显示当摄影模式时通过以连续帧来拍摄而得到的连续帧图像的一例即即时预览图像。在此提及的“即时预览图像”通常也称为“实时取景图像”。并且,显示部213也用于显示当被赋予拍摄静止图像的指示时通过以单帧来拍摄而得到的单帧图像的一例即静止图像。此外,显示部213也用于显示回放模式时的回放图像或显示菜单画面等。显示部213可以是触摸品面板显示器。
图3是表示第1实施方式所涉及的摄像装置100的电气系统的主要部分结构的一例的框图。
摄像装置100是记录所拍摄的静止图像及动态图像的数码相机,相机整体的动作由CPU12总括控制。摄像装置100除了CPU12以外,还包括操作部14、I/F部24、主存储部26、辅助存储部27、编码器34、显示控制部36及外部I/F39。并且,摄像装置100包括图像处理部28。另外,CPU12及显示控制部36是本公开的技术所涉及的“控制部”的一例。CPU12进行使基于由显示控制部36输出的校正图像数据的图像显示于显示部213的控制。并且,操作部14是本公开的技术所涉及的“接受部”的一例。接受部接受使成像元件开始拍摄的来自用户的指示。
并且,在本第1实施方式中,作为与图像处理部28不同的硬件结构而设置有显示控制部36,但是并不限定于此,图像处理部28也可以具有与显示控制部36相同的功能,在该情况下,不需要显示控制部36。CPU12、操作部14、I/F部24、主存储部26、辅助存储部27、图像处理部28、编码器34、显示控制部36及外部I/F39经由总线40彼此连接。
主存储部26是当执行各种程序时用作工作区等的易失性存储器。作为主存储部26的一例,可例举RAM。辅助存储部27是预先存储有各种程序及各种参数等的非易失性存储器。作为辅助存储部27的一例,可例举EEPROM或闪存等。CPU12从辅助存储部27读取存储在辅助存储部27中的各种程序,并将所读取的各种程序扩展到主存储部26,通过执行所扩展的各种程序而控制各部。
操作部14包括释放按钮211、用于选择摄影模式等的转盘212、显示部213、取景器切换214、十字键222、菜单键224及选择按钮225。并且,操作部14还包括接受各种信息的触摸面板。该触摸面板例如重叠于显示部213的显示画面上。从操作部14输出的各种操作信号输入到CPU12。
图像处理部28具有白平衡增益部及伽马校正部(省略图示),并且由各处理部对临时存储在主存储部26中的原始数字信号即RAW图像依次进行信号处理。即,白平衡增益部通过调整R、G、B信号的增益而执行白平衡。伽马校正部对在WB增益部中执行了WB的各R、G、B信号进行伽马校正。
编码器34将所输入的信号转换成另一种形式的信号而输出。混合式取景器220具有显示电子图像的LCD247。显示控制部36分别连接于显示部213和LCD247,并通过选择性地控制LCD247及显示部213,由LCD247或显示部213显示图像。在本实施方式中,显示控制部36是本公开的技术所涉及的“输出部”的一例,将各种图像输出到显示部213或LCD247。另外,以下,将不需要区分说明显示部213及LCD247时称为“显示装置”。
外部I/F39连接于LAN和/或互联网等通信网络,经由通信网络对服务器、个人计算机和/或打印机等外部装置与CPU12之间收发各种信息进行管理。从而,摄像装置100在连接有打印机作为外部装置的情况下,能够使所拍摄到的静止图像输出到打印机而印刷。并且,摄像装置100在连接有显示器作为外部装置的情况下,能够使所拍摄到静止图像和/或即时预览图像输出到显示器而显示。
表示被摄体的图像光经由摄影镜头16及快门18成像于成像元件20的受光面上。成像元件20具有所谓的电子快门功能,通过启动电子快门功能而控制各光电转换元件51的电荷累积时间即曝光时间。在本实施方式中,作为成像元件20的一例而采用CMOS传感器,但并不限定于此,只要是通过全域快门方式及后述滚动方式可实现读取的成像元件即可。
成像元件20是多个光电转换元件51在横向和纵向上二维地排列的CMOS传感器。以下,为了便于说明,将横向也称为行方向,将纵向也称为列方向。
作为一例,如图4所示,成像元件20具有光电转换元件51、存储器部53及图像处理电路61。光电转换元件51按照通过操作释放按钮211而接受的指示来拍被摄体,并生成表示被摄体的图像数据。在此,由光电转换元件51生成的图像数据是本公开的技术所涉及的“摄像图像数据”的一例。存储器部53具有光噪声重叠的特性,并存储从光电转换元件51传送的图像数据。成像元件20经由I/F部24连接于总线40。
图像处理电路61是本公开的技术所涉及的“读取部”的一例,从存储器部53读取图像数据。图像处理电路61将传送到存储器部53的图像数据在存储器部53的被划分的多个区域的每个区域读取为区域图像数据。而且,图像处理电路61在每个区域图像数据的读取结束之后,再次读取预先确定的区域的数据。以下,为了便于说明,将存储器部53的被划分的多个区域也简称为“多个区域”。并且,在此提及的“预先确定的区域”是指在存储器部53中图像数据首先被读取为区域图像数据的区域。预先确定的区域受到光噪声的影响,累积由光噪声引起的数据。另外,以下,为了便于说明,将“预先确定的区域的数据”也称为“光噪声数据”。并且,在本实施方式中,作为光噪声而假定PLS,但是PLS只是一例,也可以是其他种类的光噪声。
图像处理电路61具有校正处理部62及存储部64。校正处理部62从存储器部53读取存储在存储器部53中的图像数据,并将所读取的图像数据临时存储于存储部64。校正处理部62通过将存储在存储部64中的图像数据按照与光噪声数据对应地确定的光噪声按多个区域的每个区域进行校正,从而生成校正图像数据。与存储在存储部64中的图像数据相比,校正图像数据是光噪声的影响得到抑制的图像。
图像处理电路61可以是将图像处理所涉及的多功能电路集成为一个的集成电路即ASIC。并且,例如图像处理电路61可以是包括CPU、ROM及RAM的计算机、FPGA或PLD等其他硬件结构。并且,例如图像处理电路61可以是ASIC、FPGA、PLD及计算机等中的两种以上硬件结构的组合。
作为一例,如图5所示,在成像元件20中,在行方向上排列有多个包括光电转换元件51、存储器部53、浮动扩散部55的由虚线包围的单元。在本实施方式中,将横向的一列称为行。并且,将纵向的1列称为列。例如,若将图5的上侧的1行设为(x),则下侧的行是(x+1)行。并且,若将图左侧的列设为(y)列,则右侧列是(y+1)列。另外,在图5所示例中,存储器部53在光电转换元件51的横向上相邻地设置,存储器部53与光电转换元件51的位置关系并不限定于此。例如,存储器部53可以配置于光电转换元件51的上方或下方。并且,例如,存储器部53可以重叠配置于光电转换元件51。
若用户按下摄像装置100的释放按钮211,则光电转换元件51的所有像素被复位。接着,光电转换元件51仅在所设定的电荷累积时间内进行启动,并将光转换成信号电荷。若曝光结束,则曝光中产生的信号电荷通过所谓的全域快门方式传送到存储器部53。即,例如,在所有有效像素的光电转换元件51中累积的信号电荷与传送信号同步总括传送到存储器部53。在此提及的“信号电荷”是指通过拍摄被摄体而生成的电荷。并且,信号电荷相当于表示被摄体的图像数据。另外,在此例示出全域快门方式,但是也能够适用滚动快门方式。
临时存储在存储器部53中的信号电荷根据从图像处理电路61输入的读取信号,从浮动扩散部55依次读取为与信号电荷对应的数字信号。在此,依次读取信号电荷的方式也称为所谓的滚动方式。另外,作为一例,在图5所示结构中,来自相邻的两个行的存储器部53的各自的信号电荷从一个浮动扩散部55被读取。
读取例如是逐行滚动方式的读取,因此直至读取所有存储器部53的信号电荷为止需要一些时间。在该期间,由于光电转换元件51和/或存储器部53中产生的杂散光等引起的噪声电荷重叠于信号电荷。例如,在存储器部53因不具有遮光部件等而暴露于外部光的情况下,来自存储器部53的光噪声重叠于信号电荷。因此,存储在存储器部53中并被读取的图像数据是在通过拍摄被摄体而得到的图像数据上重叠有光噪声的摄像图像数据。以下,为了便于说明,将重叠有光噪声的校正前图像也称为摄像图像。在本实施方式中,为了从该摄像图像中去除所重叠的光噪声,进行以下所示处理。
图6是读取在曝光时间内累积并存储在存储器部53中的图像数据的时序图(横轴为时间)的一例。在本实施方式中,作为一例,如图6A所示,由图像处理电路61读取累积在存储器部53中的图像数据,是以预先确定的顺序针对存储器部53被划分为3个区域的每个区域进行的。在此提及的“3个区域”是上述“多个区域”的一例。
在本实施方式中,例如,如图6A的“F1”所示,图像处理电路61通过滚动方式首先读取第1区域的图像数据。接着,例如,如图6A的“F2”所示,图像处理电路61通过滚动方式读取第2区域的图像数据。接着,例如,如图6A的“F3”所示,图像处理电路61通过滚动方式读取第3区域的图像数据。最后,例如,如图6A的“RF1”所示,图像处理电路61对首先读取的第1区域再次进行读取。
在对第1区域再次进行读取的情况下,图像处理电路61不是读取由光电转换元件51生成的摄影对象的信号电荷,而是读取在首先读取第1区域之后相当于在第1区域产生的光噪声成分的前述光噪声数据。如此,以下,将图像处理电路61对已读取一次的区域再次进行读取也称为“空白读取”。
各区域的读取顺序并不受特别限定,但是优选与后述区域的划分方法相关联地进行确定。并且,空白读取的区域优选为首先进行读取的区域。关于该理由进行后述。
图6B是表示不划分存储器部53且从第1行到最终行为止依次通过滚动方式进行读取的现有方法的时序图。将该读取方法称为正常读取。在本实施方式中,图像处理电路61根据摄像条件能够分开使用分割图像数据而读取的分割读取方法和不分割图像数据而依次读取的正常读取方法。
在此,对存储器部53中的区域划分方式进行说明。成像元件20根据像素的颜色分割预先划分为多个区域。区域划分成使累积在存储器部53中的信号电荷被均匀地分割。更具体而言,与包括在各区域中的存储元件对应的光电转换元件51的像素划分成在拍摄区域中的位置均匀地分布。由于在光电转换元件51的每个像素相邻设置有存储器部53的存储元件,因此均匀地划分光电转换元件51的像素是指均匀地划分存储器部53。通过如此进行划分,整个摄像图像各区域的图像数据即区域图像数据被均匀地分割。
图7中示出区域划分方法的一例。在图7所示例中,成像元件20在行方向上排列4896个像素,在列方向上排列3264个像素,像素数为(4896×3264)个,纵横比采用3:2。然而,像素数及纵横比并不限定于此。
在本实施方式中,作为一例,如图7所示,以矩阵方式排列的像素以行单位周期性地被间拔并分配到一个区域。具体而言,像素每3行间拔1行全部并分配到1个区域。即,第1行的像素分配到第1区域,第2行的像素分配到第2区域,第3行的像素分配到第3区域。在本说明书中,间拔是指提取一部分。另外,以下,将“区域”也称为“场”。
第4行之后也同样按如下顺序分配:第4行的像素分配到第1场,第5行的像素分配到第2场,第6行的像素分配到第3场。即,当行号除以场数即3时的余数为1的行的像素分配到第1场,余数为2的行的像素分配到第2场,行号被3整除的行的像素分配到第3场。对所有行的像素进行这种分配。在此,将通过成像元件20的像素以行单位周期性地被间拔并分配到1个区域而分割为多个区域也称为“场分割”。
作为一例,如图7所示,成像元件20对预先确定的多个原色的每个原色具有灵敏度。即,成像元件20可以进行彩色摄影。在本实施方式中,R(红)、G(绿)、B(蓝)3色滤色器配置在各光电转换元件51上。滤色器的配置方式为拜耳排列、WRGB排列或净位排列等。
在本实施方式中,关于成像元件20的滤色器的排列,即使对每行进行场分割,各场中也保持适当的滤色器的排列。具体而言,第1行从左侧交替排列有R过滤器、G过滤器、R过滤器、G过滤器、R过滤器及G过滤器。第2行交替排列有G过滤器、B过滤器、G过滤器、B过滤器、G过滤器及B过滤器。以下,奇数行与第1行为相同的排列,偶数行与第2行为相同的排列。
在通过图7所示方法对如此被颜色分割的像素进行了场分割的情况下,从第1场到第3场成为图8A~图8C所示的排列。各场均排列有1088行×1632列的像素。并且,如图8A~图8C所示,从第1场到第3场的3色排列均相同,而且,该排列与划分之前的所有区域的排列相同。通过如图7所示排列所有像素,分割时的各场的排列成为相同,因此读取场分割时的光噪声的检测精度提高。另外,颜色分割的方法并不限定于使用滤色器的方法,例如,有使用棱镜的方法、层叠光电二极管的方法、或者测定有机光电膜的方法等。
如上所述,对多个原色的每个原色具有灵敏度的光电转换元件51具有预先确定的排列的一个行成为组单位。而且,由于所有行周期性地间拔到相同的区域,因此各区域中包括将所有光电转换元件51的像素均匀地分割为3个的光电转换元件51的像素。另外,在本实施方式中,存储器部53被划分为3个区域,但是划分区域的数量并不限定于此,而是任意的。而且,关于划分方法,在X分割的情况下行号除以X,将余数为1的行的像素分配到第1场,将余数为2的行的像素分配到第2场,将整除行的像素分配到第X场。
另外,各区域只要能够划分成使分别累积在存储器部53中所有信号电荷均匀地分割,则区域划分并不限定于上述方法。例如,可以使1行的像素分配到多个区域。并且,可以使多个行一并分配到1个区域。
接着,参考图9~图13对摄像装置100的本公开的技术所涉及的光噪声的去除方法的一例进行说明。
在光噪声的去除方法中,首先获取场之间的比较结果。在本实施方式中,比较结果是指相邻的一对区域图像数据的每个图像数据的差分。成为采用差分的对象的场是读取顺序相邻的一对场。区域图像数据根据基于校正处理部62的读取顺序相邻的一对区域图像数据的比较结果被校正。如前所述,校正处理部62首先读取第1场,以下,依次读取第2场及第3场。从而,校正处理部62算出第1场与第2场的差分。此外,校正处理部62算出第2场与第3场的差分。在场数为3个的情况下,获取差分的处理就此结束,但是在场数为4个以上的情况下,校正处理部62以下以相同的方式获取差分直至最后场为止。
作为一例,在图9所示差分获取处理中,首先,在步骤S100中,在场数寄存器M中存储作为初始值的2。在下一个步骤S102中,校正处理部62读取第M场与第(M-1)场各自的图像数据。
以下,为了便于说明,将各场的图像数据称为“场图像数据”,或者简称为“图像数据”。场图像数据是从存储器部53读取并存储在存储部64中的每个像素的数据集合。如前所述,像素与各场一同以1088行×1632列排列。在此,将行数设为x,将列数设为y,将第x行、第y列的像素表示为[x,y]。而且,将第M场的图像数据的[x,y]的像素数据标注为ImageM[x,y],将第(M-1)场的图像数据的坐标[x,y]的像素数据标注为Image(M-1)[x,y]。然而,x为1到1088,y为1到1632。
在下一个步骤S104中,校正处理部62获取从第M场的图像数据减去第(M-1)场的图像数据的差分。差分通过从读取顺序在后的场的图像数据减去读取顺序在前的场的图像数据而求得。即,减去各场的相同的[x,y]坐标上的数据而求得差分。
在此,使用图10对步骤S104的处理进行详细说明。作为一例,图10所示图像数据差分获取处理首先在步骤S110中,在坐标寄存器中存储x=1、y=1作为第M场及第(M-1)场的处理坐标[x,y]。接着,在步骤S112中,从第M场的[1、1]坐标的像素数据减去第(M-1)场的[1、1]坐标的像素数据的DifDataM[1、1]存储于存储部64。DifDataM[1、1]是第M场与第(M-1)场的[1、1]坐标的差分。
在下一个步骤S114中,校正处理部62将坐标寄存器的y坐标增加1,然后转移到步骤S116。
在步骤S116中,校正处理部62判定y值是否超过1632。在步骤S116中,在y值为1632以下的情况下判定为否,图像数据差分获取处理返回到步骤S112。在步骤S116中,在y值超过1632的情况下判定为是,图像数据差分获取处理转移到步骤S118。
在步骤S118中,校正处理部62将坐标寄存器的x值增加1,使y值恢复到1。
在下一个步骤S120中,校正处理部62判定x值是否超过1088。在步骤S120中,在x值为1088以下的情况下判定为否,图像数据差分获取处理返回到步骤S112。在步骤S120中,在x值超过1088的情况下判定为是,校正处理部62结束图像数据差分获取处理。
另外,以上处理对对应的每一像素采用了差分,但是例如可以对每个对应的1行一并采用差分。
通过执行图像数据差分获取处理,校正处理部62得到每个像素的差分。所得到的差分数据存储于存储部64。将所有像素的差分称为第M场的差分数据DifDataM[x,y]。第M场的图像差分数据用于校正第M场的图像数据。
返回到图9,在步骤S106中,校正处理部62判定M是否与场数相同。在步骤S106中,在M与场数不同的情况下判定为否,差分获取处理转移到步骤S108。在步骤S108中,校正处理部62将M增加1,差分获取处理返回到步骤S102。在步骤S106中,在M与场数相同的情况下判定为是,校正处理部62结束差分获取处理。校正处理部62通过执行以上差分获取处理,从第2场至第M场为止得到(M-1)个图像差分数据。
接着,校正处理部62进行对具有光噪声的像素位置进行确定的噪声位置确定处理。噪声位置确定处理是指判定在各场中每个坐标的差分数据是否为噪声,并确定噪声位置的处理。
作为一例,在图11所示噪声位置确定处理中,首先,在步骤S130中,在场数寄存器M中存储作为初始值的2。
在下一个步骤S132中,校正处理部62从存储部64读入第2场的差分数据DifDataM[x,y]。在下一个步骤S134中,在坐标寄存器中存储作为坐标数据的x=1、y=1。
在下一个步骤S136中,校正处理部62判定DifDataM[1、1]是否大于预先确定的阈值T1。在此,阈值T1是指例如作为通过光噪声重叠于累积在存储器部53中的1个像素量的信号电荷上而得到的1像素量的光噪声数据的数据量,通过实际机器进行的试验和/或计算机模拟等而预先得出的值。
在步骤S136中,在DifDataM[1、1]大于预先确定的阈值T1的情况下判定为是,噪声位置确定处理转移到步骤S138。在步骤S136中,在DifDataM[1、1]为预先确定的阈值T1以下的情况下判定为否,噪声位置确定处理转移到步骤S140。
在步骤S138中,校正处理部62对噪声图NmapM[1、1]赋予表示存在光噪声的值的“1”,然后,噪声位置确定处理转移到步骤S142。
在步骤S140中,校正处理部62对噪声图NmapM[1、1]赋予表示不存在光噪声的值的“0”,然后,噪声位置确定处理转移到步骤S142。
在下一个步骤S142中,校正处理部62判定是否判定了所有第M场的差分数据DifDataM[x,y]。在步骤S142中,在未判定所有第M场的差分数据DifDataM[x,y]的情况下判定为否,噪声位置确定处理转移到步骤S144。在步骤S142中,在判定了所有第M场的差分数据DifDataM[x,y]的情况下判定为是,噪声位置确定处理转移到步骤S146。
在步骤S144中,校正处理部62将x坐标或y坐标增加1,然后,噪声位置确定处理返回到步骤S136。另外,增加坐标的顺序遵循图10所示方法,因此省略详细说明。
在步骤S146中,校正处理部62判定M是否与场数相同。在步骤S146中,在M与场数不同的情况下判定为否,噪声位置确定处理转移到步骤S148。
在步骤S148中,校正处理部62将M值增加1,然后,噪声位置确定处理返回到步骤S132,校正处理部62对作为下一个场的第(M+1)场从步骤S132起依次执行处理。
在步骤S146中,在M与场数相同的情况下判定为是,校正处理部62结束噪声位置确定处理。
如上所述,由读取顺序相邻的2个场的图像数据的差分来确定读取顺序在后的场中的具有光噪声的像素位置。
通过噪声位置确定处理,每个场可以得到确定有噪声的坐标位置的噪声图NmapM[x,y]。通过执行步骤S138的处理或步骤S140的处理,对噪声图的坐标赋予“1”或“0”二值数据。在此,对噪声图的坐标进行二值化的理由是因为光噪声的量小于被摄体的信号电荷。因此,在采用相邻场的差分的情况下,所得到的光噪声可能混入到作为背景的被摄体的信号电荷中而导致误差变大。因此,噪声图用于判定是否产生光噪声,即,判定光噪声产生位置。
图12是对噪声图赋予的二值数据为“1”的部分用白色来表示,而对噪声图赋予的二值数据为“0”的部分用黑色来表示的噪声映射图的一例。在图12所示例中,空白部分表示产生了光噪声的位置。
接着,校正处理部62进行场图像校正处理。场图像校正处理是指使用噪声图NmapM[x,y]来校正各场的图像数据的处理。
作为一例,在图13所示的场图像校正处理中,首先,在步骤S150中,校正处理部62将第1场的空白读取数据Ndata[x,y]读入到存储部64。
在下一个步骤S152中,在场数寄存器M中存储作为初始值的2。在下一个步骤S154中,校正处理部62将第M场的图像数据ImageM[x,y]读入到存储部64。在下一个步骤S156中,校正处理部62将第M场的噪声图NmapM[x,y]读入到存储部64。在下一个步骤S158中,在坐标寄存器中存储x=1、y=1作为坐标数据。
在下一个步骤S160中,校正处理部62使用空白读取数据Ndata[x,y]和噪声图NmapM[x,y]来校正处理坐标的图像数据ImageM[x,y]。具体而言,针对每个处理坐标,从图像数据中减去空白读取数据与噪声图的乘积。即,若将校正后的图像数据设为CImageM[x,y],则表示为“CImageM[x,y]=ImageM[x,y]-Ndata[x,y]×NmapM[x,y]”。
噪声图NmapM[x,y]的数据表示产生了光噪声的坐标位置。即,产生位置的数据为“1”,未产生位置的数据为“0”。另一方面,空白读取数据仅读取所产生的光噪声,因此该数值的精度高。因此,通过组合噪声图的数据和空白读取数据,能够高精度地确定光噪声的位置和产生量。
在步骤S162中,校正处理部62判定是否校正了所有坐标的图像数据。在步骤S162中,在未校正所有坐标的图像数据的情况下判定为否,场图像校正处理转移到步骤S164。在步骤S162中,在校正了所有坐标的图像数据的情况下判定为是,场图像校正处理转移到步骤S166。
在步骤S164中,校正处理部62增加x坐标或y坐标,然后场图像校正处理转移到步骤S160。另外,增加坐标的顺序遵循图10所示方法,因此省略详细说明。
在步骤S166中,校正处理部62判定M是否与场数相同。在步骤S166中,在M与场数不同的情况下判定为否,场图像校正处理转移到步骤S168。
在步骤S168中,校正处理部62将M增加1,并对下一个(M+1)场从步骤S154起依次执行处理。
在步骤S166中,在M与场数相同的情况下判定为是,校正处理部62结束场图像校正处理。
通过以上处理而得到从第2场到第M场为止的校正图像数据。校正处理部62通过组合首先读取的第1场的图像数据和从第2场到第M场为止的校正图像数据,能够得到一个校正图像。
在本实施方式中,在读取顺序相邻的一对场中,各场的光电转换元件51以行单位相邻。由于相邻的光电转换元件51的距离非常近,因此认为在相同的曝光时间内累积在这些存储器部53中的被摄体的图像数据的差异非常小。从而,若累积在这些相邻的存储器部53中的图像数据的差分大,则认为这是由光噪声引起的可能性高。在本实施方式中,采用利用该特征读取顺序,即,排列位置相邻的一对场的差分,并去除光噪声。
此外,在本实施方式中,对首先读取的第1场最后进行空白读取。通过空白读取,在首先读取之后,在读取第2场和第3场期间读取在第1场中产生的光噪声。这是在第1场中实际产生的光噪声,认为与其相同程度的光噪声也产生于第2场、第3场。
空白读取的场可以不是首先读取的第1场,但是在其他场中空白读取为止的时间减少。因此,从读取最后场为止的时间起,对实际测定的光噪声的量进行比例换算。因此,为了能够以最长时间实际测量光噪声,优选最后空白读取从存储器部53首先读取所述区域图像数据的场。
根据以上第1实施方式,能够分别高精度地确定产生光噪声的位置和光噪声的量。然后,通过使用所确定的光噪声的数据来校正所拍摄到的图像,能够不变更成像元件或摄像装置的机械结构而得到抑制光噪声的摄像图像。
以上实施方式例如能够适用于静止图像的拍摄中。并且,例如在连拍模式中,也可以在每次拍摄1张图像时进行上述处理。或者,若预先存储拍摄第1张时通过适用本方法而得到的校正信息,并且在随后的拍摄中使用该校正信息来校正所拍摄到的摄像图像,则能够得到高速且光噪声少的连拍图像。
并且,在第1实施方式中,与成像元件20成为一体的校正处理部62进行光噪声校正处理。然而,校正处理部62未必一定需要进行光噪声校正处理。例如,CPU12可以读取存储在辅助存储部27中的光噪声校正程序并进行光噪声校正处理。
(第2实施方式)
接着,作为一例,参考图14所示的流程图对第2实施方式进行说明。另外,摄像装置100或成像元件20的机械结构等以下不进行说明的事项与第1实施方式相同。并且,在与第1实施方式相同的处理的情况下,存在将数据名称设为相同的名称而简化说明的部分。并且,第1实施方式的变形例也可以适用于以下实施方式。
在本第2实施方式所涉及的摄像装置100中,各场的图像数据在被同步化处理之后,制作噪声图NmapM[x,y]。在此,同步化是指如下处理:在成像元件20可以彩色摄影的情况下,对每个像素内插不同颜色的相邻像素的数据以包括所有颜色的数据。具体而言,校正处理部62进行与成像元件20的滤色器的排列对应的颜色内插处理,并生成经同步化的R、G、B信号。
作为一例,在图14所示噪声位置确定处理中,首先,在步骤S200中,在场数寄存器M中存储作为初始值的2,然后噪声位置确定处理转移到步骤S202。
在步骤S202中,校正处理部62读入存储在存储部64中的第M场和第(M-1)场各自的图像数据,然后噪声位置确定处理转移到步骤S204。
在步骤S204中,校正处理部62使第M场的图像数据和第(M-1)场的图像数据的每个图像数据同步化。即,校正处理部62对各场的每个像素进行与滤色器的排列对应的颜色内插处理,并生成经过同步化的R、G、B信号。
在下一个步骤S206中,校正处理部62获取从经过同步化的第M场的图像数据中减去经过同步化的第(M-1)场的图像数据的差分数据DifDataM[x,y]。差分数据DifDataM[x,y]是通过减去各场的相同的[x,y]坐标上的数据而求得。差分求得方法如使用图10进行的说明,因此省略详细说明。由校正处理部62获取的差分存储于存储部64。
在下一个步骤S208中,校正处理部62读入所获取的差分数据DifDataM[x,y],然后噪声位置确定处理转移到步骤S210。
在步骤S210中,在坐标寄存器中存储x=1、y=1作为坐标数据,然后噪声位置确定处理转移到步骤S212。
在步骤S212中,校正处理部62判定坐标[1、1]的差分是否大于预先确定的阈值T2。在此,阈值T2例如是指作为通过光噪声重叠于累积在存储器部53中的1个像素量的信号电荷上而得到的1像素量的光噪声数据的数据量,通过实际机器进行的试验和/或计算机模拟等而预先得出的值。
在步骤S212中,在坐标[1、1]的差分大于预先确定的阈值T2的情况下判定为是,噪声位置确定处理转移到步骤S214。在步骤S214中,校正处理部62对噪声图NmapM[1、1]赋予表示存在光噪声的值的“1”,然后,噪声位置确定处理转移到步骤S218。在步骤S212中,在坐标[1、1]的差分为预先确定的阈值T2以下的情况下判定为否,噪声位置确定处理转移到步骤S216。在步骤S216中,校正处理部62对噪声图NmapM[1、1]赋予表示不存在光噪声的值的“0”,然后,噪声位置确定处理转移到步骤S218。
在步骤S218中,校正处理部62判定是否对所有坐标判定了差分。在步骤S218中,在对所有坐标未判定差分的情况下判定为否,噪声位置确定处理转移到步骤S220。在步骤S218中,在对所有坐标判定了差分的情况下判定为是,噪声位置确定处理转移到步骤S222。
在步骤S220中,校正处理部62增加x坐标或y坐标,噪声位置确定处理返回到步骤S212。
在步骤S222中,校正处理部62判定M是否与场数相同。在步骤S222中,在M与场数不同的情况下判定为否,噪声位置确定处理转移到步骤S224。
在步骤S224中,校正处理部62将M增加1,并对下一个(M+1)场从步骤S202起依次执行处理。
在步骤S222中,在M与场数相同的情况下判定为是,校正处理部62结束噪声位置确定处理。
作为一例,如图8所示,在各场中R、G、B所有颜色备齐。并且,由于各场是通过从所有像素中周期性地间拔像素而得到的图像,因此被摄体位置稍微不同,此外,相同颜色的像素不重叠。从而,根据上述第2实施方式所涉及的摄像装置100,通过使各场同步化并内插各种颜色进行比较,各场之间的比较变得容易,能够制作误差少的噪声图NmapM[x,y]。
(第3实施方式)
接着,作为一例,参考图15所示的流程图对第3实施方式进行说明。另外,在与第1实施方式或第2实施方式相同的处理的情况下,存在将数据名称设为相同的名称而简化说明的部分。
在本第3实施方式所涉及的摄像装置100中,在对各场的图像数据实施了低通滤波处理的基础上,制作噪声图NmapM[x,y]。以下,进行详细说明。
作为一例,在图15所示的噪声位置确定处理中,首先,在步骤S300中,在场数寄存器M中存储作为初始值的2,然后转移到步骤S302。
在步骤S302中,校正处理部62读入存储在存储部64中的第M场和第(M-1)场各自的图像数据,然后噪声位置确定处理转移到步骤S304。
在步骤S304中,校正处理部62对第M场的图像数据和第(M-1)场的图像数据的每个图像数据分别进行低通滤波处理。即,校正处理部62去除像素数据的高频成分。
在下一个步骤S306中,校正处理部62获取经过低通滤波处理的第M场的图像数据与经过低通滤波处理的第(M-1)场的图像数据的差分数据DifDataM[x,y]。校正处理部62将所获取的差分存储于存储部64。
与图14所示的噪声位置确定处理的步骤S208之后的处理相比,图15所示的步骤S308之后的处理的不同点在于具有步骤S312的处理来代替步骤S212的处理。与步骤S212的处理相比,步骤S312的处理采用阈值T3来代替阈值T2。在此,阈值T3例如是指作为通过光噪声重叠于累积在存储器部53中的1个像素量的信号电荷上而得到的1像素量的光噪声数据的数据量,通过实际机器进行的试验和/或计算机模拟等而预先得出的值。
以下,作为一例,图15所示的步骤S308之后的处理与图14所示的噪声位置确定处理的步骤S208之后的处理大致相同,因此简单地进行说明。
校正处理部62读入所存储的差分,并将差分与预先确定的阈值T3进行比较。校正处理部62在差分大于阈值T3的情况下,对噪声图NmapM[1、1]赋予“1”,在阈值T3以下的情况下,对噪声图NmapM[1、1]赋予“0”,由此生成噪声图。
根据第3实施方式,由于各场是对像素进行周期性地间拔而得到的图像,因此细长的被摄体或对比度强的被摄体等高频被摄体有时在相邻场的相同的坐标位置仅映射一个场。在该情况下,若采用差分,则可能错误判定在该坐标产生了光噪声。在这种情况下,通过由低通过滤器等实施使高频带变窄的处理而边界变得平缓,能够减少检测误差,并且能够制作误差少的噪声图NmapM[x,y]。
(第4实施方式)
接着,作为一例,参考图16所示的流程图对本第4实施方式进行说明。在本第4实施方式所涉及的摄像装置100中,通过以与上述第3实施方式相同的方式执行过滤处理而确定噪声位置,但是与第3实施方式不同,在算出各场的图像数据的差分之后执行过滤处理。另外,在以下说明中,在与第3实施方式相同的处理的情况下,存在将数据名称设为相同的名称而简化说明的部分。
作为一例,在图16所示噪声位置确定处理中,首先,在步骤S340中,在场数寄存器M中存储作为初始值的2,然后噪声位置确定处理转移到步骤S342。
在步骤S342中,校正处理部62读入存储在存储部64中的第M场的图像数据和第(M-1)场的图像数据,然后噪声位置确定处理转移到步骤S344。
在步骤S344中,校正处理部62获取第M场的图像数据与第(M-1)场的图像数据的差分数据DifDataM[x,y],然后噪声位置确定处理转移到步骤S346。
在步骤S346中,校正处理部62对所获取的差分实施低通滤波处理。
与图15所示的噪声位置确定处理的步骤S308之后的处理相比,图16所示的步骤S348之后的处理的不同的点在于具有步骤S352的处理来代替步骤S312的处理。与步骤S312的处理相比,步骤S352的处理的不同点在于采用阈值T4来代替阈值T3。在此,阈值T4是指例如作为通过光噪声重叠于累积在存储器部53中的1个像素量的信号电荷上而得到的1像素量的光噪声数据的数据量,通过实际机器进行的试验和/或计算机模拟等而预先得出的值。
以下,图16所示的步骤S348之后的处理作为一例与图15所示的噪声位置确定处理的步骤S308之后的处理大致相同,因此简单地进行说明。
校正处理部62读入经过低通滤波处理的差分,并与阈值T4进行比较。校正处理部62在差分大于阈值T4的情况下对噪声图NmapM[1、1]赋予“1”,在阈值T4以下的情况下对噪声图NmapM[1、1]赋予“0”,由此生成噪声图。
第4实施方式的效果与第3实施方式的效果相同。由于各场是通过周期性地间拔像素而得到的图像,因此细长的被摄体或对比度强的被摄体等高频被摄体有时在相邻场的相同的坐标位置仅映射一个场。在该情况下,若采用差分,则可能会得到大的数值。在这种情况下,通过对差分由低通过滤器等实施使高频带变窄的处理,数值变小,能够减少检测误差,能够制作误差少的噪声图NmapM[x,y]。
(第5实施方式)
接着,作为一例,参考图17所示的流程图对第5实施方式进行说明。在本第5实施方式所涉及的摄像装置100中,使用光噪声特性信息进行图像数据的光噪声校正。光噪声特性信息是由已被空白读取的第1场的光噪声量计算各场中产生的光噪声量的信息,预先存储在存储部64或主存储部26中。
对每个成像元件20确定有光噪声特性信息。光噪声特性信息在制造时或出厂前获取作为在预先被场划分的存储器部53中的哪个场中产生什么程度的光噪声的特性值,并存储于存储部64或主存储部26。在本第5实施方式所涉及的摄像装置100中,光噪声特性信息例如以计算公式或换算系数之类的形式被存储,但是本公开的技术并不限定于此,也可以存储在表格中。
也可以在各场中对每个像素规定有光噪声特性信息。或者,光噪声特性信息可以是与某一范围的多个像素对应的数据。并且,在具有颜色灵敏度的成像元件的情况下,光噪声的产生量及产生频率根据颜色而不同,因此优选对各种颜色的每个元件规定有光噪声特性信息。光噪声特性信息可以按每个像素、按每个范围、或者按每个区域不同。以下,对每个像素规定有第M场的光噪声特性信息,并由CdataM[x,y]表示。
作为一例,在图17所示的光噪声校正处理中,首先,在步骤S400中,校正处理部62读入存储在存储部64中的第1场的空白读取数据Ndata[x,y],然后光噪声校正处理转移到步骤S402。
在步骤S402中,在场数寄存器M中存储作为初始值的2,然后光噪声校正处理转移到步骤S404。
在步骤S404中,校正处理部62读入第M场的图像数据ImageM[x,y],然后光噪声校正处理转移到步骤S406。
在步骤S406中,校正处理部62读入第M场的噪声图NmapM[x,y],然后光噪声校正处理转移到步骤S408。
在步骤S408中,校正处理部62获取第M场的光噪声特性信息CdataM[x,y]。另外,在本步骤S408中,校正处理部62是本公开的技术所涉及的“获取部”的一例。
在下一个步骤S410中,在坐标寄存器中存储x=1、y=1作为坐标数据,然后光噪声校正处理转移到步骤S412。
在步骤S412中,校正处理部62根据坐标[1,1]的空白读取数据和光噪声特性信息计算光噪声量。即,校正处理部62使用将Ndata[1,1]规定为CdataM[1,1]的换算系数或计算公式进行计算。在此,CalNdataM[1,1]是指所计算的光噪声量。
在下一个步骤S414中,校正处理部62使用噪声图和所计算的光噪声量来校正坐标[1,1]的图像数据ImageM[1,1]。对ImageM[1,1]的校正使被二值化的噪声图的数据NmapM[1,1]和光噪声量CalNdataM[1,1]叠加,并通过从图像数据ImageM[1,1]减去而实现。
在下一个步骤S416中,校正处理部62判定是否处理了所有坐标的图像数据。在步骤S416中,在未处理所有坐标的图像数据的情况下判定为否,光噪声校正处理转移到步骤S418。在步骤S416中,在处理了所有坐标的图像数据的情况下判定为是,光噪声校正处理转移到步骤S420。
在步骤S418中,校正处理部62增加x坐标或y坐标,光噪声校正处理返回到步骤S412,并依次进行步骤S412之后的处理。
在步骤S420中,校正处理部62判定M是否与场数相同。在步骤S420中,在M与场数不相同的情况下判定为否,光噪声校正处理转移到步骤S422。
在步骤S422中,校正处理部62将M增加1,光噪声校正处理返回到步骤S404。校正处理部62从步骤S404起依次进行下一个场的处理。
在步骤S420中,在M与场数相同的情况下判定为是,校正处理部62结束光噪声校正处理。
根据以上第5实施方式,能够使用预先存储的光噪声特性信息以更高精度算出在各场中必须校正的光噪声量。尤其,在具有颜色灵敏度的成像元件的情况下,通过使每种颜色具备光噪声特性信息,能够以更高精度算出光噪声量。
(第6实施方式)
以下,对第6实施方式进行说明。与上述第5实施方式所涉及的摄像装置100相比,本第6实施方式所涉及的摄像装置100的不同点在于采用光噪声的产生量的比率作为光噪声特性信息来代替光噪声特性信息。在该实施方式中,光噪声特性信息是基于如下两个值之比的值,即,作为多个区域中的由校正处理部62再次读取的区域的光噪声而预先确定的值,和基于作为多个区域中的与区域不同的区域的光噪声而预先确定的值。
在第6实施方式所涉及的摄像装置100中,使用预先测定的光噪声量PreNdataM[x,y]与第1场的空白读取数据Ndata[x,y]之比来代替在第5实施方式中已说明的光噪声特性信息CdataM[x,y]。即,“CdataM[x,y]=PreNdataM[x,y]/Ndata[x,y]”。此外,优选光噪声特性信息CdataM[x,y]设置于每种颜色。
根据本第6实施方式所涉及的摄像装置100,能够使用预先存储的光噪声特性信息以更高精度且迅速地算出在各场中必须校正的光噪声量。尤其,根据本第6实施方式所涉及的摄像装置100,在具有颜色灵敏度的成像元件的情况下,通过使每种颜色具备光噪声特性信息,能够以更高精度且迅速算出光噪声量。
(第7实施方式)
接着,作为一例,参考图18所示的流程图对第7实施方式进行说明。在本第7实施方式所涉及的摄像装置100中,与上述各实施方式中已说明的摄像装置100相比,采用通过简单的方法来校正光噪声的方法。具体而言,是如下方法:存储在存储器部53中的摄像图像数据按照与由校正处理部62分别读取的区域图像数据对应地确定的光噪声,按多个区域的每个区域被校正,从而得到校正图像数据。
作为一例,在图18所示的差分获取处理中,首先,在步骤S500中,在场数寄存器M中存储作为初始值的“2”,然后差分获取处理转移到步骤S502。
在步骤S502中,校正处理部62读入第M场的图像数据ImageM[x,y]和第(M-1)场的图像数据Image(M-1)[x,y],然后差分获取处理转移到步骤S504。
在步骤S504中,校正处理部62获取第M场的图像数据与第(M-1)场的图像数据的差分数据DifDataM[x,y]。
即,DifDataM[x,y]由“DifDataM[x,y]=ImageM[x,y]-Image(M-1)[x,y]”表示。
差分数据DifDataM[x,y]相当于从读取第(M-1)场的图像数据到读取第M场的图像数据为止的期间在第M场中产生的光噪声。
在下一个步骤S506中,校正处理部62从第M场的图像数据中减去在步骤S504中获取的差分数据DifDataM[x,y]。由此,得到去除了光噪声的第M场的图像数据。
在下一个步骤S508中,校正处理部62判定M是否与场数相同。在步骤S508中,在M与场数不相同的情况下判定为否,差分获取处理转移到步骤S510。
在步骤S510中,校正处理部62将M增加1,差分获取处理返回到步骤S502。校正处理部62从步骤S502起依次进行下一个场的处理。
在步骤S508中,在M与场数相同的情况下判定为是,校正处理部62结束差分获取处理。
总而言之,校正图像数据是根据读取顺序相邻的一对区域图像数据的比较结果,从读取顺序在后的区域图像数据内确定具有差分的像素位置,并按照所确定的像素位置及差分按每个区域进行校正而得到的。
根据本第7实施方式所涉及的摄像装置100,由于不进行第1场的空白读取而获取读取顺序相邻的场之间的差分,因此与进行第1场的空白读取的情况相比,能够迅速地校正各场的光噪声。
(第8实施方式)
接着,作为一例,参考图19所示的流程图对第8实施方式进行说明。在本第8实施方式中,摄像装置100采用在上述第1~第7实施方式中已说明的选择光噪声校正与否的方式。
在图19中示出由图像处理电路61执行的噪声校正与否处理流程的一例。作为一例,如图19所示,首先,在步骤S600中,图像处理电路61判定在用户以手动模式来设定的摄像条件或以自动摄影模式设定了CPU12的摄像条件中,作为摄像时间的曝光时间是否比预先确定的时间阈值短。并且,图像处理电路61在存储在存储器部53中的即时预览图像数据中判定在被摄体中是否存在具有超过预先确定的阈值的亮度的图像区域。图像处理电路61判定是否满足这些两个条件中的至少任一个条件。
在步骤S600中,在满足两个条件中的至少任一个条件的情况下判定为是,噪声校正与否处理转移到步骤S602。在步骤S600中,在不满足两个条件中的任一个条件的情况下判定为否,噪声校正与否处理转移到步骤S604。
在步骤S602中,校正处理部62执行光噪声校正模式,从而得到校正图像。光噪声校正模式是指如下动作模式:对通过由光电转换元件51拍摄而得到的摄像图像数据,进行在上述各实施方式中已说明的去除光噪声的校正。
在步骤S604中,图像处理电路61执行如下通常的读取处理:对通过由光电转换元件51拍摄而得到的摄像图像数据,不进行在上述各实施方式中以说明的去除光噪声的校正。
另外,在本第8实施方式中,例示出由图像处理电路61执行步骤S600的处理的情况,但是本公开的技术并不限定于此。例如,可以由CPU12执行步骤S600的处理,基于CPU12的执行结果可以传送到图像处理电路61。
若曝光时间短,则摄像图像数据的读取时间相对变长。因此,与在曝光时间内得到的来自被摄体的光学图像数据相比,在读取时间内产生的光噪声的量相对增加。即,光噪声的影响变大。因此,在摄像时间比预先确定的阈值短的情况下,进行光噪声校正的优点变大。并且,若被摄体由摄像装置100拍摄,则随着被摄体的亮度变大,光噪声的产生量也变大。因此,在被摄体中存在超过预先确定的阈值的亮度区域的情况下,进行光噪声校正的优点变大。
根据本第8实施方式所涉及的摄像装置100,在摄像时间小于阈值、或者在被摄体中存在具有超过阈值的亮度的图像区域的情况下,以光噪声校正模式进行拍摄,在除此以外的情况下,以不进行光噪声校正的正常模式进行拍摄。因此,根据本第8实施方式所涉及的摄像装置100,能够在光噪声校正模式下将对摄像图像数据去除光噪声的校正的频率保持在必要最小限定。
并且,作为一例,如图20所示,在步骤S610中,图像处理电路61可以判定摄像时间是否小于阈值,并且在被摄体中是否存在超过阈值的亮度区域。在步骤S610中,在曝光时间小于阈值且在被摄体中存在超过阈值的亮度区域的情况下判定为是,噪声校正与否处理转移到步骤S612。
另外,在此,例示出由图像处理电路61执行步骤S610的处理的情况,但是本公开的技术并不限定于此。例如,可以由CPU12执行步骤S610的处理,基于CPU12的执行结果可以传送到图像处理电路61。
在步骤S612中,校正处理部62执行相当于图19所示的步骤S602的处理的处理。在步骤S614中,图像处理电路61执行相当于图19所示的步骤S604的处理的处理。从而,即使在执行图20所示的噪声校正与否处理的情况下,也可以获得与执行图19所示的噪声校正与否处理的情况相同的效果。
以上各实施方式中已说明的光噪声校正处理仅为一例。从而,在不脱离主旨的范围内,当然可以删除不必要的步骤,或者追加新的步骤,或者切换处理顺序。
在以上说明中,示出由图像处理电路61执行本公开的技术所涉及的各种处理的方式例,但是本公开的技术并不限定于此,也可以通过由CPU12执行本公开的技术所涉及的各种程序而实现。此外,本公开的技术并不限定于此,也可以由除了CPU12以外的CPU执行本公开的技术所涉及的各种程序。
并且,在此提及的“本公开的技术所涉及的各种处理”是指差分获取处理、噪声位置确定处理、场图像校正处理、光噪声校正处理及噪声校正与否处理。并且,在此提及的“本公开的技术所涉及的各种程序”是指差分获取程序、噪声位置确定程序、场图像校正程序、光噪声校正程序及噪声校正与否程序。
即,通过由图像处理电路61或CPU12执行差分获取程序而实现差分获取处理。并且,通过由图像处理电路61或CPU12执行噪声位置确定程序而实现噪声位置确定处理。并且,通过由图像处理电路61或CPU12执行场图像校正程序而实现场图像校正处理。并且,通过由图像处理电路61或CPU12执行光噪声校正程序而实现光噪声校正处理。此外,通过由图像处理电路61或CPU12执行噪声校正与否程序而实现噪声校正与否处理。另外,以下,在不需要区分说明差分获取程序、噪声位置确定程序、场图像校正程序、光噪声校正程序及噪声校正与否程序的情况下,称为“程序PG”。
作为一例,如图21所示,程序PG可以存储于SSD、USB存储器、或DVD-ROM等任意的便携式存储介质700。在该情况下,存储介质700的程序PG安装于摄像装置100,所安装的程序PG由CPU12执行。
并且,在经由通信网络(省略图示)连接于摄像装置100的其他计算机或服务器装置等存储部中可以存储有程序PG,程序PG可以根据摄像装置100的请求而下载。在该情况下,所下载的程序PG由摄像装置100的CPU12执行。
在上述实施方式中,例如,作为执行本公开的技术所涉及的各种处理的硬件资源,能够使用以下所示的各种处理器。作为处理器,例如可以例举通用的处理器即CPU,如上所述,所述处理器通过执行软件即程序而作为执行本公开的技术所涉及的各种处理的硬件资源发挥功能。并且,作为处理器,例如可例举作为处理器的专用电路,所述处理器具有FPGA、PLD、或ASIC等为了执行特定处理而专门设定的电路结构。
执行本公开的技术所涉及的各种处理的硬件资源可以由这些各种处理器中的一个构成,也可以由相同种类或不同种类的两个以上的处理器的组合(例如多个FPGA的组合、或CPU与FPGA的组合)构成。并且,执行本公开的技术所涉及的各种处理的硬件资源可以是1个处理器。
作为由1个处理器构成的示例,第一、存在如下方式:如以客户端及服务器等计算机为代表,由1个以上的CPU和软件的组合构成1个处理器,该处理器作为执行本公开的技术所涉及的各种处理的硬件资源而发挥功能。第二、存在如下方式:如以SoC等为代表,使用由1个IC芯片来实现包括执行本公开的技术所涉及的各种处理的多个硬件资源的系统全体的功能的处理器。如此,本公开的技术所涉及的各种处理通过使用1个以上上述各种处理器作为硬件资源而实现。
此外,作为这些各种处理器的硬件结构,更具体而言,能够使用将半导体元件等电路元件进行了组合的电路。
(第9实施方式)
在上述各实施方式中例示出摄像装置100,作为摄像装置100的变形例的移动终端装置,例如可例举分别具有相机功能的移动电话、智能手机、PDA或便携式游戏机等。以下,以智能手机为例,参考附图进行说明。
图22是表示智能手机800的外观的一例的立体图。智能手机800具有平板状框体802,在框体802的一面具备作为显示部的显示面板821和作为输入部的操作面板822成为一体的显示输入部820。并且,框体802具备扬声器831、麦克风832、操作部840及相机部841。另外,框体802的结构并不限定于此,例如能够采用显示部和输入部独立的结构,或者也能够采用具有折叠结构或滑动结构的结构。
图23是表示图22所示的智能手机800的结构的一例的框图。作为一例,如图23所示,智能手机800具备作为主要构成要件的无线通信部810、显示输入部820、通信部830、操作部840、相机部841、存储部850及外部输入输出部860。并且,智能手机800具备作为主要构成要件的GPS接收部870、运动传感器部880、电源部890及主控制部801。并且,作为智能手机800的主要功能,具备经由基站装置BS和移动通信网络NW进行移动无线通信的无线通信功能。
无线通信部810按照主控制部801的指示对容纳于移动通信网络NW中的基站装置BS进行无线通信。通过使用该无线通信而进行语音数据、图像数据、电子邮件数据、Web数据和/或数据流等各种数据的收发。
显示输入部820是所谓的触摸面板,具备显示面板821和操作面板822。因此,显示输入部820通过主控制部801的控制而显示静止图像、动态图像及文字信息等,由此以视觉方式向用户传递信息,并且检测对显示信息的用户操作。另外,在观看所生成的3D的情况下,显示面板821优选为3D显示面板。
显示面板821通过将LCD或OELD等用作显示器件而实现。操作面板822是以视觉辨认的方式载置显示于显示面板821的显示面上的图像,并通过被用户的手指和/或尖笔操作而检测一个或多个坐标的器件。若通过用户的手指和/或尖笔而操作该器件,则将因操作而产生的检测信号输出到主控制部801。接着,主控制部801根据接收到的检测信号来检测显示面板821上的操作位置(坐标)。
显示输入部820通过智能手机800的显示面板821和操作面板822成为一体而构成。具体而言,操作面板822重叠于显示面板821,操作面板822完全覆盖显示面板821。在采用了该配置的情况下,操作面板822可以具备对除了显示面板821以外的区域也检测用户操作的功能。换言之,操作面板822可以具备关于重叠于显示面板821上的重叠部分的检测区域即显示区域,和除此以外的关于不重叠于显示面板821上的外缘部分的检测区域即非显示区域。
另外,可以使显示区域的大小与显示面板821的大小完全一致,但无需使两者必须一致。并且,操作面板822可以具备外缘部分和除此以外的内侧部分这两个感应区域。并且,外缘部分的宽度可以根据框体802的大小等适当地设计。此外,作为在操作面板822中采用的位置检测方式,可例举矩阵开关方式、电阻膜方式、表面弹性波方式、红外线方式、电磁感应方式、静电电容方式等,也能够采用任一种方式。
通信部830具备扬声器831和/或麦克风832。通信部830将通过麦克风832输入的用户的语音转换成由主控制部801可以处理的语音数据并输出到主控制部801。并且,通信部830将由无线通信部810或外部输入输出部860接收到的语音数据进行解码并从扬声器831输出。并且,例如能够将扬声器831搭载于与设置有显示输入部820的面相同的面上,能够将麦克风832搭载于框体802的侧面。
操作部840是使用了键开关等的硬件键,其接受来自用户的指示。例如,如图22所示,操作部840为按钮式(瞬间动作方式)开关,其搭载于智能手机800的框体802的侧面,若用手指等按下则开启,若手指离开则因弹簧等恢复力而成为关闭状态。
存储部850存储将程序PG、控制数据、应用软件、通信对象的姓名及电话号码等建立对应关联的地址数据。并且,存储部850存储所收发的电子邮件数据。并且,存储部850存储通过Web浏览器下载的Web数据和/或通过Web浏览器下载的内容数据。并且,存储部850临时存储数据流等。并且,存储部850具有智能手机内置的内部存储部851和具有装卸自如的外部存储器插槽的外部存储部852。另外,构成存储部850的各个内部存储部851和外部存储部852通过使用闪存类型或硬盘类型等存储介质而实现。作为存储介质,除此以外,还能够例示微型多媒体卡类型、卡类型的存储器、RAM或ROM。
外部输入输出部860是起到与连结于智能手机800的所有外部设备之间的接口的作用的器件,以经由通信等或网络直接或间接地可以通信的方式连接于其他外部设备。作为与其他外部设备的通信等,例如可例举USB。作为网络,例如可例举互联网、无线LAN、Bluetooth(注册商标)、RFID或IrDA(注册商标)。并且,作为网络的其他例,可例举UWB(注册商标)或ZigBee(注册商标)等。
作为连结于智能手机800的外部设备,例如可例举有线头戴式耳机、无线头戴式耳机、有线外部充电器、无线外部充电器、有线数据端口和/或无线数据端口。作为连结于智能手机800的外部设备的其他例,可例举经由卡插槽而连接的存储卡。作为连结于智能手机800的外部设备的其他例,可例举SIM/UIM卡。作为连结于智能手机800的外部设备的其他例,可例举经由音频/视频I/O端子而连接的外部音频/视频设备。除了外部音频/视频设备以外,还可以例举无线连接的外部音频/视频设备。并且,例如,还可以适用通过有线或无线而连接的智能手机来代替外部音频/视频设备。并且,例如,还可以适用通过有线或无线而连接的个人计算机来代替外部音频/视频设备。并且,例如,还可以适用通过有线或无线而连接的PDA来代替外部音频/视频设备。并且,例如,还可以适用通过有线或无线而连接的个人计算机来代替外部音频/视频设备。并且,例如,还可以适用耳机等来代替外部音频/视频设备。
外部输入输出部将从这种外部设备接收到传送的数据传递到智能手机800内部的各构成要件,或者能够使智能手机800内部的数据传送到外部设备。
GPS接收部870按照主控制部801的指示而接收从GPS卫星ST1~STn发送的GPS信号,根据接收到的多个GPS信号执行测位运算处理,并检测以智能手机800的纬度、经度和/或高度来表示的位置(智能手机800的当前位置)。GPS接收部870在能够从无线通信部810或外部输入输出部860获取智能手机800的当前位置的位置信息时,也能够使用该位置信息来检测位置。
运动传感器部880例如具备3轴加速度传感器等,并按照主控制部801的指示而检测智能手机800的物理移动。通过由运动传感器部880检测智能手机800的物理移动,检测智能手机800的移动方向及加速度。该检测结果输出到主控制部801。
电源部890按照主控制部801的指示,向智能手机800的各部供给蓄积在电池(省略图示)中的电力。
主控制部801具备微处理器,按照存储部850存储的程序PG及控制数据进行工作,对智能手机800的各部进行控制。并且,主控制部801通过无线通信部810进行语音通信或数据通信,因此具备控制通信系统的各部的移动通信控制功能。并且,主控制部801还具备应用程序处理功能。
应用程序处理功能是通过主控制部801按照存储部850存储的应用软件进行工作而实现的。作为应用程序处理功能,例如可例举红外线通信功能、电子邮件功能及Web浏览器功能等。红外线通信功能是通过控制外部输入输出部860而与相向设备进行数据通信的功能。电子邮件功能是收发电子邮件的功能。Web浏览器功能是浏览Web页的功能。
并且,主控制部801具备图像处理功能。图像处理功能是根据所接收到的数据和/或下载的数据流等静止图像和/或动态图像的数据将影像显示于显示输入部820等功能。即,图像处理功能是指如下功能:主控制部801将上述图像数据进行解码,并对该解码结果实施图像处理,从而将图像显示于显示输入部820。
此外,主控制部801执行对显示面板821的显示控制和检测通过操作部840及操作面板822进行的用户操作的操作检测控制。
通过执行显示控制,主控制部801显示用于启动应用软件的图标及滚动条等软件键,或者显示用于创建电子邮件的窗口。另外,滚动条是指软件键,其用于接受关于无法完全收进显示面板821的显示区域中的大的图像等使图像的显示部分移动的指示。
并且,通过执行操作检测控制,主控制部801检测通过操作部840的用户操作,或者通过操作面板822而接受对上述图标的操作及对上述窗口的输入栏的字符串的输入。并且,通过执行操作检测控制,主控制部801接受通过滚动条的显示图像的滚动请求。
此外,主控制部801具备触摸面板控制功能。通过执行操作检测控制,主控制部801判定对操作面板822的操作位置是重叠于显示面板821的重叠部分(显示区域),还是除此以外的不重叠于显示面板821的外缘部分(非显示区域)。而且,通过主控制部801启动触摸面板控制功能,主控制部801接受该判定结果并控制操作面板822的感应区域及软件键的显示位置。
并且,主控制部801也能够检测对操作面板822的手势操作,并根据检测到的手势操作执行预先设定的功能。手势操作不是以往的简单的触摸操作,而是通过手指等绘制轨迹,或者同时指定多个位置,或者组合这些位置并从多个位置中的至少1个位置绘制轨迹的操作。
相机部841是使用CMOS传感器进行拍摄的数码相机,具备与图1等所示的摄像装置100相同的功能。
并且,相机部841可以切换手动聚焦模式和自动聚焦模式。若选择手动聚焦模式,则通过操作显示在操作部840或显示输入部820上的聚焦用图标按钮等,进行相机部841的摄影镜头的对焦。并且,当手动聚焦模式时,例如使裂像经过合成的即时预览图像显示于显示面板821,由此能够确认手动聚焦时的对焦状态。另外,可以将图1所示的混合式取景器220设置于智能手机800。
并且,相机部841通过主控制部801的控制,将通过拍摄而得到的图像数据转换成为例如JPEG等经过压缩的图像数据。而且,将通过转换而得到的图像数据记录于存储部850,或者通过外部输入输出部860和/或无线通信部810而输出。在图22所示的智能手机800中,相机部841搭载于与显示输入部820相同的表面上,但相机部841的搭载位置并不限定于此,也可以搭载于显示输入部820的背面,或者可以搭载多个相机部841。另外,在搭载多个相机部841的情况下,切换供拍摄的相机部841而单独进行拍摄,或者通过同时使用多个相机部841而进行拍摄。
并且,相机部841被利用于智能手机800的各种功能中。例如,由相机部841获取的图像显示于显示面板821。并且,作为操作面板822的操作输入之一,利用相机部841的图像。并且,在GPS接收部870在检测位置时,参考来自相机部841的图像来检测位置。并且,主控制部801不使用3轴加速度传感器,而通过参考来自相机部841的图像而判断智能手机800的相机部841的光轴方向,或者判断当前的使用环境。此外,主控制部801通过并用3轴加速度传感器,判断智能手机800的相机部841的光轴方向,或者判断当前使用环境。当然,也能够将来自相机部841的图像利用于应用软件内。
此外,主控制部801对静止图像或动态图像的图像数据附加各种信息,并将附加了各种信息的图像数据记录于存储部850,或者通过输入输出部860或无线通信部810而输出。作为在此提及的“各种信息”,可例举由GPS接收部870获取的位置信息和/或由麦克风832获取的语音信息。语音信息可以使用通过由主控制部等进行语音文本转换而得到的文本信息。此外,“各种信息”中可以包括由运动传感器部880获取的姿势信息等。
以上所示的记载内容及图示内容是关于本发明技术所涉及部分的详细说明,只是本发明技术的一例。例如,与上述结构、功能、作用及效果有关的说明是与本发明技术所涉及部分的结构、功能、作用及效果的一例有关的说明。因此,在不脱离本发明技术的主旨的范围内,当然可以对以上所示的记载内容及图示内容删除不必要的部分,或者追加新的要素,或者进行替换。并且,为了避免复杂化,并且为了容易理解本发明技术所涉及的部分,在以上所示的记载内容及图示内容中,省略了在能够实施本发明技术的方面不需要特别说明的与技术常识等有关的说明。
在本说明书中,“A和/或B”与“A及B中的至少一个”的含义相同。即,“A和/或B”是指可以只有A,可以只有B,也可以是A及B的组合。并且,在本说明书中,附加“和/或”来表现3个以上的事项的情况下,也可以适用与“A和/或B”相同的概念。
本说明书中所记载的所有文献、专利申请及技术标准,以与具体且分别记载通过参考而援用各文献、专利申请及技术标准之情况相同之程度,通过参考而援用于本说明书中。
本申请主张基于2018年7月27日于日本申请的日本专利申请2018-141678号的优先权,并将该申请的全部内容援用于本说明书中。

Claims (21)

1.一种图像处理装置,其包括:
读取部,将由具备多个光电转换元件的成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据而按照所述存储器部的被划分的多个区域的每个区域读取,并且在所述每个区域图像数据的读取结束之后,再次读取预先确定的区域的数据;及
输出部,输出校正图像数据,所述校正图像数据是通过由所述成像元件拍摄并存储于所述存储器部中的摄像图像数据按照与由所述读取部再次读取的所述数据对应地确定的光噪声并按所述多个区域的每个区域被校正而得到的。
2.根据权利要求1所述的图像处理装置,其中,
所述预先确定的区域是从所述存储器部首先读取到所述区域图像数据的区域。
3.根据权利要求1或2所述的图像处理装置,其中,
所述校正图像数据是通过基于所述读取部的读取顺序相邻的一对区域图像数据的比较结果,根据所述读取部的读取顺序在后的区域图像数据来确定具有所述光噪声的像素位置,并按照所确定的所述像素位置及所述光噪声的量按所述每个区域被校正而得到的。
4.根据权利要求3所述的图像处理装置,其中,
所述比较结果是所述相邻的一对区域图像数据的每个图像数据之间的差分。
5.根据权利要求3或4所述的图像处理装置,其中,
所述多个光电转换元件对预先确定的多个原色的每个原色具有灵敏度。
6.根据权利要求5所述的图像处理装置,其中,
所述区域图像数据的每个区域图像数据是存储在所述存储器部中的图像数据以组单位被间拔的区域图像数据,所述组单位中对所述多个原色的每个原色具有灵敏度的光电转换元件具有预先确定的排列。
7.根据权利要求6所述的图像处理装置,其中,
所述比较结果是所述一对区域图像数据在被同步化处理之后被比较的结果。
8.根据权利要求3至7中任一项所述的图像处理装置,其中,
所述像素位置根据对所述一对区域图像数据的所述比较结果进行过滤处理的结果来确定,或者根据所述一对区域图像数据在被过滤处理之后被比较的所述比较结果来确定。
9.根据权利要求1至8中任一项所述的图像处理装置,其中,
在满足预先确定的摄像条件的情况下,所述读取部在多个所述区域图像数据的每个区域图像数据的读取结束之后,进行再次读取所述数据的处理。
10.根据权利要求9所述的图像处理装置,其中,
所述摄像条件是如下条件中的至少一个条件:基于所述成像元件的摄像时间比预先确定的时间短的条件;及在存储于所述存储器部中的图像数据内,存在亮度超过预先确定的亮度的图像区域的条件。
11.根据权利要求1至10中任一项所述的图像处理装置,其还包括:
获取部,从存储部获取所述光噪声特性信息,所述存储部预先存储有关于所述多个区域的每个区域的表示光噪声特性的光噪声特性信息,
所述校正图像数据是通过所述摄像图像数据按照所述光噪声和由所述获取部获取的所述光噪声特性信息按所述每个区域被校正而得到的。
12.根据权利要求11所述的图像处理装置,其中,
所述光噪声特性信息是基于如下两个值之比的值,即,作为所述多个区域中的由所述读取部再次读取的所述区域的光噪声而预先确定的值,和基于作为所述多个区域中的与所述区域不同的区域的光噪声而预先确定的值。
13.一种图像处理装置,其包括:
读取部,将由具备多个光电转换元件的成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据而按照所述存储器部的被划分的多个区域的每个区域读取;及
输出部,输出校正图像数据,所述校正图像数据是通过由所述成像元件拍摄并存储于所述存储器部中的摄像图像数据按照与由所述读取部分别读取的区域图像数据对应地确定的光噪声按所述多个区域的每个区域被校正而得到的。
14.根据权利要求13所述的图像处理装置,其中,
所述校正图像数据是通过基于所述读取部的读取顺序相邻的一对区域图像数据的比较结果,从所述读取部的读取顺序在后的区域图像数据内确定具有差分的像素位置,并按照所确定的所述像素位置及所述差分按所述每个区域被校正而得到的。
15.根据权利要求1至14中任一项所述的图像处理装置,其中,
所述区域是通过将以矩阵方式排列的所述光电转换元件的所述存储器部通过预先确定的方法以行单位间拔而得到的。
16.根据权利要求1至15中任一项所述的图像处理装置,其还包括:
控制部,其进行使基于由所述输出部输出的所述校正图像数据的图像显示于显示部的控制。
17.一种摄像装置,其包括:
权利要求1至16中任一项所述的图像处理装置;及
接受部,接受使所述成像元件开始拍摄的指示。
18.一种图像处理方法,其包括如下两个步骤:
将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据而按照所述存储器部的被划分的多个区域的每个区域读取,并且在所述每个区域图像数据的读取结束之后,再次读取预先确定的区域的数据;及
输出校正图像数据,所述校正图像数据是通过由所述成像元件拍摄并存储在所述存储器部中的摄像图像数据按照与再次读取的所述数据对应地确定的光噪声并按所述多个区域的每个区域被校正而得到的。
19.一种图像处理方法,其包括如下两个步骤:
将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据而按照所述存储器部的被划分的多个区域的每个区域读取;及
输出校正图像数据,所述校正图像数据是通过由所述成像元件拍摄并存储在所述存储器部中的摄像图像数据按照与分别读取的区域图像数据对应地确定的光噪声并按所述多个区域的每个区域被校正而得到的。
20.一种程序,其用于使计算机执行包括如下步骤的处理:
将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据而按照所述存储器部的被划分的多个区域的每个区域读取,并且在所述每个区域图像数据的读取结束之后,再次读取预先确定的区域的数据;及
输出校正图像数据,所述校正图像数据是通过由所述成像元件拍摄并存储在所述存储器部中的摄像图像数据按照与再次读取的所述数据对应地确定的光噪声并按所述多个区域的每个区域被校正而得到的。
21.一种程序,其用于使计算机执行包括如下步骤的处理:
将由成像元件拍摄并传送到光噪声重叠的存储器部的图像数据,作为区域图像数据而按照所述存储器部的被划分的多个区域的每个区域读取;及
输出校正图像数据,所述校正图像数据是通过由所述成像元件拍摄并存储在所述存储器部中的摄像图像数据按照与分别读取的区域图像数据对应地确定的光噪声并按所述多个区域的每个区域被校正而得到的。
CN201980049814.5A 2018-07-27 2019-06-11 图像处理装置、摄像装置、图像处理方法及记录介质 Active CN112514370B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018-141678 2018-07-27
JP2018141678 2018-07-27
PCT/JP2019/023128 WO2020021887A1 (ja) 2018-07-27 2019-06-11 画像処理装置、撮像装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
CN112514370A true CN112514370A (zh) 2021-03-16
CN112514370B CN112514370B (zh) 2023-07-28

Family

ID=69181402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980049814.5A Active CN112514370B (zh) 2018-07-27 2019-06-11 图像处理装置、摄像装置、图像处理方法及记录介质

Country Status (4)

Country Link
US (1) US11399145B2 (zh)
JP (1) JP6896175B2 (zh)
CN (1) CN112514370B (zh)
WO (1) WO2020021887A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3993393B1 (en) * 2019-07-24 2023-09-06 Sony Group Corporation Image capturing device and image capturing method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10214329A (ja) * 1997-01-30 1998-08-11 Rohm Co Ltd 密着型イメージセンサ
US20060082841A1 (en) * 2004-09-21 2006-04-20 Olympus Corporation Imaging apparatus
US20080055438A1 (en) * 2006-08-30 2008-03-06 Samsung Electronics Co., Ltd. Image sensor package, related method of manufacture and image sensor module
CN101256333A (zh) * 2007-03-02 2008-09-03 奥林巴斯映像株式会社 摄像装置
JP2010050535A (ja) * 2008-08-19 2010-03-04 Toyota Motor Corp 撮像装置
JP2010271499A (ja) * 2009-05-20 2010-12-02 Canon Inc 撮像装置
US20130193334A1 (en) * 2012-02-01 2013-08-01 Canon Kabushiki Kaisha Imaging apparatus, x-ray detector, and imaging method
US20170230569A1 (en) * 2016-02-09 2017-08-10 Canon Kabushiki Kaisha Image capturing apparatus, control method thereof, and storage medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087644A (ja) * 2001-09-07 2003-03-20 Matsushita Electric Ind Co Ltd 撮像表示装置、撮像表示方法及びプログラム
JP2006108889A (ja) 2004-10-01 2006-04-20 Canon Inc 固体撮像装置
JP3868446B2 (ja) * 2004-10-29 2007-01-17 オリンパス株式会社 撮像装置
JP2008028516A (ja) 2006-07-19 2008-02-07 Olympus Corp カメラシステム
JP5220777B2 (ja) * 2010-01-21 2013-06-26 オリンパス株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
JP2011216966A (ja) 2010-03-31 2011-10-27 Sony Corp 固体撮像素子および固体撮像素子の駆動方法、並びに電子機器
JP2012134756A (ja) * 2010-12-21 2012-07-12 Olympus Corp 撮像装置
JP5948073B2 (ja) * 2012-02-08 2016-07-06 株式会社 日立産業制御ソリューションズ 画像信号処理装置、画像信号処理方法
JP6415532B2 (ja) * 2013-03-15 2018-10-31 ラムバス・インコーポレーテッド 閾値を監視する条件付きリセットイメージセンサ

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10214329A (ja) * 1997-01-30 1998-08-11 Rohm Co Ltd 密着型イメージセンサ
US20060082841A1 (en) * 2004-09-21 2006-04-20 Olympus Corporation Imaging apparatus
US20080055438A1 (en) * 2006-08-30 2008-03-06 Samsung Electronics Co., Ltd. Image sensor package, related method of manufacture and image sensor module
CN101256333A (zh) * 2007-03-02 2008-09-03 奥林巴斯映像株式会社 摄像装置
JP2010050535A (ja) * 2008-08-19 2010-03-04 Toyota Motor Corp 撮像装置
JP2010271499A (ja) * 2009-05-20 2010-12-02 Canon Inc 撮像装置
US20130193334A1 (en) * 2012-02-01 2013-08-01 Canon Kabushiki Kaisha Imaging apparatus, x-ray detector, and imaging method
US20170230569A1 (en) * 2016-02-09 2017-08-10 Canon Kabushiki Kaisha Image capturing apparatus, control method thereof, and storage medium

Also Published As

Publication number Publication date
WO2020021887A1 (ja) 2020-01-30
US20210152763A1 (en) 2021-05-20
US11399145B2 (en) 2022-07-26
CN112514370B (zh) 2023-07-28
JP6896175B2 (ja) 2021-06-30
JPWO2020021887A1 (ja) 2021-05-13

Similar Documents

Publication Publication Date Title
JP5937767B2 (ja) 撮像装置及び撮像方法
US9667877B2 (en) Imaging device and imaging method
US10003731B2 (en) Image element, and imaging device and imaging method using the same for achieving improved image quality regardless of an incident angle of light
US9743031B2 (en) Imaging device and imaging method
JP5802858B2 (ja) 撮像装置、画像処理装置、画像処理方法及びプログラム
EP2833624B1 (en) Solid-state image capture element, image capture device, and solid-state image capture element drive method
EP2903258B1 (en) Image-processing device and method, and image pickup device
CN104813648B (zh) 图像处理装置、摄像装置、及图像处理方法
US11184523B2 (en) Imaging apparatus with phase difference detecting element
US9432569B2 (en) Imaging device and focus control method
JP5866478B2 (ja) 撮像装置、信号処理方法、信号処理プログラム
US10958824B2 (en) Imaging apparatus and image processing method
CN104823094A (zh) 摄像装置及对焦控制方法
CN107005626B (zh) 摄像装置及其控制方法
WO2014087804A1 (ja) 撮像装置、画像処理方法及びプログラム
CN112514370B (zh) 图像处理装置、摄像装置、图像处理方法及记录介质
CN111108743B (zh) 摄像控制装置、摄像装置、摄像控制方法及记录介质
US9270955B2 (en) Imaging apparatus that generates three-layer color data on the basis of a first mosaic image
CN109906604B (zh) 摄像装置、摄像方法及记录介质
US20200007799A1 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant