CN107888838B - 用于处理图像的方法及支持该方法的电子设备 - Google Patents

用于处理图像的方法及支持该方法的电子设备 Download PDF

Info

Publication number
CN107888838B
CN107888838B CN201710886202.4A CN201710886202A CN107888838B CN 107888838 B CN107888838 B CN 107888838B CN 201710886202 A CN201710886202 A CN 201710886202A CN 107888838 B CN107888838 B CN 107888838B
Authority
CN
China
Prior art keywords
image
electronic device
exposure
image sensor
exposure time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710886202.4A
Other languages
English (en)
Other versions
CN107888838A (zh
Inventor
朴宰亨
金炳昊
文戴畯
李正源
金翰成
崔祐硕
下川修一
薄井高文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN107888838A publication Critical patent/CN107888838A/zh
Application granted granted Critical
Publication of CN107888838B publication Critical patent/CN107888838B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/82Camera processing pipelines; Components thereof for controlling camera response irrespective of the scene brightness, e.g. gamma correction
    • H04N23/83Camera processing pipelines; Components thereof for controlling camera response irrespective of the scene brightness, e.g. gamma correction specially adapted for colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

电子设备包括:透镜部,接收来自被摄体的光;图像传感器,在二维布置的一组像素处接收所述透镜部产生的光;以及处理器,处理图像传感器的图像信号。图像传感器以一定速度执行读出操作以防止图像模糊。处理器将通过读出操作的多个图像的数据临时存储在存储器中;加载存储在存储器中的所述多个图像,以产生与图像传感器的图像信号相比比特数量被扩展的图像;以及对比特数量被扩展的图像执行伽马处理,以产生压缩到与图像传感器的图像信号相同的比特数量的图像。

Description

用于处理图像的方法及支持该方法的电子设备
相关申请的交叉引用
本申请涉及并要求于2016年9月30日提交的韩国申请号No.KR10-2016-0127159的优先权,其内容通过引用并入本文。
技术领域
本公开涉及一种用于拍摄外部被摄体并处理拍摄的图像的数据的方法以及支持该方法的电子设备。
背景技术
发布了诸如数字单镜头反光相机(DSLR)、无镜面数字相机等的各种类型的拍摄设备(或图像拾取设备)。此外,诸如智能电话、平板电脑等的电子设备包括相机模块,并且提供拍摄照片或视频的功能。电子设备(或拍摄设备)可以提供各种拍摄模式,并且用户可以根据拍摄环境来选择拍摄模式以拍摄期望的图像。
在电子设备提供的各种效果中,高动态范围(HDR)效果是使图像的亮部分更亮并使图像的暗部分更暗,从而使得动态范围扩展到接近于人用肉眼观看的技术。例如,高动态范围(HDR)可以通过合并亮的照片和暗的照片来创建一张照片。使用HDR技术,用户可以拍摄具有改善的对比度平衡的照片。
发明内容
为了解决上述缺陷,主要目的在于提供使用通过图像处理执行的方法的HDR技术,所述图像处理通过使用多个不同曝光的图像,选择长曝光的图像作为暗部分并选择短曝光的图像作为亮部分。在这种情况下,可能在获取多个曝光时在图像之间发生时间间隔。此外,在合并不同曝光的图像的过程中,会不可避免地校正像素的增益。在被摄体移动而导致的运动模糊或者由于用户手的抖动而导致的手模糊发生的情况下,如果存在时间间隔的图像被合并或者进行了增益校正,则将不能良好地进行压缩,这是因为移动的被摄体的图像具有间断或间隙或者运动的亮度改变。
备选地,HDR技术使用通过对一张图像中的每个部分执行不同的曝光的方式来扩大动态范围(DR)。在移动被摄体的情况下,由于模糊信息不存在于短曝光部分而存在于长曝光部分中,所以在图像中的长曝光部分和短曝光部分之间可能会出现运动差异。此外,对于像素的每个滤色器,曝光可以是可变的,并且在寻找被摄体的颜色的去马赛克过程中可能发生图像错误。
根据本公开的一方面,电子设备可以包括:透镜部,接收来自被摄体的光;图像传感器,在二维布置的一组像素处接收所述透镜部的光;以及图像处理器,处理图像传感器的图像信号。图像传感器可以以一定速度执行读出操作以防止图像模糊。图像处理器可以将通过读出操作的多个图像的数据临时存储在存储器中;可以加载存储在存储器中的所述多个图像,以产生与图像传感器的图像信号相比比特数量被扩展的图像;以及可以对比特数量被扩展的图像执行伽马处理,以产生压缩到与图像传感器的图像信号相同的比特数量的图像。
根据本公开的各种实施例的图像处理方法和支持该图像处理方法的电子设备可以有效地减少与HDR效果中的运动有关的影响。
根据本公开的各种实施例,图像处理方法和支持该方法的电子设备可以使图像的曝光均匀以获取多个图像,并且可以通过使用获得的图像来减少与运动相关联的影响,从而应用HDR效果。
根据本公开的各种实施例,图像处理方法和支持该方法的电子设备可以通过使用运动传感器等来防止手模糊或运动模糊。
根据结合附图公开了本公开各种实施例的以下详细描述,本公开的其他方面、优点和突出特征对于本领域技术人员而言将变得清楚明白。
在执行以下的具体实施方式之前,阐述贯穿本专利文档所使用的某些词语和短语的定义是有利的:术语“包括”和“包含”及其派生词意味着包括但没有限制;术语“或(者)”是包含性的,意味着“和/或”;短语“与...关联”和“与之关联”及其派生词可以意味着包括、(被)包括在...内、与...互连、包含、(被)包含在...内、连接到或与...相连、耦接到或与...耦接、可与...通信、与...协作、交织、并排、与...邻近、(被)绑定到或与...绑定、具有、具有...的属性等;以及术语“控制器”意味着控制至少一个操作的任何设备、系统或其一部分,这种设备可以用硬件、固件或软件或者其中至少两种的某种组合来实现。应注意,与任何特定控制器相关联的功能可以是集中式或者分布式的,无论本地还是远程。
此外,下面描述的各种功能可以由一个或多个计算机程序来实现或支持,每个计算机程序由计算机可读程序代码形成并体现在计算机可读介质中。术语“应用”和“程序”指代一个或多个计算机程序、软件组件、指令集、过程、功能、对象、类、实例、相关数据或其适用于在适当的计算机可读程序代码中实现的部分。短语“计算机可读程序代码”包括任何类型的计算机代码,包括源代码、目标代码和可执行代码。短语“计算机可读介质”包括能够被计算机访问的任意类型的介质,诸如只读存储器(ROM)、随机存取存储器(RAM)、硬盘驱动器、紧凑盘(CD)、数字视频盘(DVD)或任意其他类型的存储器。“非暂时性”计算机可读介质不包括传输暂时电信号或其他信号的有线、无线、光学或其他通信链路。非暂时性计算机可读介质包括其中可以永久存储数据的介质以及其中可以存储并且稍后被重写的数据的介质(例如可重写光盘或可擦除存储器设备)。
贯穿本专利文档提供对于某些词语和短语的定义,本领域普通技术人员应该理解:在许多实例(如果不是大多数实例)中,这种定义适用于这样定义的词语和短语的现有以及将来使用。
附图说明
为了更加全面地理解本公开及其优点,现在结合附图来参考以下描述,在附图中类似的附图标记表示类似的部件:
图1示出了根据各种实施例的电子设备的配置的视图;
图2示出了根据各种实施例的预处理单元的配置的框图;
图3示出了根据各种实施例的读出时间和曝光时间之间的关系的示例的视图;
图4是示出了根据各种实施例的图像处理方法的流程图;
图5示出了根据各种实施例的针对每个帧的均匀曝光的读出操作的示例;
图6示出了根据各种实施例的在整个曝光时间增加的状态下执行读出操作的示例的视图;
图7示出了根据各种实施例的通过使用长曝光和短曝光来产生组合图像;
图8示出了根据各种实施例的伽马模块的伽马处理;
图9A示出了根据各种实施例的在不存在单独运动的状态下的动态范围(DR)扩展的示例的视图;
图9B示出了根据各种实施例的与手抖动相关联的稳定性;
图10示出了网络环境中的电子设备;以及
图11示出了根据各种实施例的电子设备的框图。
具体实施方式
以下讨论的图1至图11和用于描述本专利文档中的本公开的原理的各种实施例仅仅是说明性的,而决不应以任何方式解释为限制本公开的范围。本领域技术人员将理解,可以在任意合适布置的系统或设备中实现本公开的原理。
在下文中,将参考附图来描述本公开的各种实施例。因此,本领域的普通技术人员将认识到在不背离本公开的范围和精神的情况下可以对这里所述的各种实施例进行各种修改、等同和/或替换。关于附图描述,相似的组件可用相似的附图标记来表示。
在本文公开的公开中,本文使用的表述“具有”、“可以具有”、“包含”和“包括”或“可以包含”和“可以包括”表示存在相应的特征(例如,诸如数值、功能、操作或组件之类的元素),但是不排除存在附加的特征。
在本文公开的公开内容中,本文使用的表述“A或B”、“A或/和B中的至少一个”、或者“A或/和B中的一个或多个”等可以包括关联列出项中的一个或多个的任意以及所有组合。例如,术语“A或B”、“A和B中的至少一个”、或“A或B中的至少一个”可指代以下所有情况:(1)包括至少一个A,(2)包括至少一个B,(3)包括至少一个A和至少一个B这二者。
本文中使用的诸如“第一”、“第二”等术语可以指本公开的各种实施例的各种元件,但不限制元件。例如,这样的术语仅用于将元件与另一元件区分开,并且不限制元件的顺序和/或优先级。例如,第一用户设备和第二用户设备可以表示不同的用户设备(不考虑顺序或重要性)。例如,在不背离本公开的范围的情况下,可以将第一元件称为第二元件,并且类似地,可以将第二元件称为第一元件。
应当理解的是,当元件(例如,第一元件)被称为“操作地或通信地”与另一元件(例如,第二元件)耦接/耦接到另一元件或“连接到”另一元件时,可以直接与另一元件耦接/耦接到另一元件或连接到另一元件,或可以存在中间元件(例如,第三元件)。相反,当元件(例如,第一元件)被称为“直接与另一元件(例如,第二元件)耦接/直接耦接到另一元件”或“直接连接至另一元件”时,应理解,不存在中间元件(例如,第三元件)。
根据情况,这里使用的表述“(被)配置为”可以用作例如表述“适用于”、“具有...的能力”、“(被)设计为”、“适于”、“(被)制造为”或者“能够”。术语“配置为(或设置为)”不必仅意味着在硬件中“专门设计为”。而是,表述“(被)配置为...的设备”可以表示该设备与另一设备或其他组件一起操作“能够...”。以CPU为例,“配置为(或设置为)执行A、B和C的处理器”可以表示用于执行相应操作的专用处理器(例如,嵌入式处理器)、或可以通过执行存储设备中存储的一个或多个软件程序来执行相应操作的通用处理器(例如,中央处理单元(CPU)或应用处理器)。
本说明书中所用的术语用于描述本公开的特定实施例,而不旨在限制本公开的范围。除非另有规定,否则单数形式的术语可以包括复数形式。除非本文另有说明,否则本文使用的所有术语(包括技术或科学术语)可以具有与本领域的技术人员通常所理解的含义相同的含义。还应当理解,在字典中定义并且常用的术语还应当被解释为有关相关技术中的惯例,而不是理想化或过度正式的意义,除非在本文在本公开的各种实施例中明确地如此定义。在一些情况下,即使术语是在本说明书中定义的术语,它们也不可以被解释为排除本公开的实施例。
根据本公开的各种实施例的电子设备可以包括以下项中的至少一项:智能电话、平板个人计算机(PC)、移动电话、视频电话、电子书阅读器、台式PC、膝上型PC、上网本计算机、工作站、服务器、个人数字助理(PDA)、便携式多媒体播放器(PMP)、MP3播放器、移动医疗设备、相机和可穿戴设备。根据本公开的各种实施例,可穿戴设备可以包括配饰(例如,手表、戒指、手链、脚链、眼镜、隐形眼镜或头戴式设备(HMD))、衣服集成类型(例如,电子衣服)、身体附着类型(例如,皮肤垫或纹身)或可植入类型(例如,可植入电路)。
在本公开的一些实施例中,电子设备可以是家用电器之一。家用电器可以包括例如以下项中的至少一项:数字视频盘(DVD)播放器、音响、冰箱、空调、吸尘器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、家庭自动控制面板、安全控制面板、TV盒(例如,三星HomeSyncTM、苹果TVTM,或谷歌TVTM)、游戏控制台(例如,XboxTM或PlayStationTM)、电子词典、电子钥匙、摄录机或电子面板。
在本公开的另一实施例中,电子设备可以包括以下项中的至少一项:各种医疗设备(例如,各种便携式医疗测量设备(血糖仪、心率测量设备、血压测量设备和体温测量设备)、磁共振血管造影(MRA)、磁共振成像(MRI)设备、计算机断层摄影(CT)设备、拍摄设备和超声设备)、导航系统、全球导航卫星系统(GNSS)、事件数据记录器(EDR)、飞行数据记录器(FDR)、车辆信息娱乐设备、船用电子设备(例如,船用导航设备和陀螺罗盘)、航空电子设备、安全设备、车辆头端单元、工业或家庭机器人、金融公司的自动柜员机(ATM)、商店的销售点(POS)或物联网(例如,灯泡、各种传感器、电表或燃气表、洒水器、火警设备、恒温器、电杆、烤面包机、运动器材、热水箱、加热器和锅炉)。
根据本公开的一些实施例,电子设备可以包括以下项中的至少一项:家具或建筑物/结构的一部分、电子板、电子签名接收设备、投影仪或各种测量设备(例如,水服务、电、燃气或电波测量设备)。在本公开的各种实施例中,电子设备可以是前述设备中的一个或组合。根据本公开的一些实施例的电子设备可以是柔性电子设备。此外,根据本公开的实施例的电子设备不限于上述设备,而是可以包括由于技术的发展而生产的新的电子设备。
下文中,将参考附图描述根据本公开的实施例的电子设备。本文使用的术语“用户”可以表示使用电子设备的人,或者可以表示使用电子设备的设备(例如,人造电子设备)。
图1示出了根据各种实施例的电子设备的配置的视图。
参考图1,电子设备101可以是收集从外部被摄体反射的光以拍摄照片或视频的设备。电子设备101可以包括透镜部110、快门部120、图像传感器(或图像拾取单元)130、传感器接口135、图像处理器140、存储器170、显示器180和运动传感器190。
透镜部110可收集从被摄体到达设备的光。可以通过收集的光在图像传感器130上形成图像。
快门部120可以通过使用狭缝来调整图像传感器110的曝光量。例如,快门部120可以用具有机械形状的快门来实现,或者可以通过传感器的控制用电子快门来实现。作为另一示例,快门部120可以是仅用前帘(前快门帘)电子实现的快门。
图像传感器130可以通过使用光电转换效应将光转换为电子图像信号。图像信号可以通过传感器接口135传送到图像处理器140。图像传感器130可以包括二维布置的一组像素,并且可以将光转换成每个像素处的电子图像数据。
根据各种实施例,图像传感器130可以基于在图像处理器140中确定的曝光时间调节快门部120,来调整到达图像传感器130的光量(曝光量)。在各种实施例中,图像传感器130还可以包括机械结构,该机械结构用作在入射光到达图像传感器130之前调整光量的光圈。
根据各种实施例,图像传感器130可以读出根据光电转换效应记录在每个像素中的电子图像数据(读出)。可以参考图3给出关于图像传感器130的读出操作的附加信息。
通过各种处理操作,图像处理器140可以在显示器180中输出在图像传感器130中收集的图像数据,或者可以将收集的图像数据存储在存储器170中。在各种实施例中,图像处理器140可以包括预处理单元150和主处理单元160。
预处理单元(例如,Pre ISP(图像信号处理器))150可以存储多个帧的图像数据(下文中称为“帧数据”),并且可以组合存储的帧数据以创建一个图像(下文中称为“组合图像”)。根据电子设备101的配置,预处理单元150可以与传感器接口135交换位置。可以参考图2给出关于预处理单元150的配置和操作的附加信息。
主处理单元160(例如,应用处理器(AP)、ISP或外围控制器)可以对通过预处理单元150处理的图像信号执行数字信号处理。在校正和构成从预处理单元150接收到的信号以产生整个图像信号之后,主处理单元160可以允许通过显示器180显示所产生的整个图像信号。主处理单元160可以执行控制诸如信号放大、信号转换、信号处理等的总体操作的功能。
传感器接口135可以执行图像传感器130和图像处理器140之间的接口连接。传感器接口135可以根据电子设备101的配置被置于预处理单元150之前或之后。例如,传感器接口135被置于预处理单元150旁边的情况可以对应于预处理单元150被包括在与图像传感器130相同的封装中的情况。
存储器170可以存储当前图像、用于控制拍摄设备的信息等。
显示器180可以输出在图像处理器140中处理的图像数据,以便由用户验证。
运动传感器190可以收集关于电子设备101的运动的信息。运动传感器190可以收集关于外部对象(或被摄体)的运动的信息。通过运动传感器190收集的信息可以应用于预处理单元150的图像组合处理。
图2示出了根据各种实施例的预处理单元的配置的框图。
参考图2,图像传感器130可以读出根据光电转换效应记录在每个像素中的电子图像数据(读出)。图像数据可以以帧为单位存储在帧存储器中。在各种实施例中,图像传感器130可以以行(或列)为单位读出图像数据。例如,在包括第一至第N列的帧中,可以通过一次读出操作读出第一行(或列)的数据以及通过最后一次读出操作读出第N行(或列)的数据来存储该帧的图像数据。
在各种实施例中,一次读出所有像素的时间(以下称为“读出时间Tr”)可以短于基于焦距(或焦点距离)计算出的模糊界限时间Thb。例如,在模糊界限时间Thb为1/60秒且在读出时间Tr为1/180秒的情况下,在模糊界限时间Thb期间可以执行3次读出操作。可以参考图3给出关于读出时间Tr和模糊界限时间Thb的附加信息。
预处理单元150可以执行存储和组合多个帧数据以产生一个图像的HDR处理。预处理单元150可以包括数据管理单元210、帧存储器215、图像组合单元220、伽马模块230、运动控制单元240和统计模块225。
数据管理单元210可以将在图像传感器130中收集的图像数据发送到预处理单元150的围绕数据管理单元210的内部元件。例如,数据管理单元210可以以帧为单位将收集的图像数据存储在帧存储器215中。此外,为了确定帧之间的运动,数据管理单元210可将至少一部分图像数据发送到运动控制单元240。
帧存储器215可临时存储读出的多个帧的图像数据。帧存储器215可以存储在当前时间点读出的帧数据和先前的连续帧数据。存储在帧存储器215中的多个帧的图像数据可以由图像组合单元220同时读取和处理。
图像组合单元220可以在存储在帧存储器215中的多个帧的相同位置处读取图像数据(或从相同像素或相应像素读取图像数据)。图像组合单元220可以组合多个帧以创建一个组合图像。
组合图像可以是其中每个像素的动态范围(DR)与每个帧数据的图像相比扩展的图像。在这种情况下,与饱和被摄体相关联的范围可以变得更大。例如,在每帧数据的每像素输出为10比特的情况下,图像组合单元220可以产生13比特数据(8192(=213)比特数据)的组合图像,以表示6帧的数据((210-1)×6)=6138比特)。在保持DR的情况下,组合图像的扩展比特数量可以在伽马模块230中再次减小(例如,13比特10比特)。
在各种实施例中,图像组合单元220可以根据总帧的数量或曝光的权重来产生其中每像素位宽被扩展的组合图像。
例如,在曝光时间均匀的8个连续帧中,每帧的像素值可以由10比特的位宽表示,并且如果每帧的权重为“1”,则可通过8帧的每个像素表达的值为8184((210-1)×8)。为了表达计算结果,图像组合单元220可以将每个像素设置为具有最少13比特的位宽(可表达为213=8182)。
根据各种实施例,在多个帧之间的曝光时间不同的情况下,图像组合单元220可以根据每个帧的曝光时间应用加权以创建组合图像。
例如,在将1/60秒设置为标准曝光时间并且组合包括曝光时间为1/60秒的第一至第四帧与曝光时间为1/240秒的第五至第八帧的总8个帧的情况下,可以将应用于第一至第四帧的权重的四倍的权重应用于曝光时间相对短的第五至第八帧。在每帧的像素值由10比特的位宽表达的情况下,可通过8帧的相应像素表达的值可以是20460(=1023×(1×4+4×4))。为了表达计算结果,图像组合单元220可以将相应的像素设置为具有最小15比特的位宽(可表达为215=32768)。
根据各种实施例,图像组合单元220可以将与标准曝光相对应的相应帧(例如以上示例中的第一至第四帧)中的饱和像素替换为曝光时间相对短的帧(例如以上示例中的第五至第八帧)的一部分(例如与所述饱和像素位置相同的像素)。在曝光时间相对短的第五至第八帧中,像素饱和的概率可能较低,但是在低照度区域中产生的噪声可能增加。在这种情况下,图像组合单元220可以掩盖与标准曝光时间相对应的第一至第四帧的饱和区域,并且可以用第五至第八帧的相应区域来替换饱和区域。
根据各种实施例,在对具有不同曝光时间的帧执行求和的情况下,可以通过以下方程式1来计算组合图像的位宽。
[方程式1]
组合图像的位宽=t+ceil(log2(N×k+M))。
N:曝光时间短的帧的数量。
M:曝光时间标准的帧的数量。
k:曝光比(正常曝光帧的曝光时间/短曝光帧的曝光时间)。
t:输入图像的每像素位宽。
根据各种实施例,图像组合单元220可以将位宽被扩展的组合图像(例如,每像素13比特)传送到将伽马模块230。伽马模块230可以根据指定的算法来改变扩展的位宽,以具有当前位宽(例如,10比特)。
根据各种实施例,图像组合单元220可以应用电子设备101自身的振动(例如,手模糊)或者被摄体的运动(例如,运动模糊)来创建组合图像。例如,在由于用户的手抖动而在连续帧之间发生图像失配的情况下,图像组合单元220可以根据基于在运动传感器190中收集的感测信息提取的感测信息来校正相应像素的位置。
在一个实施例中,在检测到存储在帧存储器215中的帧之间的线性运动的情况下,图像组合单元220可以通过在临时存储设备的读出操作中向帧存储器215的读取地址添加恒定偏移来创建组合图像而不执行单独的计算处理。在另一个实施例中,图像组合单元220可以获取与运动相对应的两个帧之间的运动量(MEM偏移)的值,并且可以应用所获取的值以创建组合图像。
统计模块225可以独立于帧存储器计算图像的统计值以用于伽马控制。
伽马模块230可以在不减少DR的情况下,减少由图像组合单元220的计算所创建的组合图像的每个像素的位宽。在各种实施例中,可以从计算统计值的统计模块225向伽马模块230提供统计信息。例如,统计信息可以包括图像的直方图值、图像的全部或部分的最大值等。可以参考图8给出关于伽马模块230的操作的信息。
运动控制单元240可以连接到图1的运动传感器190以接收感测信息。运动控制单元240可以基于感测信息,根据电子设备101的运动来提取运动矢量。此外,运动控制单元240可以从数据管理单元210接收帧数据。运动控制单元240可以比较接收到的两张帧的数据,并且可以提取与外部被摄体的抖动模糊相关联的运动矢量。
图3示出了根据各种实施例的读出时间和曝光时间之间的关系的示例的视图。图3是一个示例,但不限于此。
参考图3,图像传感器130可以读出根据光电转换效应记录在每个像素中的电子图像数据(读出)。图像传感器130可以以列为单位顺序地读出二维布置的一组像素的图像数据。可以通过从顶到底的一次读出操作来收集一帧的图像数据(以下称为“帧数据”)。例如,在包括第一至第N行的像素组中,图像传感器130可以通过一次读出操作读出第一行的数据并读出最后第N行的数据,来收集一个帧数据。
在曲线图301和曲线图302中,X轴可以表示执行读出操作的时间,并且Y轴可以表示像素组的纵向位置。曝光时间Ts可以表示每个像素曝光的时间。曝光时间Ts可以在快门部120打开时开始,并可以在用户设定的时间(或预设时间)经过之后结束。
可以根据设备性能或设备设置来确定读出时间Tr。在读出时间Tr的情况下,当前帧的读出时间(例如,Tr1)和下一帧的读出时间(例如,Tr2)通常可以彼此重叠。例如,第二读出时间Tr2可以在第一读出时间Tr1结束之后开始。
在曲线图301中,读出时间Tr可以比曝光时间Ts长。在这种情况下,可以在读出时间Tr和曝光时间Ts之间存在非曝光时间Tu。非曝光时间Tu可以是不能捕获被摄体的图像的时间,并且可以是在被摄体移动的情况下产生运动伪影的时间。例如,在曝光时间Ts为1/80秒且读出时间Tr为1/60秒的情况下,可能发生1/90秒的非曝光时间Tu。
在曲线图302中,在读出时间Tr与曝光时间Ts相同或更短的情况下,不会发生非曝光时间Tu。例如,在曝光时间Ts和读出时间Tr为1/180秒的情况下,不会发生非曝光时间Tu。在各种实施例中,图像传感器130的每个像素可以被设置为均匀的曝光时间Ts(例如,1/180秒),并且可以在与曝光时间Ts相同的时间(例如,1/180秒)内被读出。
根据各种实施例,读出时间Tr可以短于基于焦距计算的模糊界限时间Thb(以下称为“快速读出”)。例如,在模糊界限时间Thb为1/48秒的情况下,读出时间Tr可以为1/180秒。在这种情况下,可以在模糊界限时间Thb内执行三次读出操作,并且可以收集三个帧数据。在各种实施例中,模糊界限时间Thb可以由例如下面的方程式2来定义。
[方程式2]
Figure BDA0001419397820000131
F135:135毫米相机的转换焦距
例如,在焦距为24mm的透镜的情况下,可以将1/48秒确定为模糊界限时间Thb。在比模糊界限时间Thb短的时间内捕获的图像可以对应于模糊不能被肉眼识别的情况,而在比模糊界限时间Thb长的时间内捕获的图像可以对应于模糊能被肉眼识别的情况。
根据各种实施例,可以通过减少用于读出而添加的电容器的方式、使用多个通道接口的方式等来改善读出时间Tr。
根据各种实施例,在连续帧之间的时间间隔(例如,非曝光时间Tu)中出现的模糊(运动或手模糊)的轨迹可以维持为具有可允许散光圈(CoC)的大小或比该散光圈更小。也就是说,通过帧之间的间隔在图像表面被删除了呈现的运动核(或模糊轨迹)可以是小于CoC的值。
CoC可以具有使得在图像上形成被摄体的点的大小。在各种实施例中,CoC的预设值可以存在于图像传感器130中。例如,图像传感器130的CoC可以被设置为0.011mm,其是图像传感器130的上表面的参考尺寸。对于另一示例,图像传感器130的CoC可以被设置为0.015mm。
根据各种实施例,在模糊界限时间Thb(例如,1/48秒)期间发生的运动核(或模糊轨迹)的量可以小于CoC。
图4是示出了根据各种实施例的图像处理方法的流程图。
参考图4,在操作410中,图像传感器130可以接收外部光以通过光电转换效应产生图像信号。光可以在图像传感器130的二维布置的每一个像素处被转换成电子图像数据。
在操作420中,图像传感器130可以执行快速读出操作以达到防止图像模糊的程度。图像传感器130的读出时间Tr可以被设置为短于基于焦距计算的模糊界限时间Thb。
在操作430中,帧存储器215可以存储通过快速读出操作的多个图像的图像数据。图像数据可以以帧为单位存储在帧存储器215中。图像组合单元220可以同时访问存储在帧存储器215中的多个帧数据。
在操作440中,图像组合单元220可以加载存储在帧存储器215中的多个图像的数据。
在操作450中,图像组合单元220可以创建与通过快速读出操作的所述多个图像相比比特数量被扩展的图像。比特数量扩展的图像可以是其中每个像素的动态范围(DR)与每个帧数据的图像相比扩展的图像。
在操作460中,伽马模块230可以通过对比特数量被扩展的图像执行伽马处理来压缩比特数量。可以在保持DR的同时,在伽马模块230中压缩比特数量。
根据各种实施例,一种在电子设备中执行的图像处理方法,所述方法包括:在图像传感器处接收外部光以通过光电转换效应产生图像信号;在所述图像传感器处以一定速度执行读出操作以防止图像模糊;将通过所述读出操作的图像数据存储在存储器中;加载存储在所述存储器中的多个图像的数据;产生与所述图像传感器的图像信号相比比特数量被扩展的图像;以及对比特数量被扩展的图像执行伽马处理,以使所述图像被压缩到与所述图像传感器的所述图像信号相同的比特数量。
根据各种实施例,执行读出操作包括在指定的参考时间期间执行多次读出操作以产生与所述多个图像相关联的数据。
根据各种实施例,执行读出操作包括读出所述多个图像以具有均匀的曝光时间。
根据各种实施例,所述方法还包括:记录所扩展的图像的最大值或所述多个图像的曝光分布,以及基于所记录的结果对比特数量被扩展的图像执行伽马处理。
根据各种实施例,执行读出操作包括:以使得所述多个图像的曝光时间之和等于或大于通过用户设置或自动设置预先确定的整个曝光时间的方式来执行所述读出操作。
根据各种实施例,产生所扩展的图像包括:分析关于整个图像或图像的每个部分的运动,以提取被摄体的位置变化。
根据各种实施例,产生所扩展的图像包括:如果所述多个图像的曝光时间之和大于参考曝光时间,则通过使用所述变化来匹配所述多个图像。
图5示出了根据各种实施例的针对每个帧的均匀曝光的读出操作的示例。
参考图5,曲线图501表示在整个曝光时间“T”内执行一次读出操作的情况。整个曝光时间“T”可以通过初始设置或根据用户输入的设置来确定。
根据各种实施例,图像组合单元220可以通过对具有用户确定的曝光时间“T”的图像执行平均计算来创建组合图像。例如,图像组合单元220可以对曝光时间“T”的8个帧进行求和。组合图像可以由伽马模块230处理。
曲线图502表示在整个曝光时间“T”期间执行多次读出操作(例如六次)的情况。通过多次读出操作读出的帧的曝光时间Ts之和可以与整个曝光时间“T”相同。
根据各种实施例,读出的图像数据可以存储在帧存储器215中。存储在帧存储器215中的帧数据可以由图像组合单元220组合,从而创建一个组合图像。
在各种实施例中,在曲线图502中,帧的曝光时间Ts可以是均匀的。在这种情况下,与现有HDR在格式上由长曝光和短曝光形成的情况不同,可能不会产生由于曝光时间不匹配而引起的伪影。
与曲线图501相比,由于曲线图501和曲线图502的整体曝光时间“T”彼此一致,所以对模糊(例如,手模糊或运动模糊)的影响可以相同或相似。例如,在整个曝光时间“T”比模糊界限时间Thb短的情况下,读出时间Tr可以短于模糊界限时间Thb。在这种情况下,由于非曝光时间Tu被抑制,所以与运动相关联的伪影的程度可以与在整个曝光时间“T”期间执行一次读出操作的曲线图501中的伪影的程度相同。
图6示出了根据各种实施例的在整个曝光时间增加的状态下执行读出操作的示例的视图。图6是一个示例,但不限于此。
参考图6,可以在整个曝光时间“T”增加到延长的曝光时间TL的状态下执行多次读出操作。在这种情况下,可以根据低照度被摄体中的多次读出操作补偿由于噪声增加而导致的图像质量劣化。
曲线图601表示在整个曝光时间“T”期间执行一次读出操作的情况,曲线图602表示在延长的曝光时间TL期间执行多次读出操作(例如六次)的情况。整个曝光时间“T”可以通过初始设置或根据用户输入的设置来确定。
在曲线图602中,通过多次读出操作读出的帧的曝光时间之和可以与延长的曝光时间TL相同。在各种实施例中,读出时间Tr可以比整个曝光时间“T”短。
根据各种实施例,延长的曝光时间TL可以被限制为短于模糊界限时间Thb(例如,1/(焦距×2)秒)的时间。在这种情况下,可以减少由于模糊增加而引起的运动伪影的增加。
根据各种实施例,在延长的曝光时间TL比模糊界限时间Thb(例如,1/(焦距×2)秒)的情况下,图像组合单元220可以将通过使用运动传感器190检测运动或运动矢量而获得的信息应用于HDR处理。在各种实施例中,图像组合单元220可以检测线性运动或旋转运动,并且可以将检测到的结果应用于创建组合图像。在这种情况下,可以将提取运动矢量的单位时间Ts设置为短于模糊界限时间Thb。
例如,基于比较两张或更多张帧的数据的结果,可以通过验证变化相对较大的点来检测线性方向的运动。对于另一示例,如果比较两张或更多张帧的数据的结果指示感测到相对于点画弧形的形状,则可以检测旋转方向的运动。对于另一示例,可以通过使用陀螺仪传感器等来检测光轴方向的运动(相机向前后移动或者旋转运动分量包括光轴方向)。
图7示出了根据各种实施例的通过使用长曝光和短曝光来产生组合图像。
参考图7,可以以将整个曝光时间“T”增加到延长的曝光时间TL并允许长曝光Ts1和短曝光Ts2交替的方式来收集帧数据。例如,可以以允许通过长曝光Ts1的四个帧数据和通过短曝光Ts2的四个帧数据的交替的方式来收集帧数据。
延长的曝光时间TL可以比通过初始设置或根据用户输入的设置确定的参考曝光时间“T”长。通过多次读出操作读出的帧的曝光时间Ts1与Ts2之和可以与延长的曝光时间“T”相同。
通过长曝光Ts1收集的帧数据可以有利于表示低照度的暗部分,并且通过短曝光Ts2收集的帧数据可以有利于表示由于高照度而具有高饱和概率的亮部分。
根据各种实施例,在不存在运动模糊的情况下,可以使用允许长时间曝光Ts1和短曝光Ts2交替的方式。与图5不同,因为曝光不均匀,所以由于通过长曝光Ts1的帧与通过短曝光Ts2的帧之间的曝光差异,导致运动的连续性可能被损坏。为了防止这个问题,在基于通过在运动控制单元240处比较/分析连续帧而获得的信息来确定不存在运动模糊的情况下,可以使用允许长曝光Ts1和短曝光Ts2交替的方式。
图8示出了根据各种实施例的伽马模块的伽马处理。将在假设获得8帧的图像的情况下参考图8描述将位宽减小到10比特的处理。然而,实施例可以不限于此。
参考图8,曲线图801示出了伽马处理,所述伽马处理关于执行与构成具有由用户确定的曝光时间“T”的图像的帧的数量相同次数的拍摄并执行平均计算的方式。
例如,图像组合单元220可以对曝光时间“T”的8帧进行求和,并且可以根据曲线图801执行伽马处理。每个帧数据的曝光时间可以是“T”,并且可以有利于暗侧的DR扩展。可以根据曲线图801以线性方式执行伽马映射。扩展的8184比特可以减少到1023比特。
对于另一示例,图像组合单元220可以对如图6中所示构成延长的曝光时间TL的分段曝光时间Ts的8帧进行求和,并且可以根据曲线图801执行伽马处理。每个帧数据的曝光时间可以是“Ts”。可以根据曲线图801以线性方式执行伽马映射,并且扩展的8184比特可以减少到1023比特。
曲线图802示出了这样的伽马处理,该伽马处理关于将曝光划分了与要在如图5所示的用户确定的曝光时间“T”内组合的帧的数量相同的次数之后进行求和的方式。
例如,图像组合单元220可以对曝光时间“T”的8帧进行求和,并且可以根据曲线图802执行伽马处理。每个帧数据的曝光时间可以是“T”,并且可以有利于亮侧的DR扩展。伽马映射可以通过在低照度时间段A1(例如,不超过512)中使斜率相对较大来增加压缩程度,并且可以通过在剩余时间段A2(例如,不小于512)中使斜率相对较小来减小压缩程度。
在各种实施例中,伽马模块230可以通过分析直方图来自适应地确定在对每个被摄体有利的方向上的曝光时间和伽马处理。例如,在当前图像是偏向暗部分的图像的情况下,可以通过使用图6所示的延长的曝光时间TL或图8的曲线图801中的线性伽马处理方式来分析直方图。对于另一示例,在当前图像是偏向亮部分的图像的情况下,可以通过使用图5所示的分段曝光时间Ts或图8的曲线图802中的非线性伽马处理方式的伽马处理方式来分析直方图。
在各种实施例中,在预期基于图像的运动矢量分析未检测到运动的情况下,可以使用图7中的允许长曝光Ts1和短曝光Ts2交替的方式,或者可以选择能够实现与图8不同的合适曝光的伽马。
根据各种实施例,在像素中存在滤色器的情况下,例如在拜耳传感器的情况下,由于绿色(G)的透射率与红色(R)、蓝色(B)等的透射率不同,因此如果将相同的伽马均匀地应用于不同的滤色器,则颜色可能改变。伽马模块230可以使用1)仅将伽马应用于“G”像素并且根据比例将伽马特性应用于R/B像素的方式、或2)将不同的伽马特性应用于R、G和B像素的方式。
图9A示出了根据各种实施例的在不存在单独运动的状态下的DR扩展的示例的视图。
参考图9A,在应用DR之前的图像901中,可能不能看到窗口的外部,这是因为在亮部分910中执行了饱和并且在暗部分920中可能看不到被摄体。
在用户拍摄照片的情况下,图像传感器130可以执行快速读出操作以达到防止图像模糊的程度。帧存储器215可以存储通过快速读出操作的多个图像的图像数据。图像组合单元220可以组合多个图像以创建一个组合图像。
在应用了DR之后的图像902中,由于饱和而在图像901中看不到的被摄体可以出现在亮部分910a中,并且由于低DR而未被呈现的被摄体可以显示在暗部分920b中。
根据各种实施例,在强调亮部分(910a)侧的DR扩展的情况下,图像组合单元220可以使用具有比标准曝光时间“T”短的曝光时间的多个图像。相反,在强调暗部(920a)侧的DR扩展的情况下,图像组合单元220可以使用具有标准曝光时间“T”的多个图像。
图9B示出了根据各种实施例的与手抖动相关联的稳定性。
参考图9B,在应用DR之前的图像903中,由于用户的手抖动930,被摄体可能被显示为模糊状态。
在用户拍摄照片的情况下,图像传感器130可以执行快速读出操作以达到防止图像模糊的程度。帧存储器215可以存储通过快速读出操作和均匀曝光的多个图像的图像数据。图像组合单元220可以通过组合用于防止模糊的均匀曝光的多个图像来创建DR扩展图像。
在应用了DR之后的图像904中,可以去除被摄体的模糊,因此,被摄体的轮廓可以淡入。
图10示出了根据本公开实施例的网络环境中的电子设备。
将参考图10来描述根据本公开各种实施例的网络环境1000中的电子设备1001。电子设备1001可以包括总线1010、处理器1020、存储器1030、输入/输出接口1050、显示器1060和通信接口1070。在本公开的各种实施例中,可以省略上述元件中的至少一个或可以向电子设备1001添加另一元件。
总线1010可以包括用于将上述元件1010至1070彼此连接并在上述元件之间传送通信(例如,控制消息和/或数据)的电路。
处理器1020可以包括中央处理单元(CPU)、应用处理器(AP)或通信处理器(CP)中的至少一个。处理器1020可以执行与电子设备1001的其他元件中的至少一个的通信和/或控制相关的操作或数据处理。
存储器1030可以包括易失性存储器和/或非易失性存储器。存储器1030可以存储与电子设备1001的其他元件中的至少一个相关的指令或数据。根据本公开的实施例,存储器1030可以存储软件和/或程序1040。程序1040可以包括例如内核1041、中间件1043、应用编程接口(API)1045和/或应用程序(或应用)1047。内核1041、中间件1043或API 1045中的至少一部分可以被称作操作系统(OS)。
内核1041可以控制或管理用于执行其它程序(例如,中间件1043、API 1045或应用程序1047)的操作或功能的系统资源(例如,总线1010、处理器1020、存储器1030等)。此外,内核1041可以提供接口,该接口允许中间件1043、APl 1045或应用程序1047访问电子设备1001的各个部件以便控制或管理系统资源。
中间件1043可以起到中介的作用,使得API 1045或应用程序1047与内核1041通信和/或交换数据。
此外,中间件1043可以根据优先级来处理从应用程序1047接收到的一个或多个任务请求。例如,中间件1043可以向至少一个应用程序1047分配使用电子设备1001的系统资源(例如,总线1010、处理器1020、存储器1030等)的优先级。例如,中间件1043可根据向至少一个应用分配的优先级来处理一个或更多个任务请求,从而对该一个或更多个任务请求执行调度或负载均衡。
作为允许应用1047控制由内核1041或中间件1043提供的功能的接口,API 1045可以包括例如至少一个接口或功能(例如,指令),以进行文件控制、窗口控制、图像处理、字符控制等。
输入/输出接口1050可以用于向电子设备1001的其他部件传送从用户或其他外部设备输入的指令或数据。此外,输入/输出接口1050可以向用户或其他外部设备输出从电子设备1001的其他部件接收到的指令或数据。
显示器1060可以包括例如液晶显示器(LCD)、发光二极管(LED)显示器、有机发光二极管(OLED)显示器、微机电系统(MEMS)显示器、或电子纸显示器。显示器1060可以向用户呈现各种内容(例如,文本、图像、视频、图标、符号等)。显示器1060可以包括触摸屏,并可以接收来自电子笔或用户身体部位的触摸、手势、接近或悬停输入。
通信接口1070可以设置电子设备1001和外部设备(例如,第一外部电子设备1002、第二外部电子设备1004或服务器1006)之间的通信。例如,通信接口1070可以经由无线通信或有线通信与网络1062相连,以便与外部设备(例如,第二外部电子设备1004或服务器1006)进行通信。
无线通信例如可以使用以下至少一项蜂窝通信协议:例如,长期演进(LET)、LTE-高级(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)或全球移动通信系统(GSM)。无线通信可以包括例如短距离通信1064。短距离通信可以包括无线保真(Wi-Fi)、蓝牙、近场通信(NFC)、磁条传输(MST)或GNSS中的至少一个。
MST可以根据传输数据产生脉冲,所述脉冲可以产生电磁信号。电子设备1001可以将电磁信号发射至诸如POS(销售点)设备之类的读取设备。POS设备可以通过使用MST读取器来检测磁信号,并且通过将检测到的电磁信号转换为电信号来恢复数据。
根据使用区域或带宽,GNSS可以包括例如以下至少一项:全球定位系统(GPS)、全球导航卫星系统(GLONASS)、北斗导航卫星系统(下文中,“北斗”)、或伽利略(欧洲全球卫星导航系统)。在下文中,术语“GPS”和“GNSS”可以互换使用。有线通信可以包括以下各项中的至少一个:通用串行总线(USB)、高清多媒体接口(HDMI)、推荐标准832(RS-232)、普通老式电话业务(POTS)等。网络1062可以包括电信网络中的至少一个,例如,计算机网络(例如,局域网(LAN)或广域网(WAN))、互联网或电话网络。
第一外部电子设备1002和第二外部电子设备1004的类型可以与电子设备1001的类型相同或不同。根据本公开的实施例,服务器1006可以包括具有一个或多个服务器的组。在电子设备1001中执行的全部操作或部分操作可以在一个或多个其他电子设备(例如,第一电子设备1002、第二外部电子设备1004或服务器1006)中执行。当电子设备1001自动地或者响应于请求而应该执行特定功能或服务时,代替其自身执行所述功能或服务或者在其自身执行所述功能或服务之外,电子设备1001可以从另一设备(例如,第一电子设备1002、第二外部电子设备1004或服务器1006)请求与所述功能或服务相关的至少一部分功能。该另一电子设备(例如,第一电子设备1002、第二外部电子设备1004、或服务器1006)可以执行所请求的功能或附加功能,并可以向电子设备1001传输执行的结果。电子设备1001可以使用自己接收的结果,或者附加地处理接收到的结果,以提供所请求的功能或服务。为此目的,可以使用例如云计算技术、分布式计算技术或客户端-服务器计算技术。
图11示出了根据本公开实施例的电子设备的框图。
参考图11,电子设备1101可以包括例如图10所示的电子设备1001的一部分或整体。电子设备1101可以包括至少一个处理器(例如,AP)1110、通信模块1120、订户识别模块(SIM)1129、存储器1130、传感器模块1140、输入设备1150、显示器1160、接口1170、音频模块1180、相机模块1191、电源管理模块1195、电池1196、指示器1197和电机1198。
处理器1110可以运行操作系统或应用程序,从而控制连接到处理器1110的多个硬件或软件部件,并且可以处理各种数据并执行操作。例如,处理器1110可以用片上系统(SoC)来实现。根据本公开实施例,处理器1110还可以包括图形处理单元(GPU)和/或图像信号处理器。处理器1110可以包括图11所示的部件中的至少一部分(例如,蜂窝模块1121)。处理器1110可以将从至少一个其他部件(例如,非易失性存储器)接收到的指令或数据加载到易失性存储器中,并且可以处理加载的指令或数据,而且可以将各种数据存储在非易失性存储器中。
通信模块1120可以具有与图10的通信接口1070相同或类似的配置。通信模块1120可以包括例如蜂窝模块1121、Wi-Fi模块1122、蓝牙模块1123、GNSS模块1124(例如,GPS模块、GLONASS模块、北斗模块或伽利略模块)、NFC模块1125、MST模块1126和射频(RF)模块1127。
蜂窝模块1121可以提供例如通过通信网络的语音呼叫服务、视频呼叫服务、文本消息服务或互联网服务。蜂窝模块1121可以使用订户识别模块(SIM)1129(例如SIM卡)在通信网络中对电子设备1101执行识别和认证。蜂窝模块1121可以执行能够由处理器1110提供的功能的至少一部分。蜂窝模块1121可以包括通信处理器(CP)。
Wi-Fi模块1122、蓝牙模块1123、GNSS模块1124和NFC模块1125中的每一个都可以包括例如用于处理通过所述模块发送/接收的数据的处理器。根据本公开的各种实施例,蜂窝模块1121、Wi-Fi模块1122、蓝牙模块1123、GNSS模块1124和NFC模块1125中的至少一部分(例如,两个或更多个)可以包含在一个集成芯片(IC)或IC封装中。
RF模块1127可以发送/接收例如通信信号(例如,RF信号)。RF模块1127可以包括例如收发机、功率放大模块(PAM)、频率滤波器、低噪放大器(LNA)、天线等。根据本公开的另一实施例,蜂窝模块1121、Wi-Fi模块1122、蓝牙模块1123、GNSS模块1124或NFC模块1125中的至少一个可以通过单独的RF模块来发送/接收RF信号。
SIM1129可以包括例如嵌入式SIM和/或包含订户标识模块的卡,并可以包括唯一标识信息(例如,集成电路卡标识符(ICCID))或订户信息(例如,国际移动订户标识(IMSI))。
例如,存储器1130(例如,存储器1030)可以包括内部存储器1132或者外部存储器1134。内部存储器1132可以包括以下至少一项:易失性存储器(例如,动态RAM(DRAM)、静态RAM(SRAM)、同步动态RAM(SDRAM)等)、非易失性存储器(例如,一次性可编程ROM(OTPROM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩蔽型ROM、闪存ROM)、闪存(例如,NAND闪存或NOR闪存等)、硬盘驱动器或固态驱动器(SSD)。
外部存储器1134还可以包括闪存驱动器,例如紧凑型闪存(CF)、安全数字(SD)、微型SD、迷你型SD、极限数字(xD)、多媒体卡(MMC)、存储棒等。外部存储器1134可以通过各种接口与电子设备1101操作地连接和/或物理连接。
传感器模块1140例如可以测量物理量或检测电子设备1101的操作状态,以便将测量的或检测的信息转换为电信号。传感器模块1140可以包括例如以下至少一项:手势传感器1140A、陀螺仪传感器1140B、气压传感器1140C、磁传感器1140D、加速度传感器1140E、握力传感器1140F、接近传感器1140G、颜色传感器1140H(例如,红/绿/蓝(RGB)传感器)、生物传感器1140I、温度/湿度传感器1140J、照度传感器1140K或紫外线(UV)传感器1140M。附加地或者备选地,传感器模块1140可以包括例如嗅觉传感器(电子鼻传感器)、肌电图(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器、红外(IR)传感器、虹膜识别传感器和/或指纹传感器。传感器模块1140还可以包括用于控制其中包括的至少一个传感器的控制电路。在本公开的一些不同实施例,电子设备1101还可以包括作为处理器1110的一部分或与处理器1110分离的、配置为控制传感器模块1140的处理器,使得当处理器1110处于休眠状态时控制传感器模块1140。
输入设备1150可以包括例如触摸面板1152、(数字)笔传感器1154、按键1156或超声输入设备1158。触摸面板1152可使用电容型、电阻型、红外型和超声感测方法中的至少一种。触摸面板1152还可以包括控制电路。触摸面板1152还可以包括触觉层,以向用户提供触觉反馈。
(数字)笔传感器1154可以包括例如作为触摸面板的一部分的或单独的识别片。按键1156可以包括例如物理按钮、光学按钮或键区。超声输入设备1158可以通过麦克风1188来感测由输入工具产生的超声波,以识别与所感测的超声波相对应的数据。
显示器1160(例如,显示器1060)可以包括面板1162、全息设备1164或投影仪1166。面板1162可以具有与图10的显示器1060相同或类似的配置。面板1162可以是例如柔性的、透明的或可穿戴的。面板1162和触摸面板1152可以集成为单个模块。全息设备1164可以使用光的干涉现象在空中显示立体图像。投影仪1166可以将光投射到屏幕上以显示图像。该屏幕可以布置在电子设备1101的内部或外部。根据本公开实施例,显示器1160还可以包括用于控制面板1162、全息设备1164、或投影仪1166的控制电路。
接口1170可以包括例如HDMI 1172、USB 1174、光学接口1176或D-超小型(D-sub)1178。例如,接口1170可被包括在图10中示出的通信接口1070中。附加地或备选地,接口1170可以包括例如移动高清链路(MHL)接口、SD卡/多媒体卡(MMC)接口或红外数据协会(IrDA)接口。
例如,音频模块1180可以将声音信号转换为电信号,反之亦然。音频模块1180的元件中的至少一部分可以包括在如图10所示的输入/输出接口1050中。音频模块1180可以处理通过扬声器1182、听筒1184、耳机1186或麦克风1188输入或输出的声音信息。
相机模块1191例如是用于拍摄静止图像或视频的设备。根据本公开的实施例,相机模块1191可以包括至少一个图像传感器(例如,前置传感器或后置传感器)、镜头、图像信号处理器(ISP)或闪光灯(例如,LED或氙灯)。
电源管理模块1195可以管理电子设备1101的电力。根据本公开的实施例,电源管理模块1195可以包括电源管理集成电路(PMIC)、充电集成电路(IC)、或电池或表。PMIC可以使用有线和/或无线充电方法。无线充电方法可以包括例如磁共振方法、磁感应方法、电磁方法等。还可以提供用于无线充电的附加电路,例如线圈回路、共振电路、整流器等。电池表可以测量例如电池1196的剩余量以及电池充电过程中电池的电压、电流或温度。例如,电池1196可以包括可再充电电池和/或太阳能电池。
指示器1197可以显示电子设备1101或其一部分(例如,处理器1110)的具体状态,例如引导状态、消息状态、充电状态等。电机1198可以将电信号转换为机械振动,并可以产生振动或触觉效果。尽管未示出,但是电子设备1101可以包括用于支持移动TV的处理设备(例如,GPU)。用于支持移动TV的处理设备可以处理符合数字多媒体广播(DMB)、数字视频广播(DVB)、MediaFloTM等的标准的媒体数据。
根据各种实施例,一种电子设备包括:透镜部,被配置为接收来自被摄体的光;图像传感器,被配置为在二维布置的一组像素处接收所述透镜部的光;以及处理器,被配置为处理所述图像传感器的图像信号,其中所述图像传感器以一定速度执行读出操作以防止图像模糊,其中所述处理器被配置为:将通过所述读出操作的图像数据临时存储在存储器中;加载存储在所述存储器中的多个图像以产生与所述图像传感器的所述图像信号相比比特数量被扩展的图像;以及对比特数量被扩展的图像执行伽马处理,以产生压缩到与所述图像传感器的所述图像信号相同的比特数量的图像。
根据各种实施例,所述图像传感器被配置为使得被摄体在针对同一行的第一帧的曝光结束和第二帧的曝光开始之间的间隔中的运动分量的不连续间断被调整为所述图像传感器的上表面上的可允许散光圈CoC的大小或更大。
根据各种实施例,所述多个图像具有均匀的曝光时间。
根据各种实施例,所述多个图像由“N”个帧形成,并且所扩展的图像具有ceil(log2(N))的比特数量。
根据各种实施例,所述图像处理器记录所扩展的图像的最大值或所述多个图像的曝光分布,以及基于所记录的结果对比特数量被扩展的图像执行伽马处理。
根据各种实施例,所述多个图像的曝光时间之和等于或大于通过用户设置或通过自动设置预先确定的整个曝光时间。
根据各种实施例,所述图像处理器执行以下处理:分析关于整个图像或所述图像的每个部分的模糊或运动,并提取被摄体的位置变化。
根据各种实施例,所述图像处理器通过使用所述变化来匹配所述多个图像。
根据各种实施例,所述图像处理器基于所述变化和整个图像或所述图像的每个部分的直方图来控制所述图像传感器的曝光时间。
根据各种实施例,如果所述变化不大于指定值并且所述直方图偏向暗部分,则所述图像处理器控制所述图像传感器以允许第一曝光时间和第二曝光时间交替。
根据各种实施例,如果所述变化不大于指定值并且所述直方图偏向亮部分,则所述图像处理器将所述图像传感器的曝光时间设置为短于参考曝光时间。
根据各种实施例,如果所述变化超过指定值并且所述直方图偏向暗部分,则所述图像处理器被配置为将所述图像传感器的曝光时间设置为长于参考曝光时间。
根据各种实施例,如果所述变化超过指定值并且所述直方图偏向亮部分,则所述图像处理器被配置为将所述图像传感器的曝光时间设置为短于参考曝光时间。
在此所述的每个部件可以配置为一个或多个组件,且组件名称可以根据电子设备的类型而改变。在本公开的各种实施例中,电子设备可以包括这里描述的部件中的至少一个,并且可以省略一些部件,或者可以添加其他附加部件。此外,可以将电子设备的某些部件彼此组合,以便形成一个实体,使得仍执行与组合之前这些部件所执行的功能相同的功能。
本文使用的术语“模块”可以表示例如包括硬件、软件和固件之一或其组合在内的单元。术语“模块”可以与术语“单元”、“逻辑”、“逻辑块”、“组件”和“电路”互换使用。“模块”可以是集成组件的最小单元或者可以是其一部分。“模块”可以是用于执行一个或多个功能的最小单元或其一部分。可以用机械方式或电子方式来实现“模块”。例如,“模块”可以包括专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)和可编程逻辑器件中的至少一种,用于执行已知的或将来开发的一些操作。
根据本公开多种实施例的设备(例如,其模块或功能)或方法(例如,操作)的至少一部分可以实现为以程序模块形式存储在计算机可读存储介质中的指令。当通过处理器(例如,处理器1020)执行所述指令时,处理器可以执行与所述指令相对应的功能。例如,计算机可读存储介质可以是存储器1030。
计算机可读记录介质可以包括硬盘、软盘、磁介质(例如,磁带)、光学介质(例如,CD-ROM、数字多用途盘(DVD))、磁光介质(例如,光磁软盘)、硬件设备(例如,ROM、RAM、闪存)等。程序指令可以包括由编译器产生的机器语言代码以及可由计算机使用注释器执行的高级语言代码。上述硬件设备可配置为操作为一个或多个软件模块,以执行本公开各种实施例的操作,反之亦然。
根据本公开各种实施例的模块或程序模块可以包括上述元件中的至少一个元件,并且可以省略一些元件,或可以添加其他额外的元件。由根据本公开各种实施例的模块、程序模块或其他部件执行的操作可以按照顺序、并行、迭代或启发式的方式执行。另外,一些操作可以按不同顺序执行,或者可以被省略,或者可以增加其他操作。
尽管参考本公开各实施例示出并描述了本公开,但是本领域技术人员将理解:在不脱离由所附权利要求及其等同物限定的本公开的精神和范围的前提下,可以执行形式和细节上的各种改变。
尽管已经利用示例实施例描述了本公开,但是本领域技术人员可以明了各种改变和修改。本公开意在包括落在所附权利要求范围内的这些改变和修改。

Claims (15)

1.一种电子设备,包括:
透镜部,被配置为接收来自被摄体的光;
图像传感器,被配置为在二维布置的一组像素处接收所述透镜部的光;以及
处理器,被配置为处理所述图像传感器的图像信号,
其中所述图像传感器执行读出操作,所述读出操作的读出时间短于基于所述透镜部的焦距计算出的模糊界限时间,所述模糊界限时间由方程式
Figure FDA0003096116840000011
(秒)定义,其中Thb表示所述模糊界限时间,F表示所述透镜部的焦距,
其中所述处理器还被配置为:
将通过所述读出操作的多个图像的数据临时存储在存储器中;
加载存储在所述存储器中的所述多个图像以产生与所述图像传感器的所述图像信号相比比特数量被扩展的图像;以及
对比特数量被扩展的图像执行伽马处理,以产生压缩到与所述图像传感器的所述图像信号相同的比特数量的图像。
2.根据权利要求1所述的电子设备,其中,所述图像传感器被配置为使得被摄体在针对同一行的第一帧的曝光结束和第二帧的曝光开始之间的间隔中的运动分量的不连续间断被调整为所述图像传感器的上表面上的可允许散光圈CoC的大小或更大。
3.根据权利要求1所述的电子设备,其中所述多个图像具有均匀的曝光时间。
4.根据权利要求1所述的电子设备,其中,所述处理器还被配置为记录所扩展的图像的最大值或所述多个图像的曝光分布;以及
其中所述处理器基于所记录的值和所述曝光分布对比特数量被扩展的图像执行伽马处理。
5.根据权利要求1所述的电子设备,其中,所述多个图像的曝光时间之和等于或大于通过用户设置或通过自动设置预先确定的整个曝光时间。
6.根据权利要求1所述的电子设备,其中所述处理器还被配置为执行以下处理:分析关于整个图像或所述图像的每个部分的模糊或运动,并提取被摄体的位置变化。
7.根据权利要求6所述的电子设备,其中所述处理器还被配置为通过使用所述位置变化来匹配所述多个图像。
8.根据权利要求6所述的电子设备,其中所述处理器还被配置为基于所述位置变化和整个图像或所述图像的每个部分的直方图来控制所述图像传感器的曝光时间。
9.根据权利要求8所述的电子设备,其中,所述处理器还被配置为:如果所述位置变化不大于指定值,并且所述直方图偏向所述图像的暗部分,则控制所述图像传感器允许第一曝光时间和第二曝光时间交替,所述第一曝光时间比所述第二曝光时间长。
10.根据权利要求8所述的电子设备,其中,所述处理器还被配置为:如果所述位置变化不大于指定值,并且所述直方图偏向所述图像的亮部分,则将所述图像传感器的曝光时间设置为短于参考曝光时间,所述参考曝光时间是通过初始设置或根据用户输入的设置而确定的。
11.一种在电子设备中执行的图像处理方法,所述方法包括:
在图像传感器处接收外部光以通过光电转换效应产生图像信号;
在所述图像传感器处执行读出操作,所述读出操作的读出时间短于基于所述电子设备的透镜部的焦距计算出的模糊界限时间,所述模糊界限时间由方程式
Figure FDA0003096116840000021
(秒)定义,其中Thb表示所述模糊界限时间,F表示所述透镜部的焦距;
将通过所述读出操作的多个图像的数据存储在存储器中;
加载存储在所述存储器中的所述多个图像的数据;
产生与所述图像传感器的图像信号相比比特数量被扩展的图像;以及
对比特数量被扩展的图像执行伽马处理,以使所述图像被压缩到与所述图像传感器的所述图像信号相同的比特数量。
12.根据权利要求11所述的方法,其中执行读出操作包括:在指定的参考时间期间执行多次读出操作以产生与所述多个图像相关联的数据。
13.根据权利要求11所述的方法,其中执行读出操作包括:读出所述多个图像以具有均匀的曝光时间。
14.根据权利要求11所述的方法,还包括:
记录所扩展的图像的最大值或所述多个图像的曝光分布;以及
基于所记录的值和所述曝光分布对比特数量被扩展的图像执行伽马处理。
15.根据权利要求11所述的方法,其中执行读出操作包括:以使得所述多个图像的曝光时间之和等于或大于通过用户设置或自动设置预先确定的整个曝光时间的方式执行所述读出操作。
CN201710886202.4A 2016-09-30 2017-09-26 用于处理图像的方法及支持该方法的电子设备 Active CN107888838B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0127159 2016-09-30
KR1020160127159A KR20180036464A (ko) 2016-09-30 2016-09-30 이미지 처리 방법 및 이를 지원하는 전자 장치

Publications (2)

Publication Number Publication Date
CN107888838A CN107888838A (zh) 2018-04-06
CN107888838B true CN107888838B (zh) 2021-08-27

Family

ID=60001687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710886202.4A Active CN107888838B (zh) 2016-09-30 2017-09-26 用于处理图像的方法及支持该方法的电子设备

Country Status (4)

Country Link
US (1) US10389951B2 (zh)
EP (1) EP3301905A1 (zh)
KR (1) KR20180036464A (zh)
CN (1) CN107888838B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019171782A1 (ja) * 2018-03-09 2019-09-12 富士フイルム株式会社 撮像装置、撮像方法、およびプログラム
KR20190114332A (ko) * 2018-03-29 2019-10-10 에스케이하이닉스 주식회사 이미지 센싱 장치 및 그의 동작 방법
KR102585654B1 (ko) * 2018-12-07 2023-10-10 삼성전자주식회사 수광 시간이 다른 복수의 픽셀을 이용하여 획득한 데이터의 합성을 통해 이미지를 생성하는 전자 장치 및 방법
CN110062161B (zh) * 2019-04-10 2021-06-25 Oppo广东移动通信有限公司 图像处理器、图像处理方法、拍摄装置和电子设备
CN111696024B (zh) * 2020-06-02 2023-04-25 武汉华景康光电科技有限公司 一种基于fpga的红外图像的镜像方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102572245A (zh) * 2011-12-22 2012-07-11 深圳市赛格导航科技股份有限公司 一种扩展图像动态范围的方法及装置
WO2013042766A1 (ja) * 2011-09-22 2013-03-28 オリンパス株式会社 画像処理装置、画像処理システム、及び画像読出し装置
CN103650480A (zh) * 2011-07-14 2014-03-19 索尼公司 图像处理设备、摄像设备、图像处理方法和程序
CN105473998A (zh) * 2013-12-13 2016-04-06 生物辐射实验室股份有限公司 具有动态生长图像的无损读取操作

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4912694B2 (ja) * 2006-02-23 2012-04-11 オリンパスイメージング株式会社 電子的ぶれ補正装置及び電子的ぶれ補正方法
JP4218723B2 (ja) * 2006-10-19 2009-02-04 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US8144214B2 (en) * 2007-04-18 2012-03-27 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and storage medium
WO2009035148A1 (en) * 2007-09-14 2009-03-19 Ricoh Company, Ltd. Imaging apparatus and imaging method
US8063942B2 (en) * 2007-10-19 2011-11-22 Qualcomm Incorporated Motion assisted image sensor configuration
US20090244301A1 (en) * 2008-04-01 2009-10-01 Border John N Controlling multiple-image capture
WO2009153836A1 (en) * 2008-06-19 2009-12-23 Panasonic Corporation Method and apparatus for motion blur and ghosting prevention in imaging system
JP2010050521A (ja) * 2008-08-19 2010-03-04 Olympus Corp 撮像装置
JP5347707B2 (ja) * 2008-08-20 2013-11-20 株式会社リコー 撮像装置および撮像方法
WO2013109261A1 (en) * 2012-01-18 2013-07-25 Intel Corporation Intelligent computational imaging system
JP2015041792A (ja) 2013-08-20 2015-03-02 株式会社ニコン 画像処理装置および撮像装置
US20150097978A1 (en) * 2013-10-07 2015-04-09 Qualcomm Incorporated System and method for high fidelity, high dynamic range scene reconstruction with frame stacking
WO2015144001A1 (zh) 2014-03-24 2015-10-01 南京明德新药研发股份有限公司 作为smo抑制剂的喹啉衍生物

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103650480A (zh) * 2011-07-14 2014-03-19 索尼公司 图像处理设备、摄像设备、图像处理方法和程序
WO2013042766A1 (ja) * 2011-09-22 2013-03-28 オリンパス株式会社 画像処理装置、画像処理システム、及び画像読出し装置
CN102572245A (zh) * 2011-12-22 2012-07-11 深圳市赛格导航科技股份有限公司 一种扩展图像动态范围的方法及装置
CN105473998A (zh) * 2013-12-13 2016-04-06 生物辐射实验室股份有限公司 具有动态生长图像的无损读取操作

Also Published As

Publication number Publication date
KR20180036464A (ko) 2018-04-09
CN107888838A (zh) 2018-04-06
EP3301905A1 (en) 2018-04-04
US20180097983A1 (en) 2018-04-05
US10389951B2 (en) 2019-08-20

Similar Documents

Publication Publication Date Title
US11418751B2 (en) Electronic device and method for generating image data
CN107888838B (zh) 用于处理图像的方法及支持该方法的电子设备
EP3264744B1 (en) Electronic device and image capturing method thereof
US20180131869A1 (en) Method for processing image and electronic device supporting the same
CN107888904B (zh) 用于处理图像的方法和支持该方法的电子装置
US11102418B2 (en) Electronic device for changing frame rate of capturing moving image on basis of change between plurality of images and method for controlling same
KR20170097860A (ko) 디스플레이를 이용하여 이미지를 촬영하는 전자 장치 및 이미지 촬영 방법
US10339672B2 (en) Method and electronic device for verifying light source of images
US11153498B2 (en) Image processing method and electronic device supporting same
US10511765B2 (en) Electronic apparatus and method of extracting still images
US10250842B2 (en) Electronic device and method of controlling the same
EP3471400A1 (en) Image signal processing method, image signal processor, and electronic device
KR20170112066A (ko) 이미지를 처리하기 위한 전자 장치 및 방법
KR102407624B1 (ko) 전자 장치의 영상 처리 방법 및 그 전자 장치
EP3280131B1 (en) Method of processing image and electronic device supporting the same
US10491821B2 (en) Apparatus of stabilizing shaking image and controlling method thereof
KR102317624B1 (ko) 전자 장치 및 그의 이미지 처리 방법
KR20170046391A (ko) 영상 촬영 장치 및 방법
KR20170046404A (ko) 영상 촬영 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant