CN112602111A - 模糊基于深度信息组合多个图像而获得的图像的电子设备及驱动该电子设备的方法 - Google Patents

模糊基于深度信息组合多个图像而获得的图像的电子设备及驱动该电子设备的方法 Download PDF

Info

Publication number
CN112602111A
CN112602111A CN201980051172.2A CN201980051172A CN112602111A CN 112602111 A CN112602111 A CN 112602111A CN 201980051172 A CN201980051172 A CN 201980051172A CN 112602111 A CN112602111 A CN 112602111A
Authority
CN
China
Prior art keywords
call
image
processor
call log
log
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980051172.2A
Other languages
English (en)
Inventor
金杓宰
郑赫宰
李明中
李大松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN112602111A publication Critical patent/CN112602111A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

一种电子设备包括:第一相机和第二相机,其布置在电子设备的一侧上;存储器;以及至少一个处理器,其被配置为:基于与拍摄信号相对应的输入,利用第一相机获取针对外部对象的多个第一图像帧;在获取第一图像帧的部分时,利用第二相机获取针对外部对象的第二图像帧;基于第二图像帧和多个第一图像帧当中的与第二图像帧相对应的图像帧,生成针对外部对象的深度信息;通过组合多个第一图像帧当中的多个指定图像帧来生成第一校正图像;以及生成第二校正图像,在第二校正图像中,包含在第一校正图像中的外部对象的部分基于深度信息被模糊。

Description

模糊基于深度信息组合多个图像而获得的图像的电子设备及 驱动该电子设备的方法
技术领域
本公开涉及一种具有多个相机的电子设备。
背景技术
将多个相机模块应用于电子设备的趋势正在增加。例如,多个相机可以安装在电子设备的不同侧,并且它们可以用于捕获不同方向上的图像。此外,多个相机可以安装在电子设备的同一侧,并且它们可以用于生成校正图像(例如,散焦图像或散景效果图像),在校正图像中,一个或更多个外部对象的至少一部分被模糊。
发明内容
技术问题
在电子设备使用相机捕获图像的情况下,降低图像质量的最重要因素是低照度环境,因此,在低照度环境下使用相机获取高质量图像的研究与开发一直在持续进行。
以上信息仅作为背景信息呈现,并且有助于理解本公开。关于以上内容中的任何内容是否可以用作关于本公开的现有技术,没有做出确定,也没有做出断言。
技术方案
本公开的方面旨在至少解决上述问题和/或缺点,并至少提供以下描述的优点。因此,本公开的一方面提供了一种电子设备及其方法,该电子设备及其方法可以在低照度环境下使用多个相机在一个或更多个外部对象的至少一部分被模糊的校正图像的情况下改善图像质量。
附加方面将在下面的描述中部分地阐述,并且部分地从描述中将是显而易见的,或者可以通过实践所呈现的实施例而获知。
根据本公开的一方面,提供了一种电子设备。该电子设备包括:第一相机,其布置在电子设备的一侧上;第二相机,其布置在该一侧上;存储器;以及至少一个处理器,其中,至少一个处理器被配置为:基于与拍摄信号相对应的输入,利用第一相机获取一个或更多个外部对象的多个第一图像帧;在获取第一图像帧的至少一部分时,利用第二相机获取一个或更多个外部对象的第二图像帧;基于第二图像帧和多个第一图像帧当中的与第二图像帧相对应的图像帧,生成一个或更多个外部对象的深度信息;通过组合多个第一图像帧当中的多个指定图像帧来生成第一校正图像;以及生成第二校正图像,在第二校正图像中,包含在第一校正图像中的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。
根据本公开的另一方面,提供了另一电子设备。该电子设备包括:第一相机,其布置在电子设备的一侧上;第二相机,其布置在该一侧上;存储器;以及至少一个处理器,其中,至少一个处理器被配置为:基于与拍摄信号相对应的输入,利用第一相机获取一个或更多个外部对象的多个第一图像帧;在获取第一图像帧的至少一部分时,利用第二相机获取一个或更多个外部对象的第二图像帧;基于第二图像帧和多个第一图像帧当中的与第二图像帧相对应的图像帧,生成一个或更多个外部对象的深度信息;通过基于深度信息组合多个第一图像帧当中的多个指定图像帧来生成第一校正图像;以及生成第二校正图像,在第二校正图像中,包含在第一校正图像中的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。
根据本公开的另一方面,提供了一种用于驱动电子设备的方法。该方法包括:基于与拍摄信号相对应的输入,利用第一相机获取一个或更多个外部对象的多个第一图像帧;在获取第一图像帧的至少一部分时,利用第二相机获取一个或更多个外部对象的第二图像帧;基于第二图像帧和多个第一图像帧当中的与第二图像帧相对应的图像帧,生成一个或更多个外部对象的深度信息;通过组合多个第一图像帧当中的多个指定图像帧来生成第一校正图像;以及生成第二校正图像,在第二校正图像中,包含在第一校正图像中的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。
技术效果
根据本公开的各种实施例,在低照度环境中利用多个相机在一个或更多个外部对象的至少一部分被模糊的校正图像的情况下,可以提高画质。
通过以下结合附图公开了本公开的各种实施例的详细描述,本公开的其他方面、优点和显着特征对于本领域技术人员将变得显而易见。
附图说明
通过以下结合附图的描述,本公开的某些实施例的上述和其他方面、特征和优点将变得更加明显,其中:
图1是根据本公开的各种实施例的网络环境中的电子设备的框图;
图2是根据本公开的各种实施例的相机模块的框图;
图3是示出根据本公开的实施例的电子设备的示意性配置的框图;
图4是说明根据本公开的实施例的电子设备生成深度信息的方法的图;
图5A是说明根据本公开的实施例的使用深度图生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦;
图5B是说明根据本公开的实施例的使用深度图生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦;
图6是示出根据本公开的实施例的用于操作电子设备的方法的流程图;
图7是示出根据本公开的实施例的电子设备使用多个相机生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦;
图8是示出根据本公开的实施例的电子设备生成第一校正图像的方法的流程图;
图9是详细示出了根据本公开实施例的电子设备生成第一校正图像的方法的图;
图10是示出根据本公开的另一实施例的用于操作电子设备的方法的流程图;
图11是示出根据本公开的另一实施例的电子设备使用多个相机生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦;
图12是示出根据本公开的另一实施例的用于操作电子设备的方法的流程图;
图13是示出根据本公开的另一实施例的电子设备使用多个相机生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦;
图14是示出根据本公开的另一实施例的电子设备生成第一校正图像的方法的流程图;
图15是详细示出根据本公开的另一实施例的电子设备生成第一校正图像的方法的图;
图16是示出根据本公开的另一实施例的用于操作电子设备的方法的流程图;以及
图17是示出根据本公开的另一实施例的电子设备使用多个相机生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦。
在整个附图中,相似的附图标记将被理解为指代相似的部件、组件和结构。
具体实施方式
提供以下参考附图的描述以帮助全面理解由权利要求及其等同物所限定的本公开的各种实施例。各种实施例包括各种特定的细节以帮助理解,但是这些细节仅被认为是示例性的。因此,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可以对本文所述的各种实施例进行各种改变和修改。另外,为了清楚和简洁,可以省略对公知功能和构造的描述。
在以下描述和权利要求中使用的术语和字不限于书面含义,而是仅用于使得能够清楚且一致地理解本公开。因此,对于本领域技术人员显而易见的是,提供本公开的各种实施例的以下描述仅是出于说明目的,而不是出于限制由所附权利要求及其等同物所限定的本公开的目的。
术语“基本上”是指不需要精确地获得所列举的特性、参数或值,但是可能会出现不排除该特性旨在提供的效果的偏差或变化量,包括例如公差、测量误差、测量精度限制和对本领域技术人员已知的其他因素。
图1是示出根据各种实施例的网络环境100中的电子装置101的框图。参照图1,网络环境100中的电子装置101可经由第一网络198(例如,短距离无线通信网络)与电子装置102进行通信,或者经由第二网络199(例如,长距离无线通信网络)与电子装置104或服务器108进行通信。根据实施例,电子装置101可经由服务器108与电子装置104进行通信。根据实施例,电子装置101可包括处理器120、存储器130、输入装置150、声音输出装置155、显示装置160、音频模块170、传感器模块176、接口177、触觉模块179、相机模块180、电力管理模块188、电池189、通信模块190、用户识别模块(SIM)196或天线模块197。在一些实施例中,可从电子装置101中省略所述部件中的至少一个(例如,显示装置160或相机模块180),或者可将一个或更多个其他部件添加到电子装置101中。在一些实施例中,可将所述部件中的一些部件实现为单个集成电路。例如,可将传感器模块176(例如,指纹传感器、虹膜传感器、或照度传感器)实现为嵌入在显示装置160(例如,显示器)中。
处理器120可运行例如软件(例如,程序140)来控制电子装置101的与处理器120连接的至少一个其他部件(例如,硬件部件或软件部件),并可执行各种数据处理或计算。根据一个实施例,作为所述数据处理或计算的至少部分,处理器120可将从另一部件(例如,传感器模块176或通信模块190)接收到的命令或数据加载到易失性存储器132中,对存储在易失性存储器132中的命令或数据进行处理,并将结果数据存储在非易失性存储器134中。根据实施例,处理器120可包括主处理器121(例如,中央处理器(CPU)或应用处理器(AP))以及与主处理器121在操作上独立的或者相结合的辅助处理器123(例如,图形处理单元(GPU)、图像信号处理器(ISP)、传感器中枢处理器或通信处理器(CP))。另外地或者可选择地,辅助处理器123可被适配为比主处理器121耗电更少,或者被适配为具体用于指定的功能。可将辅助处理器123实现为与主处理器121分离,或者实现为主处理器121的部分。
在主处理器121处于未激活(例如,休眠)状态时,辅助处理器123可控制与电子装置101(而非主处理器121)的部件之中的至少一个部件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些,或者在主处理器121处于激活状态(例如,运行应用)时,辅助处理器123可与主处理器121一起来控制与电子装置101的部件之中的至少一个部件(例如,显示装置160、传感器模块176或通信模块190)相关的功能或状态中的至少一些。根据实施例,可将辅助处理器123(例如,图像信号处理器或通信处理器)实现为在功能上与辅助处理器123相关的另一部件(例如,相机模块180或通信模块190)的部分。
存储器130可存储由电子装置101的至少一个部件(例如,处理器120或传感器模块176)使用的各种数据。所述各种数据可包括例如软件(例如,程序140)以及针对与其相关的命令的输入数据或输出数据。存储器130可包括易失性存储器132或非易失性存储器134。
可将程序140作为软件存储在存储器130中,并且程序140可包括例如操作系统(OS)142、中间件144或应用146。
输入装置150可从电子装置101的外部(例如,用户)接收将由电子装置101的其他部件(例如,处理器120)使用的命令或数据。输入装置150可包括例如麦克风、鼠标、键盘或数字笔(例如,手写笔)。
声音输出装置155可将声音信号输出到电子装置101的外部。声音输出装置155可包括例如扬声器或接收器。扬声器可用于诸如播放多媒体或播放唱片的通用目的,接收器可用于呼入呼叫。根据实施例,可将接收器实现为与扬声器分离,或实现为扬声器的部分。
显示装置160可向电子装置101的外部(例如,用户)视觉地提供信息。显示装置160可包括例如显示器、全息装置或投影仪以及用于控制显示器、全息装置和投影仪中的相应一个的控制电路。根据实施例,显示装置160可包括被适配为检测触摸的触摸电路或被适配为测量由触摸引起的力的强度的传感器电路(例如,压力传感器)。
音频模块170可将声音转换为电信号,反之亦可。根据实施例,音频模块170可经由输入装置150获得声音,或者经由声音输出装置155或与电子装置101直接(例如,有线地)连接或无线连接的外部电子装置(例如,电子装置102)的耳机输出声音。
传感器模块176可检测电子装置101的操作状态(例如,功率或温度)或电子装置101外部的环境状态(例如,用户的状态),然后产生与检测到的状态相应的电信号或数据值。根据实施例,传感器模块176可包括例如手势传感器、陀螺仪传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口177可支持将用来使电子装置101与外部电子装置(例如,电子装置102)直接(例如,有线地)或无线连接的一个或更多个特定协议。根据实施例,接口177可包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端178可包括连接器,其中,电子装置101可经由所述连接器与外部电子装置(例如,电子装置102)物理连接。根据实施例,连接端178可包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块179可将电信号转换为可被用户经由他的触觉或动觉识别的机械刺激(例如,振动或运动)或电刺激。根据实施例,触觉模块179可包括例如电机、压电元件或电刺激器。
相机模块180可捕获静止图像或运动图像。根据实施例,相机模块180可包括一个或更多个透镜、图像传感器、图像信号处理器或闪光灯。
电力管理模块188可管理对电子装置101的供电。根据实施例,可将电力管理模块188实现为例如电力管理集成电路(PMIC)的至少部分。
电池189可对电子装置101的至少一个部件供电。根据实施例,电池189可包括例如不可再充电的原电池、可再充电的蓄电池、或燃料电池。
通信模块190可支持在电子装置101与外部电子装置(例如,电子装置102、电子装置104或服务器108)之间建立直接(例如,有线)通信信道或无线通信信道,并经由建立的通信信道执行通信。通信模块190可包括能够与处理器120(例如,应用处理器(AP))独立操作的一个或更多个通信处理器,并支持直接(例如,有线)通信或无线通信。根据实施例,通信模块190可包括无线通信模块192(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块194(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的相应一个可经由第一网络198(例如,短距离通信网络,诸如蓝牙、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络199(例如,长距离通信网络,诸如蜂窝网络、互联网、或计算机网络(例如,LAN或广域网(WAN)))与外部电子装置进行通信。可将这些各种类型的通信模块实现为单个部件(例如,单个芯片),或可将这些各种类型的通信模块实现为彼此分离的多个部件(例如,多个芯片)。无线通信模块192可使用存储在用户识别模块196中的用户信息(例如,国际移动用户识别码(IMSI))识别并验证通信网络(诸如第一网络198或第二网络199)中的电子装置101。
天线模块197可将信号或电力发送到电子装置101的外部(例如,外部电子装置)或者从电子装置101的外部(例如,外部电子装置)接收信号或电力。根据实施例,天线模块197可包括天线,所述天线包括辐射元件,所述辐射元件由形成在基底(例如,PCB)中或形成在基底上的导电材料或导电图案构成。根据实施例,天线模块197可包括多个天线。在这种情况下,可由例如通信模块190(例如,无线通信模块192)从所述多个天线中选择适合于在通信网络(诸如第一网络198或第二网络199)中使用的通信方案的至少一个天线。随后可经由所选择的至少一个天线在通信模块190和外部电子装置之间发送或接收信号或电力。根据实施例,除了辐射元件之外的另外的组件(例如,射频集成电路(RFIC))可附加地形成为天线模块197的一部分。
上述部件中的至少一些可经由外设间通信方案(例如,总线、通用输入输出(GPIO)、串行外设接口(SPI)或移动工业处理器接口(MIPI))相互连接并在它们之间通信地传送信号(例如,命令或数据)。
根据实施例,可经由与第二网络199连接的服务器108在电子装置101和外部电子装置104之间发送或接收命令或数据。电子装置102和电子装置104中的每一个可以是与电子装置101相同类型的装置,或者是与电子装置101不同类型的装置。根据实施例,将在电子装置101运行的全部操作或一些操作可在外部电子装置102、外部电子装置104或服务器108中的一个或更多个运行。例如,如果电子装置101应该自动执行功能或服务或者应该响应于来自用户或另一装置的请求执行功能或服务,则电子装置101可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分,而不是运行所述功能或服务,或者电子装置101除了运行所述功能或服务以外,还可请求所述一个或更多个外部电子装置执行所述功能或服务中的至少部分。接收到所述请求的所述一个或更多个外部电子装置可执行所述功能或服务中的所请求的所述至少部分,或者执行与所述请求相关的另外功能或另外服务,并将执行的结果传送到电子装置101。电子装置101可在对所述结果进行进一步处理的情况下或者在不对所述结果进行进一步处理的情况下将所述结果提供作为对所述请求的至少部分答复。为此,可使用例如云计算技术、分布式计算技术或客户机-服务器计算技术。
图2是示出根据本公开的各种实施例的相机模块的框图。
参照图2,框图200的相机模块180可以包括透镜组件210、闪光灯220、图像传感器230、图像稳定器240、存储器250(例如,缓冲存储器)和/或图像信号处理器260。透镜组件210可以收集从要拍摄其图像的对象发射或反射的光。透镜组件210可以包括一个或更多个透镜。根据实施例,相机模块180可以包括多个透镜组件210。在这种情况下,相机模块180可以形成例如双相机、360度相机或球形相机。多个透镜组件210中的一些可以具有相同的透镜属性(例如,视角、焦距、自动聚焦、f值或光学变焦),或者至少一个透镜组件可以具有与另一透镜组件不同的一个或更多个透镜属性。透镜组件210可以包括例如广角透镜或远摄透镜。
闪光灯220可以发射用于增强从对象反射的光的光。根据实施例,闪光灯220可以包括一个或更多个发光二极管(LED)(例如,红-绿-蓝(RGB)LED、白LED、红外(IR)LED或紫外线(UV)LED)或氙气灯。图像传感器230可以通过将从对象发射或反射并经由透镜组件210透射的光转换成电信号来获得与对象相对应的图像。根据实施例,图像传感器230可以包括从具有不同属性的图像传感器(例如,RGB传感器、黑白(BW)传感器、IR传感器或UV传感器)中选择的一个传感器、具有相同属性的多个图像传感器或具有不同属性的多个图像传感器。可以使用例如电荷耦合器件(CCD)传感器或互补金属氧化物半导体(CMOS)传感器来实现图像传感器230中包括的每个图像传感器。
图像稳定器240可以在特定方向上移动图像传感器230或包括在透镜组件210中的至少一个透镜,或者响应于相机模块180或包括相机模块180的电子设备101的移动,控制图像传感器230的操作属性(例如,调整读出定时)。这允许通过对所捕获的图像的移动来补偿负面影响(例如,图像模糊)的至少一部分。根据实施例,图像稳定器240可以使用布置在相机模块180内部或外部的陀螺仪传感器(未示出)或加速度传感器(未示出)来感测相机模块180或电子设备101的这种移动。根据实施例,图像稳定器240可以被实现为例如光学图像稳定器。
存储器250可以至少临时地存储经由图像传感器230获得的图像的至少一部分,以用于随后的图像处理任务。例如,如果由于快门时滞导致图像捕获延迟或快速捕获了多个图像,则可以将获得的原始图像(例如,拜耳图案图像、高分辨率图像)存储在存储器250中,并且其对应的复制图像(例如,低分辨率图像)可以经由显示设备160预览。此后,如果满足指定条件(例如,通过用户的输入或系统命令),则存储在存储器250中的原始图像的至少一部分可以例如由图像信号处理器260获得并处理。根据实施例,存储器250可以被配置为存储器130的至少一部分,或者被配置为独立于存储器130操作的单独存储器。
图像信号处理器260可以针对经由图像传感器230获得的图像或存储在存储器250中的图像执行一个或更多个图像处理。一个或更多个图像处理可以包括例如深度图生成、三维(3D)建模、全景图生成、特征点提取、图像合成或图像补偿(例如,降噪、分辨率调整、亮度调整、模糊、锐化或柔化)。附加地或替代地,图像信号处理器260可以针对相机模块180中包括的组件中的至少一个(例如,图像传感器230)执行控制(例如,曝光时间控制或读出定时控制)。由图像信号处理器260处理的图像可以存储回存储器250中以进行进一步处理,或者可以提供给相机模块180外部的外部组件(例如,存储器130、显示设备160、电子设备102、电子设备104或服务器108)。根据实施例,图像信号处理器260可以配置为处理器120的至少一部分,或者配置为独立于处理器120操作的单独处理器。如果信号处理器260被配置为与处理器120分离的处理器,则由图像信号处理器260处理的至少一个图像可以由处理器120经由显示设备160照原样显示或在被进一步处理之后显示。
根据实施例,电子设备101可以包括具有不同属性或功能的多个相机模块180。在这种情况下,多个相机模块180中的至少一个可以形成例如广角相机,并且多个相机模块180中的至少另一个可以形成远摄相机。类似地,多个相机模块180中的至少一个可以形成例如前置相机,并且多个相机模块180中的至少另一个可以形成后置相机。
图3是示出根据本公开的实施例的电子设备的示意性配置的框图。
参照图3,根据本公开的各种实施例的电子设备(例如,图3的电子设备300)可以包括:布置在电子设备300的一侧上的第一相机(图3的第一相机310)、布置在该一侧上的第二相机(例如,图3的第二相机320)、存储器(例如,图1的存储器130)和至少一个处理器(例如,图3的处理器340),其中,处理器340被配置为:基于与拍摄信号相对应的输入,利用第一相机310获取一个或更多个外部对象的多个第一图像帧;在获取第一图像帧的至少一部分时,利用第二相机320获取一个或更多个外部对象的第二图像帧;基于第二图像帧和多个第一图像帧当中的与第二图像帧相对应的图像帧,生成一个或更多个外部对象的深度信息;通过组合多个第一图像帧当中的多个指定图像帧来生成第一校正图像;以及生成第二校正图像,在第二校正图像中,包含在第一校正图像中的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。处理器340可以进一步被配置为:基于指定条件确定多个第一图像帧当中的参考图像帧,作为生成第一校正图像的操作的一部分;通过基于参考图像帧组合多个第一图像帧当中的多个指定图像帧来生成组合图像;对组合图像执行图像补偿;以及通过对图像补偿后的组合图像进行降噪来生成第一校正图像。处理器340可以进一步被配置为:基于深度信息将参考图像帧划分为多个区域,作为生成第一校正图像的操作的一部分;确定多个区域的操作权重;以及通过基于操作权重组合多个第一图像帧当中的多个指定图像帧来生成第一校正图像。第一相机310可以包括具有第一焦距和第一视角的第一透镜组,并且第二相机320可以包括具有第二焦距和第二视角的第二透镜组,第二焦距比第一焦距短,第二视角等于或大于第一视角。处理器340可以进一步被配置为:获取与多个第一图像帧相对应的多个第二图像帧,作为获取第二图像帧的操作的一部分;以及基于参考图像帧和多个第二图像帧当中的与参考图像帧相对应的图像帧,生成深度信息,作为生成深度信息的操作的一部分。处理器340还可以进一步被配置为:基于在获取第一图像帧和第二图像帧的多个帧周期当中的第一帧周期获取的第一图像帧,生成深度信息,作为生成深度信息的操作的一部分。处理器340可以进一步被配置为:确定在获取第一图像帧的多个帧周期当中的多个指定帧周期获取的多个第一图像帧当中的第二参考图像帧,作为生成深度信息的操作的一部分;以及基于第二参考图像帧和多个第二图像帧当中的与第二参考图像帧相对应的图像帧,生成深度信息。
根据本公开的各种实施例的另一电子设备(例如,图3的电子设备300)可以包括:布置在电子设备300的一侧上的第一相机(图3的第一相机310)、布置在该一侧上的第二相机(例如,图3的第二相机320)、存储器(例如,图1的存储器130)和至少一个处理器(例如,图3的处理器340),其中,处理器340被配置为:基于与拍摄信号相对应的输入,利用第一相机310获取一个或更多个外部对象的多个第一图像帧;在获取第一图像帧的至少一部分时,利用第二相机320获取一个或更多个外部对象的第二图像帧;基于第二图像帧和多个第一图像帧当中的与第二图像帧相对应的图像帧,生成一个或更多个外部对象的深度信息;通过基于深度信息组合多个第一图像帧当中的多个指定图像帧来生成第一校正图像;以及生成第二校正图像,在第二校正图像中,包含在第一校正图像中的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。处理器340可以进一步被配置为:基于指定条件确定多个第一图像帧当中的参考图像帧,作为生成第一校正图像的操作的一部分;基于深度信息将参考图像帧划分为多个区域;确定多个区域的操作权重;以及通过基于针对多个区域确定的操作权重组合多个第一图像帧当中的多个指定图像帧来生成第一校正图像。处理器340可以进一步被配置为:通过基于针对多个区域确定的操作权重组合多个第一图像帧当中的多个指定图像帧来生成组合图像;基于针对多个区域确定的操作权重,对组合图像应用图像补偿;以及对基于针对多个区域确定的操作权重而应用图像补偿的组合图像应用降噪来生成第一校正图像。处理器340还可以进一步被配置为:获取与多个第一图像帧相对应的多个第二图像帧,作为获取第二图像帧的操作的一部分。处理器340还可以进一步被配置为:基于在获取第一图像帧和第二图像帧的多个帧周期当中的第一帧周期获取的第一图像帧,生成深度信息,作为生成深度信息的操作的一部分。处理器340可以进一步被配置为:确定在获取第一图像帧的多个帧周期当中的多个指定帧周期获取的多个第一图像帧当中的第二参考图像帧,作为生成深度信息的操作的一部分;以及基于第二参考图像帧和多个第二图像帧当中的与第二参考图像帧相对应的图像帧,生成深度信息。
根据本公开的实施例的电子设备300(例如,图1的电子设备101)可以包括第一相机310(例如,图1的相机模块180)、第二相机320(例如,图1的相机模块180)、显示器330(例如,图1的显示设备160)和/或处理器340(例如,图1的处理器120)。
根据实施例,第一相机310和第二相机320可以被布置在电子设备300的一侧上以彼此间隔开指定距离。例如,第一相机310可以被布置在电子设备300的一侧上,并且第二相机320可以被布置在电子设备300的该一侧上以与第一相机310间隔开指定距离。
根据实施例,第一相机310和第二相机320可以具有相同的光学属性。例如,光学属性可以表示透镜的视角、虹膜数值(例如,焦点(F)值)、图像传感器的像素间距或滤色器的存在/不存在,并且第一相机310和第二相机320可以被配置为具有与上述基本相同的条件。
根据另一实施例,第一相机310和第二相机320可以具有不同的光学属性。例如,第一相机310可以包括具有第一焦距和第一视角的第一透镜组以及第一图像传感器,并且第一透镜组可以是标准视角透镜或远摄透镜。第二相机320可以包括:第二透镜组,第二透镜组具有比第一焦距短的第二焦距和等于或大于第一视角的第二视角;以及第二图像传感器,并且第二透镜组可以是广角透镜。
根据实施例,第一相机310和第二相机320中的任何一个可以被定义为主相机,而另一个可以被定义为子相机。
根据实施例,第一相机310和第二相机320的至少一部分可以包括照度传感器。例如,可以在电子设备300的一侧上邻近于第一透镜组或第二透镜组布置照度传感器。
根据另一实施例,可以省略照度传感器,并且在这种情况下,可以将第一相机310的图像传感器或第二相机320的图像传感器用作照度传感器。
根据实施例,显示器330可以在处理器340的控制下显示预览图像、捕获的图像或与相机功能有关的用户界面。例如,用户界面可以提供用于变焦调整功能、预览模式、聚焦区域选择或拍摄命令选择的屏幕。
根据实施例,处理器340可以可操作地连接到第一相机310、第二相机320或显示器330,并且其可以执行对第一相机310、第二相机320或显示器330的整体控制。例如,处理器340可以控制第一相机310和第二相机320的驱动(开启)、驱动模式(例如,休眠、待机或活动)、帧速率或数字变焦。
根据实施例,处理器340可以使用第一相机310和/或第二相机320获取针对一个或更多个外部对象的图像帧,并且其可以生成校正图像(例如,散焦图像或散景效果图像),其中,一个或更多个外部对象的至少一部分通过校正获取的图像帧而变得模糊。
在下文中,在描述中,术语“其中一个或更多个外部对象的至少一部分模糊的校正图像”被定义为“散景效果图像”。在描述中使用的“散景效果图像”可以是与“散焦图像”、“散焦的图像”或“散景图像”基本上相同的表达,并且其可以表示散焦的模糊图像,其中,整个图像区域中除特定部分(例如,图5A的聚焦区域511)之外的其余部分已经散焦。
根据实施例,处理器340可以包括图像捕获单元341、深度信息生成单元342、第一校正单元343或第二校正单元344。
根据实施例,图像捕获单元341可以通过控制第一相机310和第二相机320的驱动(开启)、驱动模式(例如,休眠、待机或活动)、帧速率或数字变焦来获取至少一个图像帧。例如,图像捕获单元341可以响应于与拍摄信号相对应的用户输入,使用第一相机310和/或第二相机320来获取针对一个或更多个外部对象的图像帧。
图4是说明根据本公开的实施例的由电子设备生成深度信息的方法的图。
参照图4,作为另一示例,如果接收到与拍摄信号相对应的用户输入,则图像捕获单元341可以使用第一相机310获取一个或更多个外部对象的多个第一图像帧401,并且在获取多个第一图像帧401时,可以使用第二相机320获取针对一个或更多个外部对象的多个第二图像帧402。根据某些实施例,在获取多个第一图像帧401的至少一部分时,图像捕获单元341可以使用第二相机320获取第二图像帧402中的至少一个。
根据实施例,深度信息生成单元342可以基于使用第一相机310获取的图像帧和使用第二相机320获取的图像帧来生成深度图403。例如,深度信息生成单元342可以基于指定图像帧生成包括针对一个或更多个外部对象的深度信息的深度图403,该指定图像帧是使用第一相机310获取的多个第一图像帧401和与指定图像帧相对应且使用第二相机320获取的第二图像帧402中的任何一个。例如,第二图像帧402与指定图像帧相对应的事实可能意味着两个图像帧具有相同的时间信息。作为另一示例,深度信息生成单元342可以使用同时(例如,帧周期)捕获的第一图像帧401和第二图像帧402来生成深度图403。
根据实施例,深度信息生成单元342可以基于在获取多个第一图像帧401的多个帧周期当中的第一帧周期获取的获第一图像帧401和第二图像帧402来生成深度信息。
根据另一实施例,深度信息生成单元342可以基于指定条件来确定多个第一图像帧401中的任何一个,并且其可以基于与所确定的图像帧相对应的第二图像帧402来生成深度信息。例如,指定条件可以包括第一图像帧的模糊度或握手量。作为另一示例,深度信息生成单元342可以将多个第一图像帧401当中具有最低模糊度和/或最小握手量的图像帧确定为指定图像帧。
根据实施例,第一校正单元343可以通过组合使用第一相机310获取的多个图像帧当中的指定图像帧来生成具有改善的画质的单个图像。例如,第一校正单元343可以通过组合使用第一相机310获取的多个图像帧来生成第一校正图像。此外,第一校正单元343可以通过仅组合使用第一相机310获取的多个图像帧的一部分来生成第一校正图像。根据某些实施例,第一校正单元343可以通过以与组合第一图像帧401相似的方式组合使用第二相机320获取的多个图像帧来生成具有改善的画质的单个图像。
根据实施例,第一校正单元343可以通过组合多个第一图像帧401当中的多个指定图像帧来生成第一校正图像。例如,第一校正单元343可以使用照度传感器来测量外部照度,并且其可以基于外部照度确定用于组合图像的指定图像帧的数量。根据实施例,第一校正单元343可以随着外部照度变得更亮而配置相对小数量的指定图像帧,并且其可以随着外部照度变得更暗而配置相对大数量的指定图像帧。例如,如果外部照度降低到指定值以下,则第一校正单元343可以通过将全部多个第一图像帧401进行组合来生成第一校正图像。
根据实施例,第一校正单元343可以确定指定图像帧当中的参考图像帧,并且其可以基于参考图像帧来组合指定图像帧。例如,指定条件可以包括第一图像帧的模糊度或握手(handshake)量。作为另一示例,第一校正单元343可以将多个第一图像帧401当中具有最低模糊度和/或最小握手量的图像帧确定为参考图像帧。
根据某个实施例,第一校正单元343可以在组合指定图像帧时进一步使用深度信息。例如,第一校正单元343可以基于深度信息将参考图像帧划分为多个区域,并且其可以确定多个区域的操作权重。
图5A是说明根据本公开的实施例的使用深度图生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦。
参照图5A,基于深度信息,第一校正单元343可以将参考图像帧划分为作为聚焦区域511的第一区域、具有比第一区域的焦距短的焦距的第二区域(例如,前景区域512)或具有比第一区域的焦距长的焦距的第三区域(例如,背景区域513)。根据实施例,第一校正单元343可以不同地确定划分的第一区域至第三区域的操作权重,并且其可以对作为聚焦区域511的第一区域配置相对高的操作权重。根据实施例,第一校正单元343可以基于确定的操作权重来组合指定的图像帧。因为根据本公开的各种实施例的电子设备300使用深度信息生成第一校正图像,所以其可以使用更多的存储器资源或处理资源来改善聚焦区域511的画质,因此可以生成具有改善的画质的散景效果图像。
根据实施例,第二校正单元344可以通过对第一校正图像进行校正来生成作为散景效果图像的第二校正图像。例如,第二校正单元344可以生成第二校正图像,在第二校正图像中,第一校正图像中包括的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。根据实施例,第二校正单元344可以通过使用深度信息使第一校正图像中除聚焦区域511之外的其余区域模糊来生成第二校正图像。
根据实施例,如果生成了第二校正图像,则第二校正单元344可以通过控制显示器330来输出第二校正图像。
根据某个实施例,处理器340中的图像捕获单元341、深度信息生成单元342、第一校正单元343和第二校正单元344的至少一部分可以包括在图像信号处理器340(例如,图2的图像信号处理器340或260)中。例如,图像捕获单元341、深度信息生成单元342、第一校正单元343和第二校正单元344的各个操作中的至少部分操作可以由图像信号处理器340或260执行。
参照图3、图4和图5A,根据实施例的处理器(例如,图3的处理器340)的深度信息生成单元(例如,图3的深度信息生成单元342)可以使用第一相机(例如,图3的第一相机310)与第二相机(例如,图3的第二相机320)之间的视差来生成深度信息。。
根据实施例,如图4中的410所指示的,深度信息生成单元342可以使用第一相机310获取第一图像帧401,并且使用第二相机320获取与第一图像帧401相对应的第二图像帧402。根据示出的示例,第一图像帧401可以是通过在特定帧周期(例如,第一帧周期或指定帧周期)中以第一视角拍摄一个或更多个外部对象而获得的图像,第二图像帧402可以是通过在特定帧周期中以大于第一视角的第二视角拍摄一个或更多个外部对象而获得的图像。
根据实施例,如图4的420所指示的,深度信息生成单元342可以调整第一图像帧401和第二图像帧402的各自的视角以及聚焦区域511的坐标,使得它们分别彼此重合。根据实施例,深度信息生成单元342可以通过使第一图像帧401和第二图像帧402的各个对象彼此匹配来调整第一图像帧401和第二图像帧402的对准。例如,深度信息生成单元342可以使第二图像帧402移位,使得第一图像帧401的聚焦区域511的坐标与第二图像帧402的聚焦区域511的坐标一致。在实施例中,如果调整了第二图像帧402的对准,则深度信息生成单元342可以基于第一相机310和第二相机310的校准信息,以相同的视角调整第一图像帧401和第二图像帧402。例如,深度信息生成单元342可以裁剪第二图像帧402,使得第二图像帧402具有与第一图像帧401的视角相同的视角。
根据实施例,校准信息可以是在第一相机310和第二相机320的制造期间通过校准过程确定的值,并且例如,校准信息可以包括内部参数和外在参数。内部参数可以是每个相机的属性,并且其可以包括光学中心、焦距或透镜失真。外部参数可以指示第一相机310与第二相机320之间的相对位置,并且其可以倾斜或移位。
根据实施例,如图4的430所指示的,如果第一图像帧401和第二图像帧402的视角以及聚焦区域511的坐标分别彼此一致,则深度信息生成单元342可以生成深度图403同时匹配除了与聚焦区域511相对应的外部对象之外的其余对象。例如,深度信息生成单元342可以从第一图像帧401和第二图像帧402中搜索相同的对象,并且其可以将与各个图像帧中的相同对象相对应的坐标被移位的移位度转换为深度信息。根据实施例,如果与各个图像帧中的相同对象相对应的坐标被移位的移位度高,则深度信息生成单元342可以确定对应对象在近距离处,而如果与各个图像帧中的相同对象相对应的坐标被移位的移位度低,则深度信息生成单元342可以确定对应对象在远距离处。
根据各种实施例,除了如上所述的示例性方法之外,根据本公开的电子设备300还可以使用各种方法来获取深度信息。例如,在韩国未审查的专利申请公开No.10-2017-0091496、韩国未审查的专利申请公开No.10-2017-008279和韩国未审查的专利申请公开No.10-2017-0060414公开了电子设备300用于获取深度信息的方法。
根据实施例的处理器(例如,图3的处理器340)的第二校正单元(例如,图3的第二校正单元344)可以从第一校正图像501确定聚焦区域511,并且其可以基于聚焦区域511和深度图403生成模糊权重图502。例如,第二校正单元344可以基于聚焦区域511将第一校正图像501划分为多个区域,并且其可以不同地确定多个区域的模糊权重。根据实施例,第二校正单元344可以对位于比聚焦区域511的距离更近的距离处的前景区域512配置相对低的模糊权重,并且其可以对位于比聚焦区域511的距离更远的距离处的前景区域512配置相对高的模糊权重。例如,第二校正单元344可以将模糊权重配置为0至255范围内的值,并且在这种情况下,第二校正单元344可以对前景区域512配置接近于0的模糊权重,而第二校正单元344可以对背景区域513配置接近于255的模糊权重。另外,不管前景区域512和背景区域513如何划分,第二校正单元344可以对相对靠近聚焦区域511的区域配置低模糊权重,而可以对距聚焦区域511相对远的区域配置高模糊权重。
参照图3、图4和图5B,根据实施例的处理器340的第二校正单元344可以通过基于模糊权重图502对第一校正图像501的多个区域施加模糊效果来生成第二校正图像503。例如,第二校正单元344可以对具有相对高的模糊权重的区域施加高模糊效果,而第二校正单元344可以对具有相对低的模糊权重的区域施加低模糊效果。
根据本公开的各种实施例的用于驱动电子设备(例如,图3的电子设备300)的方法可以包括:基于与拍摄信号相对应的输入,利用第一相机310(例如,图3的第一相机310)获取一个或更多个外部对象的多个第一图像帧;在获取第一图像帧的至少一部分时,利用第二相机320(例如,图3的第二相机320)获取一个或更多个外部对象的第二图像帧;基于第二图像帧和多个第一图像帧当中的与第二图像帧相对应的图像帧,生成一个或更多个外部对象的深度信息;通过组合多个第一图像帧当中的多个指定图像帧来生成第一校正图像;以及生成第二校正图像,在第二校正图像中,包含在第一校正图像中的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。生成第一校正图像可以包括:基于指定条件确定多个第一图像帧当中的参考图像帧;通过基于参考图像帧组合多个第一图像帧当中的多个指定图像帧来生成组合图像;对组合图像执行图像补偿;以及通过对图像补偿后的组合图像进行降噪来生成第一校正图像。生成第一校正图像可以包括:基于深度信息将参考图像帧划分为多个区域;确定多个区域的操作权重;以及通过基于操作权重组合多个第一图像帧当中的多个指定图像帧来生成第一校正图像。获取第二图像帧可以包括:获取与多个第一图像帧相对应的多个第二图像帧。生成深度信息可以包括:基于参考图像帧和多个第二图像帧当中的与参考图像帧相对应的图像帧,生成深度信息。生成深度信息可以包括:基于在获取第一图像帧和第二图像帧的多个帧周期当中的第一帧周期获取的第一图像帧,生成深度信息。生成深度信息可以包括:确定在获取第一图像帧的多个帧周期当中的多个指定帧周期获取的多个第一图像帧当中的第二参考图像帧;以及基于第二参考图像帧和多个第二图像帧当中的与第二参考图像帧相对应的图像帧,生成深度信息。
图6是示出根据本公开的实施例的用于操作电子设备的方法的流程图。
图7是示出根据本公开的实施例的电子设备使用多个相机生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦。在下文中,参照图6和图7,将描述根据本公开实施例的用于操作电子设备的方法。
在操作610,根据实施例的处理器(例如,图3的处理器340)可以使用第一相机(例如,图3的第一相机310)(主相机)和第二相机(例如,图3的第二相机320)(子相机)来获取多个图像帧。例如,处理器340可以基于与拍摄信号相对应的用户输入,通过第一相机310获取一个或更多个外部对象的多个第一图像帧401,并且处理器340可以在获取多个第一图像帧401的至少一部分时,获取至少一个第二图像帧402。
在操作620,根据实施例的处理器340可以基于第一图像帧401和与第一图像帧401相对应的第二图像帧402来生成深度图403。例如,第一图像帧401和第二图像帧402可以是在获取第一图像帧401的多个帧周期当中的第一帧周期获取的图像帧。
在操作630,根据实施例的处理器340可以通过组合多个第一图像帧401当中的多个指定图像帧来生成第一校正图像。例如,处理器340可以使用照度传感器来测量外部照度,并且处理器340可以基于外部照度来确定用于组合图像的指定图像帧的数量。根据实施例,处理器340可以随着外部照度变得更亮而配置相对小数量的指定图像帧,并且可以随着外部照度变得更加暗来配置相对大数量的指定图像帧。例如,如果外部照度被降低到指定值以下,则处理器340可以通过组合总共多个第一图像帧401来生成第一校正图像。稍后将参考图8至图9详细描述操作630。
在操作640,根据实施例的处理器340可以通过基于深度图403将模糊效果部分地施加到第一校正图像来生成第二校正图像。例如,处理器340可以生成第二校正图像,在第二校正图像中,第一校正图像中包括的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。
在操作650,根据实施例的处理器340可以控制显示器330显示第二校正图像。
图8是示出根据本公开的实施例的电子设备生成第一校正图像的方法的流程图。
图9是详细示出根据本公开的实施例的电子设备生成第一校正图像的方法的图。例如,图8和图9是详细说明图6中所示的操作630的图。在下文中,参照图8和图9,将描述根据实施例的电子设备300生成第一校正图像的方法。
在操作810,根据实施例的处理器(例如,图3的处理器340)可以确定多个第一图像帧401当中的多个指定图像帧,并且其可以确定多个指定图像当中的参考图像帧。例如,指定条件可以包括第一图像帧的模糊度或握手量。作为另一示例,处理器340可以将多个第一图像帧401当中具有最低模糊度和/或最小握手量的图像帧确定为参考图像帧。根据实施例,处理器340可以基于在图像传感器的曝光时间期间使用加速度传感器测量的移动量来确定握手量。
在操作820,根据实施例的处理器340可以通过基于参考图像帧组合作为多个第一图像帧401的至少一部分的指定图像帧来生成组合图像。例如,处理器340可以基于参考图像帧中包括的多个对象,将其余图像帧中包括的多个对象与参考图像帧进行组合。
在操作830,根据实施例的处理器340可以对组合图像执行图像补偿。例如,处理器340可以执行补偿算法以对组合图像改善亮度、对比度或清晰度。根据各种实施例,用于改善亮度、对比度或清晰度的补偿算法可以是相应技术领域中已知的方法之一。例如,处理器340可以执行补偿算法以改善亮度、对比度或清晰度,并且其可以使用在韩国未审查的专利申请公开No.10-2017-0046498或韩国注册的专利公开No.10-1442153中公开的低照度图像处理方法对组合图像执行图像补偿。
在操作840,根据实施例的处理器340可以通过对图像补偿后的组合图像执行降噪来生成第一校正图像。根据各种实施例,减少图像噪声的补偿算法可以是在相应技术领域中已知的方法之一。例如,处理器340可以使用在韩国注册的专利公开No.10-1336234或韩国注册的专利公开No.10-1727285中公开的降噪方法来对组合图像执行降噪。
图10是示出根据本公开的另一实施例的用于操作电子设备的方法的流程图。
图11是示出根据本公开的另一实施例的电子设备使用多个相机生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦。在下文中,参照图10和图11,将描述根据本公开的另一实施例的用于操作电子设备的方法。
在操作1010,根据另一实施例的处理器340可以使用第一相机(例如,图3的第一相机310)(主相机)和第二相机(例如,图3的第二相机320)(子相机)来获取多个图像帧。例如,处理器340可以基于与拍摄信号相对应的用户输入,通过第一相机310获取一个或更多个外部对象的多个第一图像帧401,并且处理器340可以在获取多个第一图像帧401的至少一部分时,获取至少一个第二图像帧402。
在操作1020,根据另一实施例的处理器340可以通过组合多个第一图像帧401当中的多个指定图像帧来生成第一校正图像。例如,处理器340可以使用照度传感器来测量外部照度,并且其可以基于外部照度来确定用于组合图像的指定图像帧的数量。根据另一实施例,处理器340可以随着外部照度变得更亮而配置相对小数量的指定图像帧,并且处理器340可以随着外部照度变得更暗而配置相对大数量的指定图像帧。例如,如果外部照度降低到指定值以下,则处理器340可以通过组合总共多个第一图像帧401来生成第一校正图像。
在操作1030,根据另一实施例的处理器340可以基于在第一校正图像的生成期间使用的参考图像帧来生成深度图403。例如,如果在第一校正图像的生成期间在第x帧周期中获取的第一图像帧401被确定为参考图像帧,则处理器340可以基于在第x帧周期中获取的第一图像帧401和第二图像帧401生成深度图403。
在操作1040,根据另一实施例的处理器340可以通过基于深度图403将模糊效果部分地施加到第一校正图像来生成第二校正图像。例如,处理器340可以生成第二校正图像,在第二校正图像中,第一校正图像中包括的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。
在操作1050,根据另一实施例的处理器340可以控制显示器330显示第二校正图像。
图12是示出根据本公开的另一实施例的用于操作电子设备的方法的流程图。
图13是示出根据本公开的另一实施例的电子设备使用多个相机生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦。在下文中,参照图12和图13,将描述根据本公开的另一实施例的用于操作电子设备的方法。
在操作1210,根据另一实施例的处理器(例如,图3的处理器340)可以使用第一相机(例如,图3的第一相机310)(主相机)和第二相机(例如,图3的第二相机320)(子相机)来获取多个图像帧。例如,处理器340可以基于与拍摄信号相对应的用户输入,通过第一相机310获取一个或更多个外部对象的多个第一图像帧401,并且处理器340可以在获取多个第一图像帧401的至少一部分时,获取至少一个第二图像帧402。
在操作1220,根据另一实施例的处理器340可以基于第一图像帧401和与第一图像帧401相对应的第二图像帧402来生成深度图403。例如,第一图像帧401和第二图像帧402可以是在获取第一图像帧401的多个帧周期当中的第一帧周期获取的图像帧。
在操作1230,根据另一实施例的处理器340可以通过基于深度图403组合多个第一图像帧401当中的多个指定图像帧来生成第一校正图像。例如,第一校正单元(例如,处理器340的图3的第一校正单元343)还可以在组合指定图像帧时使用深度信息。例如,第一校正单元343可以基于深度信息将参考图像帧划分为多个区域,并且其可以确定多个区域的操作权重。根据实施例,基于深度信息,第一校正单元343可以将参考图像帧划分为作为聚焦区域511的第一区域、具有比第一区域的焦距短的焦距的第二区域(例如,前景区域512)或具有比第一区域的焦距长的焦距的第三区域(例如,背景区域513)。根据实施例,第一校正单元343可以不同地确定划分的第一区域至第三区域的操作权重,并且其可以对作为聚焦区域511的第一区域配置相对高的操作权重。因为根据本公开的各种实施例的电子设备300使用深度信息生成第一校正图像,所以其可以使用更多的存储器资源或处理资源来改善聚焦区域511的画质,因此可以生成具有改善的画质的散景效果图像。
在操作1240,根据另一实施例的处理器340可以通过基于深度图403将模糊效果部分地施加到第一校正图像来生成第二校正图像。例如,处理器340可以生成第二校正图像,在第二校正图像中,第一校正图像中包括的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。
在操作1250,根据另一实施例的处理器340可以控制显示器330显示第二校正图像。
图14是示出根据本公开的另一实施例的电子设备生成第一校正图像的方法的流程图。
图15是详细示出根据本公开的另一实施例的电子设备生成第一校正图像的方法的图。例如,图14和图15是详细说明图12所示的操作1230的图。在下文中,参照图14和图15,将描述根据本公开的另一实施例的电子设备生成第一校正图像的方法。
在操作1410,根据另一实施例的处理器340可以确定多个第一图像帧401当中的多个指定图像帧,并且其可以确定多个指定图像帧当中的参考图像帧。例如,指定条件可以包括第一图像帧的模糊度或握手量。作为另一示例,处理器340可以将多个第一图像帧401当中具有最低模糊度和/或最小握手量的图像帧确定为参考图像帧。根据实施例,处理器340可以基于在图像传感器的曝光时间期间使用加速度传感器测量的移动量来确定握手量。
在操作1420,根据另一实施例的处理器340可以基于深度信息将参考图像帧划分为多个区域。例如,基于深度信息,处理器340的第一校正单元(例如,图3的第一校正单元343)可以将参考图像帧划分为作为聚焦区域511的第一区域、具有比第一区域的焦距短的焦距的第二区域(例如,前景区域512)或具有比第一区域的焦距长的焦距的第三区域(例如,背景区域513)。
在操作1430,根据另一实施例的处理器340可以不同地确定多个区域的操作权重。例如,处理器340可以不同地确定划分的第一区域至第三区域的操作权重,并且其可以对作为聚焦区域511的第一区域配置相对高的操作权重。
在操作1440,根据另一实施例的处理器340可以通过基于参考图像帧组合作为多个第一图像帧401的至少一部分的指定图像帧来生成组合图像,并且其可以在组合期间基于确定的操作权重来不同地确定多个区域的组合量。例如,处理器340可以对相对靠近聚焦区域511的区域组合更多图像帧。
在操作1450,根据另一实施例的处理器340可以基于所确定的操作权重来对组合图像执行图像补偿。例如,处理器340可以执行补偿算法以对组合图像改善亮度、对比度或清晰度,并且处理器340可以对多个区域不同地确定执行补偿算法的操作量。例如,处理器340可以进一步执行补偿算法以对相对靠近聚焦区域511的区域改进亮度、对比度或清晰度。
在操作1460,根据另一实施例的处理器340可以通过基于所确定的操作权重对图像补偿后的组合图像执行降噪来生成第一校正图像。例如,处理器340可以进一步对相对靠近聚焦区域511的区域执行降噪算法。
图16是示出根据本公开的另一实施例的用于操作电子设备的方法的图。
图17是示出根据本公开的另一实施例的电子设备使用多个相机生成模糊图像的方法的图,其中,除特定部分之外的其余部分被散焦。在下文中,参照图16和图17,将描述根据本公开的另一实施例的用于操作电子设备的方法。
在操作1610,根据另一实施例的处理器(例如,图3的处理器340)可以使用第一相机(例如,图3的第一相机310)(主相机)和第二相机(例如,图3的第二相机320)(子相机)来获取多个图像帧。例如,处理器340可以基于与拍摄信号相对应的用户输入,通过第一相机310获取一个或更多个外部对象的多个第一图像帧401,并且处理器340可以在获取多个第一图像帧401的至少一部分时,获取至少一个第二图像帧402。
在操作1620,根据另一实施例的处理器340可以确定在用于获取第一图像帧401的多个帧周期当中的多个指定帧周期期间获取的多个第一图像帧401当中的第二参考图像帧。此外,处理器340可以将多个第一图像帧401当中具有最低模糊度和/或最小握手量的图像帧确定为第二参考图像帧。
根据另一实施例的处理器340可以基于第二参考图像帧和多个第二图像帧402当中的与第二图像帧402相对应的图像帧来生成深度图。例如,如果在将第x帧周期获取的第一图像帧401确定为第二参考图像帧,则处理器340可以基于在第x帧周期获取的第一图像帧401和第二图像帧402生成深度图403。
在操作1630,根据另一实施例的处理器340可以通过组合多个第一图像帧401当中的多个指定图像帧来生成第一校正图像。例如,处理器340可以使用照度传感器来测量外部照度,并且其可以基于外部照度确定用于组合图像的指定图像帧的数量。根据实施例,处理器340可以随着外部照度变得更亮而配置相对小数量的指定图像帧,并且可以随着外部照度变得更暗来配置相对大数量的指定图像帧。例如,如果外部照度降低到指定值以下,则处理器340可以通过组合总共多个第一图像帧401来生成第一校正图像。操作1630可以等于或类似于图8中所示的操作810至840。
在操作1640,根据另一实施例的处理器340可以通过基于深度图403将模糊效果部分地施加到第一校正图像来生成第二校正图像。例如,处理器340可以生成第二校正图像,在第二校正图像中,第一校正图像中包括的一个或更多个外部对象的至少一部分至少基于深度信息被模糊。
在操作1650,根据另一实施例的处理器340可以控制显示器330显示第二校正图像。
根据各种实施例,根据本公开的电子设备300可以基于使用多个相机生成散景效果图像的周围环境信息,自适应地选择图6、图10、图12或图16的上述方法。例如,根据各种实施例的电子设备300可以通过基于外部照度自适应地选择图6、图10、图12或图16的的方法来产生散景效果图像。例如,电子设备300可以在照度比第一照度更暗的照度环境中,使用图2所示的方法来生成散景效果图像;电子设备300可以在照度比第一照度更亮的第二照度环境至第三照度环境中,使用图3所示的方法来申城散景效果图像;和/或电子设备300可以在照度比第三照度更亮的照度环境中,使用图1或图4示出的方法来生成散景效果图像。
根据各种实施例的电子装置可以是各种类型的电子装置之一。电子装置可包括例如便携式通信装置(例如,智能电话)、计算机装置、便携式多媒体装置、便携式医疗装置、相机、可穿戴装置或家用电器。根据本公开的实施例,电子装置不限于以上所述的那些电子装置。
应该理解的是,本公开的各种实施例以及其中使用的术语并不意图将在此阐述的技术特征限制于具体实施例,而是包括针对相应实施例的各种改变、等同形式或替换形式。对于附图的描述,相似的参考标号可用来指代相似或相关的元件。将理解的是,与术语相应的单数形式的名词可包括一个或更多个事物,除非相关上下文另有明确指示。如这里所使用的,诸如“A或B”、“A和B中的至少一个”、“A或B中的至少一个”、“A、B或C”、“A、B和C中的至少一个”以及“A、B或C中的至少一个”的短语中的每一个短语可包括在与所述多个短语中的相应一个短语中一起列举出的项的任意一项或所有可能组合。如这里所使用的,诸如“第1”和“第2”或者“第一”和“第二”的术语可用于将相应部件与另一部件进行简单区分,并且不在其他方面(例如,重要性或顺序)限制所述部件。将理解的是,在使用了术语“可操作地”或“通信地”的情况下或者在不使用术语“可操作地”或“通信地”的情况下,如果一元件(例如,第一元件)被称为“与另一元件(例如,第二元件)结合”、“结合到另一元件(例如,第二元件)”、“与另一元件(例如,第二元件)连接”或“连接到另一元件(例如,第二元件)”,则意味着所述一元件可与所述另一元件直接(例如,有线地)连接、与所述另一元件无线连接、或经由第三元件与所述另一元件连接。
如这里所使用的,术语“模块”可包括以硬件、软件或固件实现的单元,并可与其他术语(例如,“逻辑”、“逻辑块”、“部分”或“电路”)可互换地使用。模块可以是被适配为执行一个或更多个功能的单个集成部件或者是该单个集成部件的最小单元或部分。例如,根据实施例,可以以专用集成电路(ASIC)的形式来实现模块。
可将在此阐述的各种实施例实现为包括存储在存储介质(例如,内部存储器136或外部存储器138)中的可由机器(例如,电子装置101)读取的一个或更多个指令的软件(例如,程序140)。例如,在处理器的控制下,所述机器(例如,电子装置101)的处理器(例如,处理器120)可在使用或无需使用一个或更多个其他部件的情况下调用存储在存储介质中的所述一个或更多个指令中的至少一个指令并运行所述至少一个指令。这使得所述机器能够操作用于根据所调用的至少一个指令执行至少一个功能。所述一个或更多个指令可包括由编译器产生的代码或能够由解释器运行的代码。可以以非暂时性存储介质的形式来提供机器可读存储介质。其中,术语“非暂时性”仅意味着所述存储介质是有形装置,并且不包括信号(例如,电磁波),但是该术语并不在数据被半永久性地存储在存储介质中与数据被临时存储在存储介质中之间进行区分。
根据实施例,可在计算机程序产品中包括和提供根据本公开的各种实施例的方法。计算机程序产品可作为产品在销售者和购买者之间进行交易。可以以机器可读存储介质(例如,紧凑盘只读存储器(CD-ROM))的形式来发布计算机程序产品,或者可经由应用商店(例如,Play StoreTM)在线发布(例如,下载或上传)计算机程序产品,或者可直接在两个用户装置(例如,智能电话)之间分发(例如,下载或上传)计算机程序产品。如果是在线发布的,则计算机程序产品中的至少部分可以是临时产生的,或者可将计算机程序产品中的至少部分至少临时存储在机器可读存储介质(诸如制造商的服务器、应用商店的服务器或转发服务器的存储器)中。
根据各种实施例,上述部件中的每个部件(例如,模块或程序)可包括单个实体或多个实体。根据各种实施例,可省略上述部件中的一个或更多个部件,或者可添加一个或更多个其他部件。可选择地或者另外地,可将多个部件(例如,模块或程序)集成为单个部件。在这种情况下,根据各种实施例,该集成部件可仍旧按照与所述多个部件中的相应一个部件在集成之前执行一个或更多个功能相同或相似的方式,执行所述多个部件中的每一个部件的所述一个或更多个功能。根据各种实施例,由模块、程序或另一部件所执行的操作可顺序地、并行地、重复地或以启发式方式来执行,或者所述操作中的一个或更多个操作可按照不同的顺序来运行或被省略,或者可添加一个或更多个其他操作。
尽管已经参照本公开的各种实施例示出和描述了本公开,但是本领域技术人员将理解,可以在不脱离本公开的如所附权利要求及其等同物定义的精神和范围的情况下在形式和细节上进行各种改变。

Claims (15)

1.一种电子设备,所述电子设备被配置为与外部设备共享单个电话号码,所述电子设备包括:
显示器;
通信电路;
处理器,所述处理器可操作地连接到所述显示器和所述通信电路;以及
存储器,所述存储器可操作地连接到所述处理器,并被配置为存储多个呼叫日志且存储指令,所述指令在由所述处理器执行时,使所述处理器:
控制所述通信电路经由所述电话号码接收呼叫请求;
响应于停止接收所述呼叫请求,控制所述通信电路向服务器发送与未接呼叫相关联的第一呼叫日志;
控制所述通信电路从所述服务器接收关于所述第一呼叫日志的发送的第一响应信号;
基于所述第一响应信号,将所述第一呼叫日志存储在所述存储器中;
控制所述通信电路从所述服务器接收推送信号,其中,所述推送信号由所述服务器基于从所述外部设备接收到的并且由所述外部设备基于所述呼叫请求而生成的第二呼叫日志生成;以及
基于所述推送信号,更新存储在所述存储器中的所述第一呼叫日志。
2.根据权利要求1所述的电子设备,其中,所述第二呼叫日志包括多个呼叫处理结果之一,所述呼叫处理结果包括:呼叫应答、用户的呼叫拒绝、自动呼叫拒绝、其他电子设备的呼叫应答和其他电子设备的呼叫拒绝。
3.根据权利要求1所述的电子设备,其中,所述存储器还存储指令,所述指令在由所述处理器执行时,使所述处理器:
通过所述显示器显示用户界面,所述用户界面包括与存储在所述存储器中的所述第一呼叫日志相对应的呼叫日志界面;以及
基于从存储在所述存储器中的所述第一呼叫日志改变为所述第二呼叫日志,将与所述呼叫日志界面中包含的呼叫处理结果相关联的符号改变为与所述第二呼叫日志相对应的符号。
4.根据权利要求1所述的电子设备,其中,所述存储器还存储指令,所述指令在由所述处理器执行时,使所述处理器:
基于用户输入,提供呼叫功能作为对所述呼叫请求的响应;
基于所述呼叫功能终止,向所述服务器发送与呼叫应答相关联的第三呼叫日志;
从所述服务器接收关于所述第三呼叫日志的发送的第二响应信号;以及
基于所述第二响应信号,将存储在所述存储器中的所述第一呼叫日志改变为所述第三呼叫日志。
5.根据权利要求4所述的电子设备,其中,所述存储器还存储指令,所述指令在由所述处理器执行时,使所述处理器:
通过所述显示器显示用户界面,所述用户界面包括与存储在所述存储器中的所述第一呼叫日志相对应的呼叫日志界面;以及
基于从存储在所述存储器中的所述第一呼叫日志改变为所述第三呼叫日志,将与所述呼叫日志界面中包含的呼叫处理结果相关联的符号改变为与所述第三呼叫日志相对应的符号。
6.一种用于同步多个电子设备的呼叫日志的服务器,所述多个电子设备被配置为共享单个电话号码,所述服务器包括:
存储器,所述存储器包括存储多个呼叫日志的表;以及
处理器,所述处理器被配置为:
控制从所述多个电子设备中的一个接收与所述电话号码相关联的呼叫日志;
确定所接收到的呼叫日志与所述表中存储的所述多个呼叫日志是否具有相关性;
基于所接收到的呼叫日志具有相关性,根据预定义条件,将所接收到的呼叫日志与所述表的所存储的呼叫日志合并,以基于合并结果来更新所述表的所存储的呼叫日志;
基于所接收到的日志不具有相关性,将所接收到的呼叫日志重新存储在所述表中,以更新所述表的所存储的呼叫日志;以及
控制向所述多个电子设备发送所述表的更新结果。
7.根据权利要求6所述的服务器,其中,
所述多个呼叫日志中的每一个均包含设备标识信息、呼叫伙伴信息、时间信息或呼叫处理结果,并且
基于包含(i)与所接收到的呼叫日志的所述呼叫伙伴信息相同的呼叫伙伴信息和(ii)从所述表中存在的所接收到的呼叫日志的时间信息起的特定时间范围内的时间信息的呼叫日志,所述处理器被配置为确定所接收到的呼叫日志具有相关性。
8.根据权利要求7所述的服务器,其中,所述呼叫处理结果包括:未接呼叫、呼叫应答、用户的呼叫拒绝、自动呼叫拒绝、其他电子设备的呼叫应答和其他电子设备的呼叫拒绝。
9.根据权利要求7所述的服务器,其中,
所述表包括同步表和候选表,并且确定所接收到的呼叫日志与存储在所述表中的所述多个呼叫日志是否具有相关性,所述处理器被进一步配置为:
将所接收到的呼叫日志新增加到所述候选表;
从所述候选表中检索包含(i)与所接收到的呼叫日志的所述呼叫伙伴信息相同的呼叫伙伴信息和(ii)从所接收到的呼叫日志的时间信息起的特定时间范围内的时间信息的呼叫日志,作为第一预定义搜索条件;
基于从所述候选表中检索到两个或更多个呼叫日志,确定所接收到的呼叫日志具有相关性;以及
基于从所述候选表中仅检索到一个呼叫日志,确定所接收到的呼叫日志不具有相关性。
10.根据权利要求9所述的服务器,其中,所述处理器被进一步配置为:
根据基于所述第一预定义搜索条件从所述候选表中检索到两个或更多个呼叫日志,基于预定优先级,比较所检索到的呼叫日志的所述呼叫处理结果,
基于比较结果,确定所检索到的呼叫日志当中包括较高优先级的呼叫处理结果的特定呼叫日志;
基于所确定的特定呼叫日志更新所述同步表;以及
控制向所述多个电子设备发送所述同步表的更新信息。
11.根据权利要求10所述的服务器,其中,呼叫应答或用户的呼叫拒绝是具有最高优先级的所述呼叫处理结果。
12.根据权利要求9所述的服务器,其中,所述处理器被进一步配置为:
当基于所述第一预定义搜索条件从所述候选表中仅检索到一个呼叫日志时,基于预定优先级,将所接收到的呼叫日志新增加到所述同步表中,以更新存储在所述同步表中的所述多个呼叫日志;以及
控制将所述同步表的更新信息发送到所述多个电子设备。
13.根据权利要求7所述的服务器,其中,所述处理器被进一步配置为:
从候选表中检索包含(i)与所接收到的呼叫日志的所述设备标识信息相同的设备标识信息和(ii)与所接收到的呼叫日志的所述时间信息相同的时间信息的呼叫日志,作为第二预定义搜索条件;
基于从所述候选表中检索到的满足所述第二预定义搜索条件的呼叫日志,将所接收到的呼叫日志新增加到同步表中,以更新存储在所述同步表中的所述多个呼叫日志;以及
向所述多个电子设备发送所述同步表的更新信息。
14.根据权利要求13所述的服务器,其中,所述处理器被进一步配置为:
基于从所述候选表中未检索到满足所述第二预定义搜索条件的呼叫日志,确定所述接收到的呼叫日志与所述表中存储的所述多个呼叫日志是否具有相关性。
15.一种被配置为与外部设备共享单个电话号码的电子设备的操作方法,所述方法包括:
经由所述电话号码接收呼叫请求;
响应于停止接收所述呼叫请求,向服务器发送与未接呼叫相关联的第一呼叫日志;
从所述服务器接收关于所述第一呼叫日志的发送的第一响应信号;
基于所述第一响应信号,将所述第一呼叫日志存储在所述电子设备的存储器中;
从所述服务器接收推送信号,其中,所述推送信号由所述服务器基于从所述外部设备接收到的并且由所述外部设备基于所述呼叫请求而生成的第二呼叫日志生成;以及
基于所述推送信号,将存储在所述存储器中的所述第一呼叫日志改变为所述第二呼叫日志。
CN201980051172.2A 2018-08-08 2019-07-31 模糊基于深度信息组合多个图像而获得的图像的电子设备及驱动该电子设备的方法 Pending CN112602111A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020180092450A KR102525000B1 (ko) 2018-08-08 2018-08-08 복수의 이미지들이 합성된 이미지를 깊이 정보에 기반하여 흐림 처리하는 전자 장치 및 상기 전자 장치의 구동 방법
KR10-2018-0092450 2018-08-08
PCT/KR2019/009578 WO2020032473A2 (en) 2018-08-08 2019-07-31 Electronic device for blurring image obtained by combining plural images based on depth information and method for driving the electronic device

Publications (1)

Publication Number Publication Date
CN112602111A true CN112602111A (zh) 2021-04-02

Family

ID=69406079

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980051172.2A Pending CN112602111A (zh) 2018-08-08 2019-07-31 模糊基于深度信息组合多个图像而获得的图像的电子设备及驱动该电子设备的方法

Country Status (5)

Country Link
US (1) US11461910B2 (zh)
EP (1) EP3776455A4 (zh)
KR (1) KR102525000B1 (zh)
CN (1) CN112602111A (zh)
WO (1) WO2020032473A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115657265A (zh) * 2022-12-20 2023-01-31 宜昌华鑫智能光学有限公司 镜头的变焦控制方法及其系统

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3422696A4 (en) * 2016-02-24 2019-03-13 Ricoh Company, Ltd. IMAGE PROCESSING DEVICE, IMAGE PROCESSING SYSTEM AND PROGRAM
JP2020202503A (ja) * 2019-06-11 2020-12-17 キヤノン株式会社 撮像装置、コンピュータプログラムおよび記憶媒体
US11270414B2 (en) * 2019-08-29 2022-03-08 Institut Mines Telecom Method for generating a reduced-blur digital image
CN113542712A (zh) 2020-04-16 2021-10-22 钰立微电子股份有限公司 多深度信息的处理方法与处理系统
CN111768352B (zh) * 2020-06-30 2024-05-07 Oppo广东移动通信有限公司 图像处理方法及装置
CN116057451A (zh) 2020-09-03 2023-05-02 三星电子株式会社 改变显示器的设置的方法及电子装置
KR20220030806A (ko) * 2020-09-03 2022-03-11 삼성전자주식회사 디스플레이의 설정 변경 방법 및 전자 장치
US11606498B1 (en) * 2020-09-22 2023-03-14 Apple Inc. Exposure of panoramas
US11449968B2 (en) * 2020-12-31 2022-09-20 Samsung Electronics Co., Ltd. System and method for synthetic depth-of-field effect rendering for videos
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
US11831931B2 (en) 2021-04-14 2023-11-28 Microsoft Technology Licensing, Llc Systems and methods for generating high-resolution video or animated surface meshes from low-resolution images
US11849220B2 (en) * 2021-04-14 2023-12-19 Microsoft Technology Licensing, Llc Systems and methods for generating depth information from low-resolution images
KR20230023506A (ko) * 2021-08-10 2023-02-17 삼성전자주식회사 이미지 안정화를 수행하는 전자 장치 및 그의 동작 방법
KR20230039351A (ko) * 2021-09-14 2023-03-21 삼성전자주식회사 이미지에 보케 효과를 적용하는 전자 장치 및 그 동작 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101336234B1 (ko) 2007-01-12 2013-12-03 삼성전자주식회사 디지털 카메라의 화질 개선 방법
KR101442153B1 (ko) 2008-01-15 2014-09-25 삼성전자 주식회사 저조도 영상 처리 방법 및 시스템
KR101727285B1 (ko) 2010-12-28 2017-04-14 삼성전자주식회사 노이즈 변화와 움직임 감지를 고려한 영상 노이즈 필터링 방법 및 장치
US9185387B2 (en) 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
US9973672B2 (en) 2013-12-06 2018-05-15 Huawei Device (Dongguan) Co., Ltd. Photographing for dual-lens device using photographing environment determined using depth estimation
WO2015196380A1 (en) 2014-06-25 2015-12-30 Liu Chia-Yua Ultrathin endoscope auxiliary system and method of use
CN107211100B (zh) * 2014-12-29 2020-05-19 诺基亚技术有限公司 用于图像的运动去模糊的方法及装置
US10063831B2 (en) * 2015-02-09 2018-08-28 Samsung Electronics Co., Ltd. Method and apparatus for stereo image rectification
KR102434567B1 (ko) * 2015-02-09 2022-08-23 삼성전자주식회사 스테레오 영상들의 보정 방법, 및 그 방법을 수행하는 장치
KR102480600B1 (ko) 2015-10-21 2022-12-23 삼성전자주식회사 이미지 처리 장치의 저조도 화질 개선 방법 및 상기 방법을 수행하는 이미지 처리 시스템의 동작 방법
KR102446442B1 (ko) 2015-11-24 2022-09-23 삼성전자주식회사 디지털 촬영 장치 및 그 동작 방법
US9762893B2 (en) 2015-12-07 2017-09-12 Google Inc. Systems and methods for multiscopic noise reduction and high-dynamic range
CN107025660B (zh) 2016-02-01 2020-07-10 北京三星通信技术研究有限公司 一种确定双目动态视觉传感器图像视差的方法和装置
CN107635093A (zh) 2017-09-18 2018-01-26 维沃移动通信有限公司 一种图像处理方法、移动终端及计算机可读存储介质
CN108024057B (zh) 2017-11-30 2020-01-10 Oppo广东移动通信有限公司 背景虚化处理方法、装置及设备
CN107959778B (zh) * 2017-11-30 2019-08-20 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115657265A (zh) * 2022-12-20 2023-01-31 宜昌华鑫智能光学有限公司 镜头的变焦控制方法及其系统
CN115657265B (zh) * 2022-12-20 2023-06-09 宜昌华鑫智能光学有限公司 镜头的变焦控制方法及其系统

Also Published As

Publication number Publication date
EP3776455A4 (en) 2021-05-05
EP3776455A2 (en) 2021-02-17
US20200051265A1 (en) 2020-02-13
WO2020032473A2 (en) 2020-02-13
KR102525000B1 (ko) 2023-04-24
KR20200017172A (ko) 2020-02-18
US11461910B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
US11461910B2 (en) Electronic device for blurring image obtained by combining plural images based on depth information and method for driving the electronic device
US10924677B2 (en) Electronic device and method for providing notification related to image displayed through display and image stored in memory based on image analysis
US11128803B2 (en) Electronic device for correcting image and method for operating the same
US11558553B2 (en) Electronic device for stabilizing image and method for operating same
US10956774B2 (en) Electronic device for acquiring image using plurality of cameras and method for processing image using the same
US11363199B2 (en) Apparatus and method for estimating optical image stabilization motion
CN109672827B (zh) 用于组合多个图像的电子装置及其方法
CN109756763B (zh) 用于基于优先级处理图像的电子装置及其操作方法
US11107198B2 (en) Method and apparatus for incorporating noise pattern into image on which bokeh processing has been performed
CN112840634B (zh) 用于获得图像的电子装置及方法
CN113647094A (zh) 用于在视频中提供焦外成像效果的电子设备、方法和计算机可读介质
CN112840644A (zh) 利用相机或深度传感器中的至少一个获取深度信息的电子装置和方法
CN114846608A (zh) 包括图像传感器的电子设备及其操作方法
US11729513B2 (en) Electronic device and HDR image generation method therefor
CN117256157A (zh) 包括相机的电子装置
US11032462B2 (en) Method for adjusting focus based on spread-level of display object and electronic device supporting the same
US20230085017A1 (en) Electronic device and method for improving quality of image by using multiple cameras
US20230199134A1 (en) Electronic device applying bokeh effect to image and operating method thereof
US20230101888A1 (en) Electronic device performing image stabilization and operating method thereof
EP4228246A1 (en) Electronic device capable of auto-focusing and method for operating same
KR20220133630A (ko) 카메라를 포함하는 전자 장치 및 그 제어 방법
CN118118784A (zh) 用于使图像稳定化的电子装置及其操作方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210402