CN113056906A - 用于拍摄类长焦图像的系统和方法 - Google Patents
用于拍摄类长焦图像的系统和方法 Download PDFInfo
- Publication number
- CN113056906A CN113056906A CN201880099631.XA CN201880099631A CN113056906A CN 113056906 A CN113056906 A CN 113056906A CN 201880099631 A CN201880099631 A CN 201880099631A CN 113056906 A CN113056906 A CN 113056906A
- Authority
- CN
- China
- Prior art keywords
- image
- background
- foreground
- original image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000000694 effects Effects 0.000 claims abstract description 6
- 238000002156 mixing Methods 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 8
- 238000012790 confirmation Methods 0.000 claims description 7
- 238000003672 processing method Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 abstract description 8
- 230000003287 optical effect Effects 0.000 description 21
- 230000002093 peripheral effect Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 201000009310 astigmatism Diseases 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000010977 jade Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
Abstract
本公开介绍了一种智能手机,该智能手机在没有任何附加工具的情况下提供了新的拍摄类长焦图像(例如自拍照)的相机体验。从原始图像开始,智能手机从原始图像中裁剪出前景图像和背景图像。接下来,智能手机放大背景图像并向其中添加散景。智能手机随后将前景图像与背景图像混合,以为最终图像创建类长焦的效果。
Description
技术领域
本公开大体涉及用于图像处理的系统和方法。具体地,本公开涉及智能手机及在其上操作以拍摄类长焦(telephoto-like)图像的方法。
背景技术
在许多情况下,人们使用具有长焦距的相机拍摄肖像照片。如图1A所示,由长焦距相机拍摄的典型照片包括模糊的背景和清晰对焦的对象。通过模糊背景,这类照片突出主体,因此可以充分表达。出于这个原因,长焦距图像或长焦图像(telephoto image)已经成为许多人最喜欢的图像。
与使用自拍装置或远程拍摄的照片相反,自拍照是自拍照片(self-portraitphotograph)。通常使用智能手机拍摄。为了拍摄自拍照,用户通常手持智能手机或通过自拍杆用智能手机的前置相机拍摄自拍照片。
因为自拍照是在以一臂距离手持相机的情况下拍摄的,所以前置相机必须具有短焦距镜头以使用户的面部清晰地对焦。图1B示出了智能手机的典型的短焦距前置相机。除了大而清晰对焦的面部外,照片中的背景对象通常尺寸小且具有少量的散景(bokeh)(即模糊)。这在某些场景中限制了各种摄影表达,因此对许多人是不利的。
因此,强烈需要提供一种使用智能手机内置的普通短焦距相机拍摄类长焦图像的技术方案。
发明内容
本公开的一个方面涉及用于创建类长焦自拍照的系统和方法。
根据本公开的一个方面,一种用于图像处理的电子设备可包括:一个或多个存储介质,其存储有用于图像处理的指令集;和一个或多个处理器,其与至少一个存储介质通信,其中当执行指令集时,一个或多个处理器执行以下操作:获得原始图像;获得原始图像的目标前景图像;获得原始图像的目标背景图像;通过将预定数量的散景效果添加到目标背景图像来修改背景图像;以及通过混合目标前景图像与修改后的目标背景图像来生成目标图像。
根据本公开的另一方面,一种图像处理方法可包括:电子设备的处理器获得原始图像;电子设备的处理器获得原始图像的目标前景图像;电子设备的处理器获得原始图像的目标背景图像;电子设备的处理器通过将预定数量的散景效果添加到目标背景图像来修改目标背景图像;以及电子设备的处理器通过混合目标前景图像与修改后的目标背景图像来生成目标图像。
附图说明
根据示例性实施例进一步描述本公开。在以下详细描述中结合附图理解,本公开的实施例的前述和其它方面将变得更加明显。
图1A示出了由长焦距相机拍摄的典型照片;
图1B示出了由智能手机的短焦距前置相机拍摄的典型照片;
图2示出了根据一些实施例的具有触敏显示器的便携式设备的框图;
图3示出了根据一些实施例的使用便携式设备拍摄类长焦图像的过程;
图4A示出了根据一些实施例从图像中裁剪出目标前景图像的过程;
图4B示出了根据一些实施例从图像中裁剪出目标背景图像的过程;
图5示出了根据一些实施例的使用便携式设备创建类长焦图像的界面;和
图6示出了根据一些实施例的使用便携式设备创建类长焦图像的方法的流程图。
具体实施方式
本公开的一个方面介绍了一种智能手机,该智能手机在没有附加工具的情况下提供了新的拍摄类长焦图像(例如自拍照)的相机体验。根据本公开的方面,当用户使用智能手机利用长焦功能拍摄图像时,智能手机可以使用普通内置相机拍摄原始图像。该原始图像包括主要对象和背景场景。为了避免不规则的放大,采用了从全帧原始图像中裁剪出特定区域作为前景图像的算法。智能手机随后在原始图像中搜索背景显著分量(backgroundsaliency component),并基于该显著分量确定背景区域。智能手机随后自动从原始图像中裁剪出前景图像和背景图像,其中前景图像包括图像的主要对象,背景图像包括背景场景的显著部分。接着,智能手机自动放大背景图像并向其中添加散景。智能手机随后将前景图像与背景图像混合,以为最终图像创建类长焦的效果。
提供以下描述以使本领域的任何技术人员能够制造和使用本公开,并且在特定应用及其要求的背景下提供以下描述。对所公开的实施例的各种修改对于本领域技术人员将是显而易见的,并且在不脱离本公开的精神和范围的情况下,本申请所限定的一般原理可以应用于其它实施例和应用。因此,本公开不限于所示的实施例,而应赋予与权利要求一致的最宽范围。
还应当理解的是,尽管在本文可以使用术语“第一”、“第二”等来描述各种元件,但是这些元件不应被这些术语所限制。这些术语仅用于区分一个元件与另一个元件。例如,在不脱离本发明的范围的情况下,第一触点可以被称为第二触点,并且类似地,第二触点可以被称为第一触点。第一触点和第二触点都是触点,但是它们不是相同的触点。
本文所使用的术语的目的仅是为了描述特定的示例性实施例,而不是意在进行限制。如本文所用的,单数形式的“一个”、“一种”和“所述”也可用于包括复数形式,除非上下文另有明确指示。还应进一步理解,术语“包含”、“含有”、“可以包括”和/或“包括”当在本说明书中使用时,指定所述特征、整数、步骤、操作、元件和/或组件的存在,但不排除一个或多个其它的特征、整数、步骤、操作、元件、组件和/或其群组的存在或添加。
如本文所用的,术语“如果”可根据上下文被解释为表示“当”或“一旦”或“响应于确定”或“响应于检测”。类似地,短语“如果确定”或“如果检测到(所述条件或事件)”可根据上下文解释为表示“在确定时”或“响应于确定”或“在检测到(所述条件或事件)时”或“响应于检测到(所述条件或事件)”。
如本文所使用的,程序、指令和数据被存储在预定的数据结构中。例如,数据结构可以包括字节的第一部分、第二部分和第三部分。第二部分可以包括数据所涉及的内容。例如,对于存储在存储介质中的图像,其内容数据可以是图像的实质内容。对于指令,内容可以是与该指令相对应的命令的实质内容。数据的第三部分可以是指针末端,指针头可以指向下一数据字节的第一部分。数据的第一部分可以是指针头,其中指针末端可以连接到另一数据字节的第三数据部分。
本公开的这些和其他特征和特性、相关结构元件的操作方法和功能、以及部件的组合和制造的经济性,在考虑以下参考附图进行的描述之后将变得更加明显,所有附图构成本说明书的一部分。然而,应当清楚地理解,附图的目的仅仅是为了说明和描述,而不是为了限制本公开的范围。应当理解,附图未按比例绘制。
本公开中使用的流程图示出了根据本公开中的一些实施例的系统实现的操作。应当清楚地理解,该流程图的操作可以按顺序实现或可以不按顺序实现。相反地,这些操作可以以相反的顺序或同时实现。此外,可以将一个或多个其它操作添加到流程图中。可以从流程图中删除一个或多个操作。
此外,尽管本公开中的系统和方法主要是针对诸如智能手机之类的便携式电子设备来描述的,但是还应该理解,这仅是本公开中所介绍的系统和方法的示例性实现。在提交本申请时,本领域的普通技术人员应理解,本公开中的系统和方法还可以在具有相机系统的其它电子设备中实现,例如网络摄像机、内置在膝上型计算机中的膝上型相机、内置在台式计算机中的台式相机、内置在膝上型计算机中的相机、内置在智能手表中的相机,或具有内置相机的任何其它便携式设备。
图2是示出根据一些实施例的上述电子设备的框图。例如,电子设备可以是便携式多功能设备200。
便携式设备200可以包括一个或多个处理器220(例如,CPU和/或GPU)、存储器控制器222、存储器202、外围设备接口218、电源系统262以及连接到外围设备接口218的多个外围组件。在一些实施例中,外围设备接口218、一个或多个CPU 220和存储控制器222可以在单个芯片上实现,例如芯片204。在一些其它实施例中,上述组件可以在不同芯片上实现。
电源系统262可以向设备200中的各个组件(例如一个或多个CPU 220、存储控制器222、存储器202、外围设备接口218、电源系统262和连接到外围设备接口218的多个外围组件)提供电力。电源系统262可以包括电源管理系统、一个或多个电源(例如,电池、交流电(Alternating Current,AC))、再充电系统、电源故障检测电路、电源转换器或逆变器、电源状态指示器(例如发光二极管(Light-Emitting Diode,LED))以及与便携式设备中的电力的产生、管理和分配相关联的任何其它组件。
外围组件可以包括外部端口224、RF电路208、音频电路210、扬声器211、麦克风213、加速度计268和I/O子系统206。
射频(Radio Frequency,RF)电路208可以接收和发送RF信号,RF信号也称为电磁信号。RF电路208可以将电信号转换为电磁信号/将电磁信号转换为电信号,并且可以经由电磁信号与通信网络和其它通信设备进行通信。RF电路208可以包括用于执行这些功能的众所周知的电路,包括但不限于天线系统、RF收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、CODEC芯片组、用户识别模块(Subscriber Identity Module,SIM)卡以及存储器等。RF电路208可以通过无线通信与网络如因特网,也称为万维网(WorldWide Web,WWW)、内联网和/或无线网络如蜂窝电话网络、无线局域网(Local AreaNetwork,LAN)和/或城域网(Metropolitan Area Network,MAN)以及其它设备进行通信。无线通信可以使用多种通信标准、协议和技术中的任何一种,包括但不限于全球移动通信系统(Global System for Mobile Communications,GSM)、增强型数据GSM环境(EnhancedData GSM Environment,EDGE)、高速下行分组接入(High-Speed Downlink PacketAccess,HSDPA)、高速上行分组接入(High-Speed Uplink Packet Access,HSUPA)、演进、仅数据(Evolution,Data-Only,EV-DO)、HSPA、HSPA+、双小区HSPA(Dual-Cell HSPA,DC-HSPDA)、长期演进(Long Term Evolution,LTE)、近场通信(Near Field Communication,NFC)、宽带码分多址(Wideband Code Division Multiple Access,W-CDMA)、码分多址(Code Division Multiple Access,CDMA)、时分多址(Time Division Multiple Access,TDMA)、蓝牙、无线局域网(Wireless Fidelity,Wi-Fi)(例如,IEEE 802.11a、IEEE802.11ac、IEEE 802.11ax、IEEE 802.11b、IEEE 802.11g和/或IEEE 802.1in)、因特网协议语音(Voice Over Internet Protocol,VoIP)、Wi-MAX、电子邮件协议(例如因特网信息存取协议(Internet Message Access Protocol,IMAP)和/或邮局协议(Post OfficeProtocol,POP))、即时通讯(例如可扩展消息传递和存在协议(Extensible Messaging AndPresence Protocol,XMPP)、用于即时消息传递和在线状态扩展的会话启动协议(SessionInitiation Protocol for Instant Messaging and Presence Leveraging Extensions,SIMPLE),即时消息收发和存在服务(Instant Messaging and Presence Service,IMPS))和/或短消息业务(Short Message Service,SMS),或任何其它合适的通信协议,包括截止本申请提交时尚未开发的通信协议。
音频电路210、扬声器211和麦克风213可以提供用户和设备200之间的音频接口。
I/O子系统206可以耦接设备200上的输入/输出外围设备。例如,I/O子系统206可以将外围设备接口218与显示控制器256、光学传感器控制器258和其他输入控制器260耦接。上述控制器可以从其相应的控制设备接收电信号/向其相应的控制设备发送电信号。例如,显示控制器256可以电连接到触敏显示系统212;光学传感器控制器258可以电连接到光学传感器264;并且其他输入控制器260可以电连接到其他输入或控制设备216。
触敏显示系统212可以提供设备200和用户之间的输入接口和输出接口。在一些实施例中,触敏显示系统212可以是设备200的触敏屏幕。显示控制器256可以从触敏显示系统212接收电信号和/或将电信号发送到触敏显示系统212。触敏显示系统212可以向用户显示可视化输出。可视化输出可选地可以包括图形、文本、图标、视频及其任意组合(统称为“图形”)。在一些实施例中,可视化输出中的一些或全部对应于用户界面对象。
触敏显示系统212可以具有基于触觉和/或触感接触接受来自用户的输入的触敏表面、传感器或传感器组。触敏显示系统212和显示控制器256(连同存储器202中的任何相关模块和/或指令集)可以检测触敏显示系统212上的接触(以及该接触的任何移动或断开)并将所检测到的接触转换成与显示在触敏显示系统212上的用户界面对象(例如,一个或多个软键、图标、网页或图像)的交互。在示例性实施例中,触敏显示系统212和用户之间的接触点对应于该用户的手指或手写笔。
触敏显示系统212和显示控制器256可以使用现在已知或以后开发的多种触摸感测技术中的任何一种来检测接触及该接触的任何移动或断开,这些技术包括但不限于电容、电阻、红外和表面声波技术以及用于确定与触敏显示系统212的一个或多个接触点的其它接近传感器阵列或其它元件。在示例性实施例中,使用了投影互电容感测技术,例如在OPPOTM智能手机中的技术。
设备200还可以包括一个或多个加速度计268。图1A示出了与外围设备接口218耦接的加速度计268。可替代地,加速度计268也可以与I/O子系统206中的输入控制器260耦接。在一些实施例中,可以基于对从一个或多个加速度计接收到的数据的分析,以纵向视图或横向视图在触摸屏显示器上显示信息。除了加速度计268之外,设备200还可以包括磁力计(未示出)和用于获得关于设备200的位置和方向(例如,横向或纵向)的信息的GPS(或GLONASS或其它全球导航系统)接收器(未示出)。
设备200还可以包括一个或多个光学传感器264。图1示出了与I/O子系统206中的光学传感器控制器258耦接的光学传感器。一个或多个光学传感器264可以是一个或多个内置相机,其包括一个或多个透镜和电荷耦合器件(Charge-Coupled Device,CCD)或互补金属氧化物半导体(Complementary Metal-Oxide Semiconductor,CMOS)光电晶体管。光学传感器264可以接收来自环境通过一个或多个透镜投射的光,并将光转换为表示图像的数据。结合成像模块243(也称为相机模块),光学传感器264可以捕获静态图像和/或视频。在一些实施例中,光学传感器位于设备200的背面,与设备正面的触敏显示系统212相对,使得触摸屏能够用作静态和/或视频图像采集的取景器。在一些实施例中,另一光学传感器可以位于设备的前面,以便获得用户的图像(例如,用于自拍、用于视频会议时用户在触摸屏上观看其他视频会议参与者等)。
存储器202可以包括大容量存储器、可移除存储器、易失性读写存储器、只读存储器(Read-Only Memory,ROM)等或其任意组合。例如,该大容量存储器可以包括磁盘、光盘、固态硬盘等。可移除存储器可以包括闪存驱动器、软盘、光盘、内存卡、压缩磁盘、磁带等。易失性读写存储器可以包括随机存取存储器(Random-Access Memory,RAM)。RAM可以包括动态RAM(Dynamic RAM,DRAM)、双倍数据率同步动态RAM(Double Date Rate SynchronousDynamic RAM,DDR SDRAM)、静态RAM(Static RAM,SRAM)、晶闸管RAM(Thyristor RAM,T-RAM)和零电容器RAM(Zero-Capacitor RAM,Z-RAM)等。ROM可以包括掩膜ROM(Mask ROM,MROM)、可编程ROM(Programmable ROM,PROM)、可擦除可编程ROM(Erasable ProgrammableROM,EPROM)、电可擦除可编程ROM(Electrically Erasable Programmable ROM,EEPROM)、光盘ROM(Compact Disk ROM,CD-ROM)和数字多功能盘ROM等。在一些实施例中,存储器202可存储一个或多个软件组件以执行本公开中所描述的示例性方法。例如,存储器202可以存储用于处理器的程序以处理存储在存储器202中或由处理器220从诸如内置相机之类的外围组件接收的图像数据。
在一些实施例中,一个或多个软件组件可以包括操作系统226、通信模块(或指令集)228、接触/移动模块(或指令集)230、图形模块(或指令集)232、全球定位系统(GlobalPositioning System,GPS)模块(或指令集)235和应用程序(或指令集)236。
操作系统(operating system,OS)226(例如,ANDROID、iOS、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS,或诸如VxWorks之类的嵌入式操作系统)可以包括用于控制和管理一般系统任务(例如,内存管理、存储设备控制、电源管理等)的各种软件组件和/或驱动程序,并促进各种硬件与软件组件之间的通信。
通信模块228可以促进通过一个或多个外部端口224与其它设备的通信,并且还可以包括用于处理由RF电路208和/或外部端口224接收到的数据的各种软件组件。外部端口224(例如,通用串行总线(Universal Serial Bus,USB),火线接口等)可以适用于直接耦接到其它设备或通过网络(例如,因特网、无线LAN等)间接耦接。在一些实施例中,外部端口可以是与来自Oppo广东移动通信有限公司的一些OPPOTM设备中使用的连接器相同或类似和/或兼容的多引脚(例如30引脚)连接器。
接触/移动模块230可以检测与触敏显示系统212(结合显示控制器256)和其它触敏设备(例如,触摸板或物理点击轮)的接触。接触/移动模块230可以包括用于执行与(例如,通过手指或通过手写笔)检测接触相关的各种操作的各种软件组件,例如确定是否发生接触(例如检测手指按下事件),确定接触的强度(例如接触的力或压力或接触的力或压力的替代),确定接触是否移动并跟踪触敏表面上的移动(例如检测一个或多个手指拖动事件),并确定接触是否已停止(例如检测手指抬起事件或接触中断)。接触/移动模块230可以从触敏表面接收接触数据。确定由一系列接触数据表示的接触点的移动,可选地可以包括确定接触点的速率(幅度)、速度(幅度和方向)和/或加速度(幅度和/或方向的变化)。这些操作可选地应用于单个触点(例如,一个手指触点或手写笔触点)或多个同步触点(例如,“多点触摸”/多个手指触点)。在一些实施例中,接触/移动模块230和显示控制器256可以检测触摸板上的接触。
图形模块232可包括用于在触敏显示系统212或其它显示器上渲染和显示图形的各种已知软件组件,其包括用于改变所显示的图形的视觉效果(例如亮度、透明度、饱和度、对比度或其它视觉特性)的组件。如本文所使用的,术语“图形”可以包括能够显示给用户的任何对象,包括但不限于文本、网页、图标(如包括软键的用户界面对象)、数字图像、视频和动画等。
在一些实施例中,图形模块232可以存储表示待使用的图形的数据。可选地,为每个图形分配相应的代码。图形模块232可以结合光学传感器控制器258等从应用程序或光学传感器264接收一个或多个代码,该代码指定待显示的图形,如果需要,连同坐标数据和其它图形属性数据一起指定,然后生成屏幕图像数据输出到显示控制器256。
GPS模块235可以确定设备的位置并提供该信息以在各种应用程序中使用(例如,提供给电话238以供在基于位置的拨号中使用,提供给相机模块243作为图片/视频元数据以及提供给提供基于位置的服务的应用程序(例如天气预报插件、本地黄页插件和地图/导航插件))。
应用程序236可以包括以下模块(或指令集)或其子集或超集:电话模块238、用于静态和/或视频图像的相机模块243、图像管理模块244以及其它应用程序。存储在存储器202中的其他应用程序236的示例可以包括其他文字处理应用程序、其他图像编辑应用程序、绘图应用程序、演示应用程序、支持JAVA的应用程序、加密、数字权限管理、语音识别和语音复制。
结合触敏显示系统212、显示控制器256、光学传感器264、光学传感器控制器258、接触模块230、图形模块232和图像管理模块244,相机模块243可以包括可执行指令以从光学传感器264(例如相机)捕获静态图像或视频(包括视频流)并将其存储到存储器202中,修改静态图像或视频的特性和/或从存储器202中删除静态图像或视频。
结合触敏显示系统212、显示控制器256、接触模块230、图形模块232和相机模块243,图像管理模块244可以包括可执行指令以布置、修改(例如编辑)或以其他方式操作、标记、删除、演示(例如在数字幻灯片或相册中)并存储静态和/或视频图像。
以上标识的模块和应用程序中的每个可以对应于用于执行上述一个或多个功能以及本申请中所描述的方法(例如本文所述的计算机实现的方法和其它信息处理方法)的一组可执行指令。这些模块(即指令集)不需要被实现为单独的软件程序、过程或模块,因此,在各种实施例中,这些模块的各个子集可选地被组合或以其他方式重新排列。在一些实施例中,存储器202可以存储以上标识的模块和数据结构的子集。此外,存储器202可选地存储以上未描述的附加模块和数据结构。
此外,设备200的上述组件可以通过一个或多个通信总线或信号线203进行通信。
应该理解,设备200仅是便携式多功能装置的一个实例,且设备200可具有比所示更多或更少的组件、可组合两个或更多的组件或可选地具有所述组件的不同配置或布置。图2中所示的各个组件以硬件、软件、固件或及其组合实现,包括一个或多个信号处理和/或专用集成电路。
图3示出了根据一些实施例的使用设备200拍摄类长焦图像的过程。仅出于说明目的,下述使用智能手机作为设备200的实例。因此,为了进行该过程,设备200的处理器220可以运行图像管理模块244的指令集和相机模块243的指令集执行以下操作:
首先,处理器220可以执行相机模块243以从光学传感器264获得原始图像310。
在一些实施例中,光学传感器264可以是智能手机的相机。在图3中,原始图像可以是具有河流和河岸附近的几个建筑物的背景场景的男士自拍照。因此,原始图像310可以包括前景场景和背景场景。前景场景可以是更靠近相机的场景。前景场景可以包括由相机清晰对焦的主要对象(main subject)。例如,在图3中,主要对象可以是原始图像310中的男士。背景场景中也可以存在一个或少数对象以形成一个或几个显著部分。例如,在图3中,少数对象可以是原始图像310中的河岸附近的建筑物。在一些实施例中,因为相机264具有短焦距,所以背景中的对象尺寸可能较小,并且具有少量散景。
在拍摄原始图像之后,智能手机200可以在智能手机200的触摸屏即显示系统212上显示原始图像。还可以在触摸屏212上显示编辑原始图像的几个选项。在一些实施例中,一个选项可以是将原始短焦距图像转换为类长焦图像的图标。当用户触摸显示器上显示的图标时,智能手机的一个或多个处理器220可以操作相应的指令集以自动执行以下操作:步骤1,处理器220可以从原始图像获得目标前景图像。步骤2,处理器220可以从原始图像获得目标背景图像。步骤3,处理器220可以按照第一预定方案放大目标前景图像,并且可以按照第二预定方案放大和添加蓝色(散景)到目标背景图像。步骤4,处理器220可以将目标前景图像和目标背景图像混合以生成类长焦的目标图像。
在步骤1中,为了分解原始图像,处理器220可以首先对原始图像310进行裁剪来获得目标前景图像340。
为此,处理器220可以首先在原始图像310上确定前景裁剪框417,然后裁剪掉原始图像310在前景裁剪框417之外的内容。原始图像310的剩余图像是第一裁剪区域320。随后处理器220可以将前景掩膜应用到第一裁剪区域以获得目标前景图像。
图4A示出了根据一些实施例从原始图像310获得第一裁剪区域320的过程。从原始全色图像310开始,处理器220可以基于原始图像310生成景深图412。景深图是包含与场景对象的表面距视点(即相机264)的距离有关的信息的图像。智能手机200可以使用如飞行时间(Time-of-Flight,TOF)传感器、立体照相机或结构化光等的各种装置来获得景深图。本文使用的景深图是灰度图像。因此,景深图可以包括具有不同灰度级的多个区域。目标越靠近相机,其在景深图中的对应区域越暗。比阈值灰度级值更暗的区域可以属于足够接近相机的对象,并且可以被识别为前景的一部分。比阈值灰度级值亮的区域可以属于离相机足够远的对象,并且可以被识别为背景的一部分。
接下来,智能手机可以使用景深图来识别原始图像的前景中的目标对象。目标对象可以是原始图像主要想要表达的对象。在一些实施例中,目标对象可以处于锐聚焦(sharp focus)。例如,处理器220可以基于景深图的灰度级值识别主要对象(例如,图4A中的男士)。为了识别目标对象和前景,智能手机可以使用阈值灰度级值来从景深图中分离出前景层和背景层。例如,如果智能手机使用主要对象的轮廓的灰度级,则智能手机可以从原始图像中准确地识别前景区域以包括主要对象的轮廓以及比主要对象更靠近相机的其他对象。以图4A作为示例,由于原始图像是男士的自拍照,所以前景分量包括男子的轮廓和/或外形。在前景区域中具有有效的主要对象轮廓和/或外形的情况下,处理器220可以将前景区域转换为前景二值图416,其中属于前景的部分是白色或透明的,而所有其他部分是黑色的。
处理器220接下来可以识别前景图像中的目标对象的第一几何标志点。处理器220可以首先识别和/或提取主要对象的关键部分。例如,图4A的原始图像310中的主要对象的关键部分是男士的头部。在识别和/或提取该主要对象的关键部分(例如,男士的头部)之后,处理器220可以确定和/或识别关键部分的一些标志点。例如,处理器220可以将头部顶点A、脸部的最左侧点B、脸部的最右侧点C、颈部的最左侧点D和颈部的最右侧点E确定为男士的头部的标志点,并记录它们各自在图像(例如在原始图像中,在前景二值图中等)中的坐标。处理器220可以在下一步骤中选择标志点中的至少一个作为目标对象的第一几何标志点。
接下来,处理器220可以确定原始图像上的第一裁剪区域。例如,第一裁剪区域可以是矩形,其具有四个边界。为此,处理器220可以在前景二值图上确定满足以下标准的前景裁剪框417:(1)前景裁剪框417可以包括目标对象;(2)前景裁剪框417的长宽比可以与原始图像310的长宽比相同;以及(3)前景裁剪框417与目标对象的至少一个几何标志点(A、B、C和/或D)相接(即,使用至少一个几何标志点的坐标来确定裁剪区域)。例如,在图4A中,前景裁剪框417包括男士的头部,并且脸部的最右侧点C在前景裁剪框417的右边界线上。处理器220可以将前景裁剪框417应用到前景二值图418,保留裁剪区域417中的内容(内容I)并裁剪掉在前景二值图的剩余区域(截剪区域)中的内容(内容II),以生成前景掩膜320。如本文所使用的,前景掩膜320可以是阿尔法混合掩膜(alpha blending mask)。接下来,处理器220可以将前景裁剪框417应用到原始图像310。前景裁剪框417中的图像可以是第一裁剪区域。为了获得第一裁剪区域320,处理器220可以裁剪掉原始图像310在前景裁剪框417之外的所有内容。
回到图3,在获得第一裁剪区域320之后,处理器220可以继续以获得目标前景图像340。为此,处理器220可以在第一裁剪区域320上应用前景掩膜420和/或将第一裁剪区域320与前景掩膜420混合。在一些实施例中,前景掩膜420可以是阿尔法混合掩膜。因为前景掩膜420是二值图,其中目标对象的形状是白色或透明的而所有其它区域是黑色的,所以将前景掩膜与第一裁剪区域混合可以过滤掉第一裁剪区域320中的所有内容并且仅保留在目标对象形状内的内容。如图3所示,目标前景图像340可以仅具有保留的男士的细节。
在步骤2中,在获得目标前景图像340之后、同时或之前,处理器220可以从原始图像获得目标背景图像。
为此,处理器220可以从图像420出发确定图像420中的背景裁剪框427,然后裁剪掉图像420在前景裁剪框417之外的内容。原始图像310的剩余图像是第二裁剪区域330。然后处理器220可以将背景掩膜应用到第二裁剪区域以获得目标背景图像。
图像420可以是原始图像310。或者由于处理器220只需要背景信息,为了节省电子设备200的计算资源,处理器220可以将来自原始图像310的裁剪图像用作图像420。例如,处理器220可以从至少一个几何标志点A、B、C和/或D的一侧裁剪掉所有内容,图像420可以是来自原始图像310的裁剪图像。在图4B中,图像420可以是剪裁掉标志点C右侧的所有内容的原始图像310。
图4B示出了根据一些实施例从图像420获得第二裁剪区域330的过程。从原始全色图像420开始,处理器220可以基于图像420生成显著图(saliency map)422。显著性是图像分割的一种类型。显著图是显示每个像素唯一质量的图像。例如,如果像素在彩色图像中具有高灰度级或其它独特的色彩质量,则该像素的质量将以明显的方式显示在显著图中。显著图的结果是从图像中提取的轮廓集。区域中的每个像素在某些特性或计算的属性如颜色、强度或纹理方面都是相似的。因此,处理器220可以使用显著图来识别图像420的背景中的重要特征和/或对象。
接下来,处理器220可以生成用于图像420的背景掩膜424。例如,处理器220生成用于图像420的景深图,并使用与在步骤1中引入的分离前景和背景相同的方法,处理器220可以分解图像420以获得二值化背景掩膜424。与图4A中所示的前景掩膜不同,背景掩膜424的背景区域可以是白色或透明的,而背景掩膜424的前景区域可以是黑色的。在一些实施例中,背景掩膜424可以是阿尔法混合掩膜。通过将背景掩膜424与显著图422混合,处理器220可以获得仅具有背景显著性的修改后的显著图426。在图4G中,修改后的显著图显示了河堤附近的背景建筑物的轮廓特征(如圆圈所示)。
接下来,处理器220可以确定图像420上的第二裁剪区域。例如,第二裁剪区域可以是具有四个边界的矩形。为此,处理器220可以在背景二值图424上确定满足以下一个或多个标准的背景裁剪框427:(1)背景裁剪框可以包括与所有或大部分显著性相对应的背景对象;(2)背景裁剪框的长宽比可以与原始图像310的长宽比相同;(3)背景裁剪框可以与目标对象的至少一个几何标志点(A、B、C和/或D)相接(即,使用至少一个几何标志点的坐标确定裁剪区域);以及(4)背景裁剪框427中的前景主要对象可以不多于第一裁剪区域320的主要对象。例如,由于背景裁剪框427可用于确定第二裁剪区域,该第二裁剪区域随后与第一裁剪区域混合,因此对于背景裁剪框的所有可能位置,本文所介绍的方法可选择具有主要对象的一个较小部位以避免混合过程中的潜在缺陷和/或问题。例如,在图4G中,背景裁剪框427包括背景建筑物,并且面部的最左侧点B在背景裁剪框427的右边界线上。
接下来,处理器220可以将背景裁剪框427应用到图像420。背景裁剪框427中的图像可以是第二裁剪区域330。为了获得第二裁剪区域330,处理器220可以裁剪掉图像420在背景裁剪框427之外的所有内容。
回到图3,在获得第一裁剪区域320和第二裁剪区域330之后,处理器220可以继续以获得目标前景图像340和目标背景图像350。
为了获得目标前景图像340,处理器220可以在第一裁剪区域320上应用前景掩膜420和/或将第一裁剪区域320与前景掩膜420混合。在一些实施例中,前景掩膜420可以是阿尔法混合掩膜。因为前景掩膜420是二值图,其中目标对象的形状是白色或透明的而所有其它区域是黑色的,所以将前景掩膜与第一裁剪区域混合可以过滤掉第一裁剪区域320中的所有内容并且仅保留在目标对象的形状内的内容。如图3所示,目标前景图像340可以仅具有保留的男士的细节。
为了获得目标背景图像350,处理器220可以在第二裁剪区域330上应用背景掩膜420’和/或将第二裁剪区域330与背景掩膜420’混合。在一些实施例中,背景掩膜420’可以是前景掩膜420的反掩膜(inversed mask),即前景掩膜420中的黑色和白色/透明区域与背景掩膜420’中的黑色和白色/透明区域相反。背景掩膜420’可以是阿尔法混合掩膜。因为背景掩膜420’是二值图,其中目标对象的形状是黑色的而所有其他区域是白色/透明的,所以将背景掩膜与第二裁剪区域330混合可以保留第二裁剪区域330中的所有其他内容,并且过滤掉目标对象轮廓内的内容,如图3所示。
在步骤3中,处理器220可以按照第一预定方案放大目标前景图像,并且可以按照第二预定方案放大目标背景图像并添加蓝色(散景)到目标背景图像中。
例如,在将第一裁剪区域320与前景掩膜420混合之前,处理器220可以将第一裁剪区域320放大到与原始图像相同的尺寸,而不改变或增加对象的锐度(sharpness)。或者,处理器220可在将第一裁剪区域320与前景掩膜420混合之后放大目标前景图像340,而不改变或增加目标对象的锐度。
处理器220可以在将第二裁剪区域330与背景掩膜420’混合之前,将第二裁剪区域330放大到与原始图像相同的尺寸并且将散景(模糊背景场景)添加到第二裁剪区域330。或者,处理器220可以在将第二裁剪区域330与背景掩膜420’混合之后,放大目标背景图像350并且将散景(模糊背景场景)添加到第二裁剪区域350。添加到背景图像的散景量可以是类似于普通人的长焦图像的背景。
在步骤4中,处理器220可以将目标前景图像340和目标背景图像350混合以生成和/或创建类长焦型的目标图像350。目标前景图像340和目标背景图像350彼此相反,即,目标前景图像340为黑色的部分,目标背景图像350在其中具有内容;目标前景图像340在其中具有内容的部分,目标背景图像350是黑色的。此外,因为目标背景图像中的对象都被放大和模糊化,所以混合后的图像(目标图像)类似于长焦图像。
上述实施例中的智能手机200自动选择前景裁剪框417和背景裁剪框427。在一些实施例中,智能手机还可以向其用户提供手动选择前景裁剪框417和背景裁剪框427的选项。
图5示出了根据一些实施例的使用便携式设备创建类长焦图像的界面。该界面可以是在电子设备500的触摸屏510上的显示界面。电子设备500可以具有类似于设备200的结构。此外,电子设备500可以是智能手机或其它电子设备。例如,电子设备500可以是膝上型计算机、台式计算机、平板电脑、智能手表或具有内置相机的任何其它便携式设备。
在拍摄照片之前或之后,智能手机500可以在触摸屏510上显示原始图像520。
在显示原始图像520时,智能手机500(或处理器220)还可以显示前景裁剪框以在候选前景裁剪框内限定候选第一裁剪区域,其中该候选前景裁剪框530根据来自用户的第一预定指令能够在原始图像上移动。用户可以使用他/她的手指触摸候选前景裁剪框530的预定区域(例如边界),以使其在屏幕上移动。用户可以移动候选前景裁剪框530以包括理想前景对象,例如主要对象(男士),直到该理想前景对象在候选前景裁剪框530中处于满意的位置。用户随后可以通过触摸屏510确认他/她的选择。
当接收到来自用户的确认时,智能手机500(处理器220)可以将候选前景裁剪区域确定为第一剪裁区域,并且自动执行上述剩余步骤。
智能手机500(或处理器220)还可以显示背景裁剪框540以限定候选第二裁剪区域,其中候选背景裁剪框5e0根据来自用户的第二预定指令能够在原始图像520上移动。用户可以使用他/她的手指触摸候选背景裁剪框540的预定区域(例如边界),以使其在屏幕上移动。用户可以移动候选背景裁剪框540以包括理想背景对象(例如图5所示的建筑物),直到该理想背景对象在候选背景裁剪框540中处于满意的位置。用户随后可以通过触摸屏510确认他/她的选择。
当接收到来自用户的确认时,智能手机500(处理器220)可以将候选背景裁剪区域确定为第二裁剪区域,并且自动执行上述剩余步骤。
图6示出了根据一些实施例结合图5中所示的界面,使用便携式设备来创建类长焦图像的方法的流程图。该方法可以由智能手机500或智能手机500中的处理器来执行。
在步骤610中,在电子设备的屏幕上显示原始图像。
在步骤620中,显示前景和/或背景裁剪框以限定候选前景和/或背景裁剪区域,其中前景和/或背景裁剪框能够在原始图像上移动。
在步骤630中,当接收到来自用户的确认时,将候选前景和/或背景裁剪区域确定为第一裁剪区域。
至此已经描述了基本概念,对于本领域技术人员来说,在阅读了该详细的公开内容之后,可以很明显认识到,上述详细的公开内容仅旨在以示例的方式呈现,而并非是限制性的。尽管这里没有明确说明,但是可能出现各种改变、改进和修改,这些是本领域的技术人员想要的。例如,本公开的方法中的步骤可以不必完全按照所述顺序进行操作。这些步骤也可以部分地操作,和/或以本领域普通技术人员合理预期的其它组合来操作。这些改变、改进和修改旨在由本公开提出,并且在本公开的示例性实施例的精神和范围内。
此外,已使用某些术语来描述本发明的实施例。例如,术语“一个实施例”、“实施例”和/或“一些实施例”意味着结合该实施例描述的特定特征、结构或特性被包括在本公开的至少一个实施例中。因此,应当强调和理解的是在本说明书的各个部分中对“实施例”、“一个实施例”或“可选实施例”的两个或更多个引用不一定都指的是同一实施例。此外,在本公开的一个或多个实施例中,可以适当地组合特定特征、结构或特性。
此外,本领域技术人员将理解,本公开的方面可以在本文中以包括任何新的且有用的方法、机器、制造或物质的组成或其任何新的且有用的改进的多个可专利类别或上下文中的任何一个来说明和描述。因此,本发明的方面可完全由硬件、软件(包括固件、常驻软件、微代码等)、或软件和硬件的组合来实现,这些软件和硬件实现在本文中可统称为“块”、“模块”、“引擎”、“单元”、“组件”或“系统”。此外,本发明的方面可采取在其上具有计算机可读程序代码的一个或多个计算机可读介质中实施的计算机程序产品的形式。
计算机可读信号介质可以包括例如在基带中或作为载波的一部分的传播数据信号,该传播数据信号中具有计算机可读程序代码。这样的传播信号可以采用多种形式中的任何一种,包括电磁、光等或其任何合适的组合。计算机可读信号介质可以是不是计算机可读存储介质并且可以传送、传播或传输由指令执行系统、装置或设备使用或结合的程序的任何计算机可读介质。包含在计算机可读信号介质上的程序代码可以使用任何合适的介质来传输,包括无线、有线、光纤电缆、RF等或前述介质的任何适当的组合。
用于执行本发明的方面的操作的计算机程序代码可以用一种或多种编程语言的任意组合来编写,包括如Java、Scala、Smalltalk、Eiffel、JADE、EmeraId、C++、C#、VB、NET、Python等面向对象的编程语言,如“C”编程语言、Visual Basic、Fortran 1703、Perl、COBOL1702、PHP、ABAP等常规过程编程语言、如Python、Ruby和Groovy等动态编程语言或其它编程语言。程序代码可以完全在用户的计算机、部分在用户的计算机、作为独立的软件包、部分在用户的计算机、部分在远程计算机或者完全在远程计算机或服务器上执行。在后一种情况下,远程计算机可以通过任何类型的网络连接到用户的计算机,这些网络包括局域网(Local Area Network,LAN)或广域网(Wide Area Network,WAN),或者该连接可与外部计算机(例如,通过使用因特网服务提供商的因特网)连接,处于在云计算环境中或者作为诸如软件即服务(Software As A Service,SaaS)之类的业务提供。
此外,所述的处理元件或序列的顺序,或因此使用数字、字母或其它名称,并非旨在限制所要求保护的过程和方法的顺序,除非在权利要求中有所指定。尽管以上公开内容通过各种示例讨论了当前被认为是本公开的各种有用的实施例,但是应当理解,这种细节仅出于该目的,并且所附权利要求不限于所公开的实施例,相反地旨在覆盖在所公开的实施例的精神和范围内的修改和等效设置。例如,尽管上述各种组件可以在硬件设备中实现,但是也可以作为纯软件的解决方案实现,例如安装在现有服务器或移动设备上。
类似地,应当理解在本公开的实施例的上述描述中,出于简化本申请以帮助理解各种实施例中的一个或多个的目的,有时将各种特征组合在单个实施例、附图或其描述中。然而,本申请的方法不应被解释为反映以下意图:所要求保护的主题需要比在每个权利要求中明确陈述的特征更多的特征。相反,所要求保护的主题可以少于上述公开的单个实施例的所有特征。
Claims (20)
1.一种用于图像处理的电子设备,包括:
一个或多个存储介质,其存储有用于图像处理的指令集;和
一个或多个处理器,其与至少一个存储介质通信,其中当执行所述指令集时,所述一个或多个处理器执行以下操作:
获得原始图像;
获得所述原始图像的目标前景图像;
获得所述原始图像的目标前背景图像;
通过将预定数量的散景效果添加到所述目标背景图像来修改所述背景图像;和
通过混合所述目标前景图像与修改后的目标背景图像来生成目标图像。
2.根据权利要求1所述的电子设备,其中为获得所述前景图像,所述一个或多个处理器还执行以下操作:
将所述原始图像裁剪到第一裁剪区域,
生成前景掩膜并将所述前景掩膜应用到所述第一裁剪区域以过滤掉除所述前景图像外的内容;和
为获得所述背景图像,所述一个或多个处理器还执行以下操作:
将所述原始图像裁剪到第二裁剪区域,
生成背景掩膜并将所述背景掩膜应用到所述第二裁剪区域以过滤掉除所述背景图像外的内容。
3.根据权利要求2所述的电子设备,其中所述一个或多个处理器还执行以下操作:
识别所述原始图像的目标对象;
识别所述目标对象的第一几何标志点;和
确定所述原始图像中的所述第一裁剪区域以包括所述目标对象,其中所述目标对象的第一几何标志点在所述第一裁剪区域的边界线上。
4.根据权利要求2所述的电子设备,其中所述一个或多个处理器还执行以下操作:
在所述电子设备的屏幕上显示所述原始图像;
显示前景裁剪框以限定候选前景裁剪区域,其中所述前景裁剪框根据来自用户的第一预定指令能够在所述原始图像上移动;和
当接收到来自用户的确认时,将所述候选前景裁剪区域确定为第一剪裁区域。
5.根据权利要求3或4所述的电子设备,其中为获得所述前景图像,所述一个或多个处理器还执行以下操作:
将所述目标前景图像的尺寸调整为与所述原始图像的尺寸相同。
6.根据权利要求2所述的电子设备,其中所述一个或多个处理器还执行以下操作:
识别所述前景图像中的目标对象;
识别所述目标对象的第二几何标志点;
识别所述背景图像中的至少一个背景显著分量;和
确定所述原始图像中的第二裁剪区域以包括所述至少一个背景显著分量,其中所述目标对象的第二几何标志点在所述第二裁剪区域的边界线上。
7.根据权利要求6所述的电子设备,其中所述一个或多个处理器还执行以下操作:
在所述电子设备的屏幕上显示所述原始图像;
显示背景裁剪框以限定候选背景裁剪区域,其中所述背景裁剪框根据来自用户的预定指令能够在所述原始图像上移动;和
当接收到来自用户的确认时,将所述候选背景裁剪区域确定为第二剪裁区域。
8.根据权利要求6或7所述的电子设备,其中为获得所述背景图像,所述一个或多个处理器还执行以下操作:
将所述目标前景图像的尺寸调整为与所述原始图像的尺寸相同。
9.根据权利要求8所述的电子设备,其中为获得所述背景图像,所述原始图像包括作为主要对象的人,并且所述原始图像为短焦距图像。
10.根据权利要求1所述的电子设备,其中所述电子设备包括智能手机。
11.一种图像处理方法,包括:
电子设备的处理器获得原始图像;
所述电子设备的所述处理器获得所述原始图像的目标前景图像;
所述电子设备的所述处理器获得所述原始图像的目标背景图像;
所述电子设备的所述处理器通过将预定数量的散景效果添加到所述目标背景图像来修改所述目标背景图像;和
所述电子设备的所述处理器通过混合所述目标前景图像与修改后的目标背景图像来生成目标图像。
12.根据权利要求11所述的方法,其中获得所述前景图像包括:
将所述原始图像裁剪到第一裁剪区域,
生成前景掩膜并将所述前景掩膜应用到所述第一裁剪区域以过滤掉除所述前景图像外的内容;和
获得所述背景图像包括:
将所述原始图像裁剪到第二裁剪区域,
生成背景掩膜并将所述背景掩膜应用到所述第二裁剪区域以过滤掉除所述背景图像外的内容。
13.根据权利要求12所述的方法,还包括:
识别所述原始图像的目标对象;
识别所述目标对象的第一几何标志点;和
确定所述原始图像中的所述第一裁剪区域以包括所述目标对象,其中所述目标对象的第一几何标志点在所述第一裁剪区域的边界线上。
14.根据权利要求12所述的方法,还包括:
所述电子设备的所述处理器在所述电子设备的屏幕上显示所述原始图像;
显示前景裁剪框以限定候选前景裁剪区域,其中所述前景裁剪框根据来自用户的第一预定指令能够在所述原始图像上移动;和
当接收到来自用户的确认时,将所述候选前景裁剪区域确定为第一剪裁区域。
15.根据权利要求13或14所述的方法,其中获得所述前景图像还包括:
将所述目标前景图像的尺寸调整为与所述原始图像的尺寸相同。
16.根据权利要求12所述的方法,还包括:
识别所述前景图像中的目标对象;
识别所述目标对象的第二几何标志点;
识别所述背景图像中的至少一个背景显著分量;和
确定所述原始图像中的第二裁剪区域以包括所述至少一个背景显著分量,其中所述目标对象的第二几何标志点在所述第二裁剪区域的边界线上。
17.根据权利要求16所述的方法,还包括:
所述电子设备的所述处理器在所述电子设备的屏幕上显示所述原始图像;
显示背景裁剪框以限定候选背景裁剪区域,其中所述背景裁剪框根据来自用户的预定指令能够在所述原始图像上移动;和
当接收到来自用户的确认时,将所述候选背景裁剪区域确定为第二剪裁区域。
18.如权利要求16或17所述的方法,其中获得所述背景图像还包括:
将所述目标前景图像的尺寸调整为与所述原始图像的尺寸相同。
19.如权利要求18所述的方法,其中所述原始图像包括作为主要对象的人,并且所述原始图像为短焦距图像。
20.根据权利要求11所述的方法,其中所述电子设备包括智能手机。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/117542 WO2020107187A1 (en) | 2018-11-26 | 2018-11-26 | Systems and methods for taking telephoto-like images |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113056906A true CN113056906A (zh) | 2021-06-29 |
Family
ID=70852493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880099631.XA Pending CN113056906A (zh) | 2018-11-26 | 2018-11-26 | 用于拍摄类长焦图像的系统和方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113056906A (zh) |
WO (1) | WO2020107187A1 (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007266657A (ja) * | 2006-03-27 | 2007-10-11 | Fujifilm Corp | 撮影装置 |
CN101587586A (zh) * | 2008-05-20 | 2009-11-25 | 株式会社理光 | 一种图像处理装置及图像处理方法 |
CN103745456A (zh) * | 2013-12-23 | 2014-04-23 | 深圳先进技术研究院 | 一种图像分割方法及装置 |
CN105100615A (zh) * | 2015-07-24 | 2015-11-25 | 青岛海信移动通信技术股份有限公司 | 一种图像的预览方法、装置及终端 |
CN106791456A (zh) * | 2017-03-31 | 2017-05-31 | 联想(北京)有限公司 | 一种拍照方法及电子设备 |
CN107613202A (zh) * | 2017-09-21 | 2018-01-19 | 维沃移动通信有限公司 | 一种拍摄方法及移动终端 |
CN108322644A (zh) * | 2018-01-18 | 2018-07-24 | 努比亚技术有限公司 | 一种图像处理方法、移动终端以及计算机可读存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7702131B2 (en) * | 2005-10-13 | 2010-04-20 | Fujifilm Corporation | Segmenting images and simulating motion blur using an image sequence |
US9124762B2 (en) * | 2012-12-20 | 2015-09-01 | Microsoft Technology Licensing, Llc | Privacy camera |
WO2014184417A1 (en) * | 2013-05-13 | 2014-11-20 | Nokia Corporation | Method, apparatus and computer program product to represent motion in composite images |
CN105513105B (zh) * | 2015-12-07 | 2018-05-29 | 天津大学 | 基于显著图的图像背景虚化方法 |
CN107370958B (zh) * | 2017-08-29 | 2019-03-29 | Oppo广东移动通信有限公司 | 图像虚化处理方法、装置及拍摄终端 |
-
2018
- 2018-11-26 WO PCT/CN2018/117542 patent/WO2020107187A1/en active Application Filing
- 2018-11-26 CN CN201880099631.XA patent/CN113056906A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007266657A (ja) * | 2006-03-27 | 2007-10-11 | Fujifilm Corp | 撮影装置 |
CN101587586A (zh) * | 2008-05-20 | 2009-11-25 | 株式会社理光 | 一种图像处理装置及图像处理方法 |
CN103745456A (zh) * | 2013-12-23 | 2014-04-23 | 深圳先进技术研究院 | 一种图像分割方法及装置 |
CN105100615A (zh) * | 2015-07-24 | 2015-11-25 | 青岛海信移动通信技术股份有限公司 | 一种图像的预览方法、装置及终端 |
CN106791456A (zh) * | 2017-03-31 | 2017-05-31 | 联想(北京)有限公司 | 一种拍照方法及电子设备 |
CN107613202A (zh) * | 2017-09-21 | 2018-01-19 | 维沃移动通信有限公司 | 一种拍摄方法及移动终端 |
CN108322644A (zh) * | 2018-01-18 | 2018-07-24 | 努比亚技术有限公司 | 一种图像处理方法、移动终端以及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020107187A1 (en) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110100251B (zh) | 用于处理文档的设备、方法和计算机可读存储介质 | |
KR102173123B1 (ko) | 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치 | |
CN105981368B (zh) | 在成像装置中的照片构图和位置引导 | |
US9665962B2 (en) | Image distractor detection and processng | |
EP3125135A1 (en) | Picture processing method and device | |
CN106575361B (zh) | 提供视觉声像的方法和实现该方法的电子设备 | |
US20190089910A1 (en) | Dynamic generation of image of a scene based on removal of undesired object present in the scene | |
US9251404B2 (en) | Name bubble handling | |
KR101870371B1 (ko) | 사진 및 문서 통합 | |
CN107771391B (zh) | 用于确定图像帧的曝光时间的方法和装置 | |
US20150121535A1 (en) | Managing geographical location information for digital photos | |
US20180253824A1 (en) | Picture processing method and apparatus, and storage medium | |
KR20160149141A (ko) | 복수의 이미지를 디스플레이하는 전자 장치 및 이의 이미지 처리 방법 | |
US11523063B2 (en) | Systems and methods for placing annotations in an augmented reality environment using a center-locked interface | |
WO2019015522A1 (zh) | 表情图片生成方法、装置、电子设备及存储介质 | |
US20220222831A1 (en) | Method for processing images and electronic device therefor | |
WO2017107855A1 (zh) | 一种图片搜索方法及装置 | |
US11190653B2 (en) | Techniques for capturing an image within the context of a document | |
KR20190120106A (ko) | 동영상의 대표 이미지를 결정하는 방법 및 그 방법을 처리하는 전자 장치 | |
US9047795B2 (en) | Methods and devices for providing a wallpaper viewfinder | |
AU2018271418A1 (en) | Creating selective virtual long-exposure images | |
CN113273167B (zh) | 数据处理设备、方法和存储介质 | |
CN113225451A (zh) | 图像处理方法、装置和电子设备 | |
CN113056905B (zh) | 用于拍摄类长焦图像的系统和方法 | |
KR20200127928A (ko) | 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210629 |
|
RJ01 | Rejection of invention patent application after publication |