CN107613283B - 视频中的基于对象或区域的聚焦控制 - Google Patents

视频中的基于对象或区域的聚焦控制 Download PDF

Info

Publication number
CN107613283B
CN107613283B CN201710561060.4A CN201710561060A CN107613283B CN 107613283 B CN107613283 B CN 107613283B CN 201710561060 A CN201710561060 A CN 201710561060A CN 107613283 B CN107613283 B CN 107613283B
Authority
CN
China
Prior art keywords
frame
video
processor
focused
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710561060.4A
Other languages
English (en)
Other versions
CN107613283A (zh
Inventor
韩昊奭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN107613283A publication Critical patent/CN107613283A/zh
Application granted granted Critical
Publication of CN107613283B publication Critical patent/CN107613283B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Abstract

实施例涉及一种电子设备,包括:相机模块,其捕获视频;存储器;和处理器,在存储器中顺序地存储将在视频捕获期间分别聚焦在从视频中选择的多个帧区域上的多个帧中的每个帧。

Description

视频中的基于对象或区域的聚焦控制
技术领域
本公开的各种实施例通常涉及聚焦控制,并且更具体地涉及例如实时回放视频时相对于视频帧的一个或多个对象或区域来控制聚焦。
背景技术
最近开发的配备相机的电子设备能够使用多个透镜捕获多个多焦点视频。然而,在成本或功耗方面,使用多个镜头来捕获多焦点视频是低效的。
此外,这样的电子设备不允许用户在重放视频时实时改变每个视频的焦点,或者控制每个视频每帧的曝光时间或白平衡。
上述信息仅作为背景信息呈现,以帮助理解本公开。关于上述内容是否可用做本公开的现有技术,没有作出任何决定,也没有断言。
发明内容
根据本公开的实施例,电子设备可以能够实时地改变在用户回放时由用户选择的对象或区域中的捕获视频的聚焦、曝光时间和/或白平衡视频。还描述了操作电子设备的方法。
根据本公开的实施例,电子设备可以包括:相机模块,其捕获视频;存储器;和处理器,其顺序地在存储器中存储在视频捕获期间分别聚焦在从视频中选择的多个区域上的多个帧中的每个帧。
根据本公开的实施例,用于操作电子设备的方法可以包括:在捕获视频时从自相机模块获得的视频中选择多个区域,获得分别聚焦在从视频中选择的多个区域上的多个帧中的每一个,并且将多个帧中的每一个顺序地存储在存储器中。
根据本公开的实施例,电子设备可以包括:显示器;存储器,其存储聚焦在包括在视频中的第一帧区域上的第一帧和聚焦在视频中包括的第二帧区域的第二帧,第二帧与第一帧交替,且第一帧和第二帧已经以第一帧速率被捕获;以及以不同于第一帧速率的第二帧速率通过显示器使得第一帧和第二帧中的任何一个被播放的处理器。
从以下结合附图公开了本公开的示例性实施例的详细描述中,本公开的其它方面、优点和显著特征对于本领域技术人员将变得显而易见。
附图说明
通过结合附图参考下面的详细描述,可以容易地获得对本公开的更全面的了解以及许多附带的方面,其中:
图1是示出根据本公开的实施例的电子设备和网络的框图;
图2是示出根据本公开的实施例的电子设备的框图;
图3是示出根据本公开的实施例的程序模块的框图;
图4是示意性地示出根据本公开的实施例的电子设备的框图;
图5是示出根据本公开的实施例的多个帧的序列的框图;
图6A是示出根据本公开的实施例的多个帧的序列值的表格;
图6B是示出根据实施例的多个帧的序列值的另一表;
图7A是示出根据本公开的实施例的多个帧的图;
图7B是示出根据实施例的多个帧的另一图;
图8是示出根据本公开的实施例的用于操作电子设备的方法的流程图;
图9是示出根据本公开的实施例的用于操作电子设备的方法的流程图;
图10是示出根据本公开的实施例的用于操作电子设备的方法的流程图;
图11是示出根据本公开的实施例的用于操作电子设备的方法的流程图;
图12是示出根据本公开的实施例的用于操作电子设备的方法的流程图;
图13是示出根据本公开的实施例的用于操作电子设备的方法的流程图;
图14是示出根据本公开的实施例的用于操作电子设备的方法的流程图;
图15A和15B是示出根据本公开的实施例的多个帧各自聚焦视频中的区域的操作的图;和
图16A、16B和16C是示出根据本公开的实施例的用于操作电子设备的方法的各个方面的图。
在整个附图中,相同的附图标记将被理解为指相同的部件、组件或结构。
具体实施方式
在下文中,参考附图描述本公开的实施例。然而,应当理解,本公开不限于本文使用的实施例和术语,并且其所有改变和/或等同物或替代物也属于本公开的范围。在整个说明书和附图中,相同或相似的附图标记可以用于指代相同或相似的元件。应该理解,除非另有明文规定,单数形式“一”、“一个”和“该”包括复数。如本文所用,术语“A或B”或“A和/或B”中的至少一个可以包括A和B的所有可能的组合。如本文所用,术语“第一”和“第二”可以修饰各种组件,不管重要性和/或顺序如何,并且用于在不限制组件的情况下将组件与另一组件区分开。应当理解,当将元件(例如,第一元件)称为(可操作地或通信地)与另一元件(例如,第二元件)“耦合”或“连接”时,可以直接或经由第三元件耦合或连接到另一个元件。
如本文所使用的,“配置为”的术语可以与其他术语互换使用,例如“适合”、“能够”、“修改为”、“制造”、“适应”、“能”或者在上下文中以硬件或软件“设计”。相反,术语“被配置为”可以意味着设备可以与另一个设备或部件一起执行操作。例如,术语“配置(或设置)执行A、B和C的处理器”可以表示可以通过执行存储在存储器件中的一个或多个软件程序来执行操作的通用处理器(例如,CPU或应用处理器)或用于执行操作的专用处理器(例如,嵌入式处理器)。
例如,根据本公开的实施例的电子设备的示例可以包括智能电话、平板电脑(PC)、移动电话、视频电话、电子书阅读器、台式PC、膝上型计算机、上网本计算机、工作站、服务器、个人数字助理(PDA)、便携式多媒体播放器(PMP)、MP3播放器、医疗设备、相机或可穿戴设备中的至少一个。可穿戴装置可以包括辅助型装置(例如手表、戒指、手镯、脚链、项链、眼镜、隐形眼镜或头戴装置(HMD))、织物-或衣服集成装置(例如,电子衣服)、身体附接装置(例如皮肤垫或纹身)或身体可植入装置中的至少一个。在一些实施例中,智能家用电器的示例可以包括电视、数字视频盘(DVD)播放器、音频播放器、冰箱、空调、清洁器、烤箱、微波炉、洗衣机、干衣机、空气净化器、机顶盒、家庭自动化控制面板、安全控制面板、电视盒(例如,Samsung HomeSyncTM,Apple TVTM或Google TVTM)、游戏机(XboxTM,PlayStationTM)、电子词典、电子钥匙、摄像机或电子相框中的至少一个。
根据本公开的实施例,电子设备可以包括各种医疗设备(例如,各种便携式医疗测量设备(血糖测量设备、心跳测量设备或体温测量设备)、磁共振成像(MRA)装置、磁源成像(MRI)装置、计算机断层摄影(CT)装置、成像装置或超声波装置)、导航装置,全球导航卫星系统(GNSS)接收机、事件数据记录器(EDR)、飞行数据记录器(FDR)、汽车信息娱乐设备、航行电子设备(例如航行导航设备或陀螺仪罗盘)、航空电子设备、安全设备、车头单元、工业或家用机器人、无人机、自动取款机(ATM)、销售点(POS)设备或物联网(IoT)设备(例如,灯泡、各种传感器、喷水灭火器、火灾报警器、恒温器、路灯、烤面包机、健身设备、热水箱、加热器或锅炉)中的至少一个。根据本公开的各种实施例,电子设备的示例可以是家具、建筑物/结构或车辆的一部分、电子板、电子签名接收设备、投影仪或各种测量设备(例如,用于测量水、电、气体或电磁波的装置)中的至少一个。根据本公开的实施例,电子设备可以是柔性的,或者可以是以上列举的两个或更多个电子设备的组合。根据本公开的实施例,电子设备不限于上述实施例。如本文所使用的,术语“用户”可以表示使用电子设备的人或另一设备(例如,人造智能电子设备)。
参考图1,根据本公开的实施例,电子设备101被包括在网络环境100中。电子设备101可以包括总线110、处理器120、存储器130、输入/输出接口150、显示器160和通信接口170。在一些实施例中,电子设备101可以排除组件中的至少一个或者可以添加另一个组件。总线110可以包括用于将组件110至170彼此连接并在组件之间传送通信(例如,控制消息或数据)的电路。处理模块120可以包括中央处理单元(CPU)、应用处理器(AP)或通信处理器(CP)中的一个或多个。处理器120可以对电子设备101的其他组件中的至少一个执行控制,和/或执行与通信有关的操作或数据处理。
存储器130可以包括易失性和/或非易失性存储器。例如,存储器130可以存储与电子设备101的至少一个其他组件相关的命令或数据。根据本公开的实施例,存储器130可以存储软件和/或程序140。程序140可以包括例如内核141、中间件143、应用编程接口(API)145和/或应用程序(或“应用”)147。内核141、中间件143或API 145的至少一部分可以被表示为操作系统(OS)。例如,内核141可以控制或管理用于执行在其他程序(例如,中间件143、API 145或应用程序147)中实现的操作或功能的系统资源(例如,总线110、处理器120或存储器130)。内核141可以提供允许中间件143、API 145或应用程序147访问电子设备101的各个组件以控制或管理系统资源的接口。
例如,中间件143可以用作中继器,以允许API 145或应用程序147与内核141通信数据。此外,中间件143可以按优先级顺序处理从应用程序147接收的一个或多个任务请求。例如,中间件143可以将使用电子设备101的系统资源(例如,总线110、处理器120或存储器130)的优先级分配给应用程序147中的至少一个并处理一个或多个任务请求。API 145是允许应用程序147控制从内核141或中间件143提供的功能的接口。例如,API 133可以包括用于归档控制、窗口控制、图像处理或文本控制的至少一个接口或功能(例如,命令)。例如,输入/输出接口150可以将从用户或其他外部设备输入的命令或数据传送到电子设备101的其他组件,或者可以输出从电子设备101的其他组件接收的命令或数据到用户或其他外部设备。
显示器160可以包括例如液晶显示器(LCD)、发光二极管(LED)显示器、有机发光二极管(OLED)显示器或微机电系统(MEMS)显示器)或电子纸显示器。显示器160可以向用户显示例如各种内容(例如,文本、图像、视频、图标或符号)。显示器160可以包括触摸屏,并且可以使用电子笔或用户的身体部分接收例如触摸、手势、接近或悬停输入。例如,通信接口170可以建立电子设备101和外部电子设备(例如,第一电子设备102、第二电子设备104或服务器106)之间的通信。例如,通信接口170可以通过无线或有线通信与网络162连接以与外部电子设备进行通信。
无线通信可以包括使用例如长期演进(LTE)、高级长期演进(LTE-A)、码分多址(CDMA)、宽带码分多址(WCDMA)、通用移动通信系统(UMTS)、无线宽带(WiBro)或全球移动通信系统(GSM)中的至少一个的蜂窝通信。根据本公开的实施例,无线通信可以包括例如无线保真(Wi-Fi)、蓝牙、蓝牙低功率(BLE)、紫蜂、近场通信(NFC)、磁安全传输(MST)、射频或身体局域网(BAN)中的至少一个。根据本公开的实施例,无线通信可以包括全球导航卫星系统(GNSS)。GNSS可以是例如全球定位系统(GPS)、全球导航卫星系统(Glonass)、导航卫星系统(以下称为“北斗”)或伽利略,或欧洲全球卫星导航系统。在下文中,术语“GPS”和“GNSS”可以在这里互换使用。有线连接可以包括例如通用串行总线(USB)、高分辨率多媒体接口(HDMI)、推荐标准(RS)-232、电力线通信(PLC)或普通老式电话服务(POTS)中的至少一个。网络162可以包括例如计算机网络(例如,局域网(LAN)或广域网(WAN))的电信网络、因特网或电话网络中的至少一个。
第一和第二外部电子设备102和104各自可以是与电子设备101相同或不同类型的设备。根据本公开的实施例,在电子设备101上执行的所有或一些操作可以是在另一个或多个其他电子设备(例如,电子设备102和104或服务器106)上执行。根据本公开的实施例,当电子设备101应当自动地或者在请求时执行某些功能或服务时,电子设备101不是独立地或另外地执行功能或服务,而是可以请求另一设备(例如,电子设备102和104或服务器106)来执行与其相关联的至少一些功能。另一个电子设备(例如,电子设备102和104或服务器106)可以执行所请求的功能或附加功能,并将执行结果传送到电子设备101。电子设备101可以通过处理收到的结果自身或者另外地来提供所请求的功能或服务。为此,例如,可以使用云计算、分布式计算或客户端-服务器计算技术。
图2是示出根据本公开的实施例的电子设备201的框图;电子设备201可以包括例如图1所示的电子设备101的全部或部分配置。电子设备201可以包括一个或多个处理器(例如,应用处理器(AP))210、通信模块220、用户识别模块(SIM)224、存储器230、传感器模块240、输入设备250、显示器260、接口270、音频模块280、相机模块291、电源管理模块295、电池296、指示器297和马达298。通过运行例如操作系统或应用程序,处理器210可以控制连接到处理器210的多个硬件和软件组件,以及处理器210可以处理和计算各种数据。处理器210可以在例如片上系统(SoC)中实现。根据本公开的实施例,处理器210还可以包括图形处理单元(GPU)和/或图像信号处理器(ISP)。处理器210可以包括图2所示的组件的至少一些(例如,蜂窝模块221)。处理器210可以在易失性存储器上加载从其他组件(例如,非易失性存储器)中的至少一个接收的命令或数据,处理命令或数据,并将结果数据存储在非易失性存储器中。
通信模块220可以具有与图1的通信接口170相同或相似的配置。通信模块220可以包括例如蜂窝模块221、无线保真(Wi-Fi)模块223、蓝牙(BT)模块225、GNSS模块227、NFC模块228和RF模块229。蜂窝模块221可以通过例如通信网络来提供语音呼叫、视频呼叫、文本或因特网服务。蜂窝模块221可以使用用户识别模块224(例如,SIM卡)在通信网络中的电子设备201上执行识别或认证。根据本公开的实施例,蜂窝模块221可以执行由处理器210提供的功能中的至少一些功能。根据本公开的实施例,蜂窝模块221可以包括通信处理器(CP)。根据本公开的实施例,在单个集成电路(IC)或IC封装中可以包括蜂窝模块221、Wi-Fi模块223、蓝牙模块225、GNSS模块227或NFC模块228中的至少一些(例如,两个或更多个)。RF模块229可以传送数据,例如通信信号(例如,RF信号)。RF模块229可以包括例如收发器、功率放大器模块(PAM)、频率滤波器、低噪声放大器(LNA)或天线。根据本公开的实施例,蜂窝模块221、Wi-Fi模块223、蓝牙模块225、GNSS模块227或NFC模块228中的至少一个可以通过单独的RF模块来传送RF信号。用户识别模块224可以包括例如包括用户识别模块或嵌入式SIM卡的卡,并且可以包含唯一的标识信息(例如,集成电路卡标识符(ICCID)或订户信息(例如,国际移动用户身份(IMSI))。
存储器230(例如,存储器130)可以包括例如内部存储器232或外部存储器234。内部存储器232可以包括例如易失性存储器(例如,动态RAM(DRAM)、静态RAM(SRAM)、同步动态RAM(SDRAM)等)或非易失性存储器(例如,一次性可编程ROM(OTPROM)、可编程ROM(PROM)、可擦除和可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩模ROM、闪存ROM、闪存(例如,NAND闪存或NOR闪存)、硬盘驱动器或固态驱动器(SSD))。外部存储器234可以包括闪存驱动器,例如紧凑闪存(CF)存储器、安全数字(SD)存储器、微型SD存储器、最小SD存储器、极限数字(xD)存储器、多媒体卡(MMC)或存储器棒TM。外部存储器234可以通过各种接口与电子设备201进行功能或物理连接。
例如,传感器模块240可以测量物理量或检测电子设备201的操作状态,并且传感器模块240可将测量或检测到的信息转换为电信号。传感器模块240可以包括例如手势传感器240A、陀螺仪传感器240B、大气压力传感器240C、磁性传感器240D、加速度传感器240E、握持传感器240F、接近传感器240G,颜色传感器240H(例如,红-绿-蓝(RGB)传感器)、生物测定传感器240I、温度/湿度传感器240J、照明传感器240K或紫外(UV)传感器240M中的至少一个。附加地或可替换地,传感器模块240可以包括例如电子鼻传感器、肌电图(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器、红外(IR)传感器、虹膜传感器或指纹传感器。传感器模块240还可以包括用于控制包括在感测模块中的至少一个或多个传感器的控制电路。根据本公开的实施例,电子设备201还可以包括配置成控制传感器模块240的处理器作为处理器210的一部分或者与处理器210分离,并且当处理器210处于睡眠模式时,电子设备201可以控制传感器模块240。
输入单元250可以包括例如触摸面板252、(数字)笔传感器254、键256或超声波输入设备258。触摸面板252可以使用电容、电阻、红外或超声波方法中的至少一种。触摸面板252还可以包括控制电路。触摸面板252还可以包括触觉层,并且可以向用户提供触觉反应。(数字)笔传感器254可以包括例如触摸面板的一部分或用于识别的单片。键256可以包括例如物理按钮、光学键或键盘。超声波输入装置258可以通过麦克风(例如,麦克风288)感测从输入工具产生的超声波,以识别与感测的超声波对应的数据。
显示器260(例如,显示器160)可以包括面板262、全息图设备264、投影仪266和/或用于控制它的控制电路。面板262可以被实现为柔性的、透明的或可穿戴的。面板262与触摸面板252一起可以被配置在一个或多个模块中。根据本公开的实施例,面板262可以包括压力传感器(或姿态传感器),其可以通过用户的触摸来测量压力的强度。压力传感器可以用触摸面板252在单个主体中实现,或者可以实现在与触摸面板252分离的一个或多个传感器中。全息设备264可以通过使用光线干扰在空气中产生三维(3D)图像(全息图)。投影仪266可以通过将光投射到屏幕上来显示图像。屏幕可以例如位于电子设备201的内部或外部。接口270可以包括例如高分辨率多媒体接口(HDMI)272、USB 274、光学接口276或D超小型(D-sub)278。接口270可以包括在例如图1所示的通信接口170中。另外或替代地,接口270可以包括移动高清链接(MHL)接口、安全数字(SD)卡/多媒体卡(MMC)接口或红外数据关联(IrDA)标准接口。
音频模块280可以将例如声音信号转换为电信号,反之亦然。音频模块280的至少一部分可以被包括在例如图1所示的输入/输出接口150中。音频模块280可以处理通过例如扬声器282、接收器284、耳机286或麦克风288输入或输出的声音信息。例如,相机模块291可以是用于捕获静止图像和视频的设备,并且根据本公开的实施例可以包括一个或多个图像传感器(例如,前和后传感器)、镜头、图像信号处理器(ISP)或诸如LED或氙灯的闪光灯。电源管理器模块295例如可以管理电子设备201的电源。根据本公开的实施例,电源管理器模块295可以包括电源管理集成电路(PMIC)、充电器IC或电池或电量计。PMIC可以具有有线和/或无线充电方案。无线充电方案可以包括例如磁谐振方案、磁感应方案或基于电磁波的方案,并且可以添加诸如线圈环路、谐振电路、整流器等的附加电路,用于无线充电。当电池296被充电时,电池计可以测量电池296的剩余电量、电压、电流或温度。电池296可以包括例如可充电电池或太阳能电池。
指示器297可以指示电子设备201的特定状态或电子设备的一部分(例如,处理器210),包括例如引导状态、消息状态或再充电状态。马达298可以将电信号转换为机械振动并且可以产生振动或触觉效果。电子设备201可以包括可以根据例如数字多媒体广播(DMB)、数字视频广播(DVB)或mediaFloTM标准来处理媒体数据的移动电视支持设备(例如,GPU)。电子设备的每个前述组件可以包括一个或多个部件,并且部件的名称可以随着电子设备的类型而变化。根据各种实施例,电子设备(例如,电子设备201)可以排除一些元件或者包括更多的元件,或者一些元件可以组合成单个实体,单个实体可以执行与组合之前的元件相同的功能。
图3是示出根据本公开的实施例的程序模块的框图;根据本公开的实施例,程序模块310(例如,程序140)可以包括控制与电子设备(例如,电子设备101)相关的资源的操作系统(OS)和/或在操作系统上驱动的各种应用(例如,应用处理器147)。操作系统可以包括例如AndroidTM、iOSTM、WindowsTM、SymbianTM、TizenTM或BadaTM。参考图3,程序模块310可以包括内核320(例如,内核141)、中间件330(例如,中间件143)、API 360(例如,API 145)和/或应用370(例如,应用程序147)。程序模块310的至少一部分可以预先加载到电子设备上,或者可以从外部电子设备(例如,电子设备102和104或服务器106)下载。
内核320可以包括例如系统资源管理器321或设备驱动器323。系统资源管理器321可以执行系统资源的控制、分配或恢复。根据本公开的实施例,系统资源管理器321可以包括进程管理单元、存储器管理单元或文件系统管理单元。设备驱动器323可以包括例如显示驱动器、相机驱动器、蓝牙驱动器、共享存储器驱动器、USB驱动器、键盘驱动器、Wi-Fi驱动器、音频驱动器或进程间通信(IPC)驱动程序。中间件330可以通过API 360向应用370提供各种功能,使得应用370可以在电子设备中使用有限的系统资源或提供由应用370共同要求的功能。根据本公开的实施例,中间件330可以包括运行时库335、应用管理器341、窗口管理器342、多媒体管理器343、资源管理器344、功率管理器345、数据库管理器346、包管理器347、连接管理器348、通知管理器349、位置管理器350、图形管理器351或安全管理器352中的至少一个。
运行时库335可以包括编译器使用的库模块,以便例如在应用370被执行时通过编程语言添加新功能。运行时库335可以执行输入/输出管理、存储器管理或算术功能处理。应用管理器341可以管理例如应用370的生命周期。窗口管理器342可以管理在屏幕上使用的GUI资源。多媒体管理器343可以掌握播放媒体文件所需的格式,并使用适合于格式的编解码器对媒体文件执行编码或解码。资源管理器344可以管理应用370的源代码或存储器空间。功率管理器345可以管理例如电池能力或功率,并提供电子设备的操作所需的功率信息。根据本公开的实施例,功率管理器345可以与基本输入/输出系统(BIOS)相互配合。数据库管理器346可以生成、搜索或改变要在应用370中使用的数据库。包管理器347可以管理以包文件的形式分发的应用的安装或更新。
连接管理器348可以管理例如无线连接。通知管理器349可以向用户提供例如到达消息、约会或接近警报的事件。位置管理器350可以管理例如电子设备上的位置信息。图形管理器351可以管理例如提供给用户及其相关用户界面的图形效果。例如,安全管理器352可以提供系统安全性或用户认证。根据本公开的实施例,中间件330可以包括用于管理电子设备的语音或视频呼叫功能的电话管理器或能够形成上述元件的功能的组合的中间件模块。根据本公开的实施例,中间件330可以提供根据操作系统的类型指定的模块。中间件330可以动态地省略一些现有的组件或添加新的组件。API 360可以是一组例如API编程功能,并且可以具有取决于操作系统的不同配置。例如,在Android或iOS的情况下,可以为每个平台提供一个API集,在Tizen的情况下,可以为每个平台提供两个或更多个API集。
应用370可以包括可以提供例如家庭371、拨号器372、SMS/MMS 373、即时消息(IM)374、浏览器375、相机376、报警器377、联系人378、语音拨号379、电子邮件380、日历381、媒体播放器382、相册383或时钟384、保健(例如,测量锻炼或血糖的程度)或提供环境信息(例如,提供气压,水分或温度信息)的应用。根据本公开的实施例,应用370可以包括支持电子设备和外部电子设备之间的信息交换的信息交换应用。信息交换应用的示例可以包括但不限于用于将特定信息传送到外部电子设备的通知中继应用或用于管理外部电子设备的设备管理应用。例如,通知中继应用可以将通过电子设备的其他应用产生的通知信息传送到外部电子设备,或者从外部电子设备接收通知信息,并将接收到的通知信息提供给用户。例如,设备管理应用可以安装、删除或更新外部电子设备的功能(例如,打开/关闭外部电子设备(或某些元素)或调整显示器的亮度(或分辨率)),外部电子设备与电子设备或在外部电子设备上操作的应用进行通信。根据本公开的实施例,应用370可以包括根据外部电子设备的属性指定的应用(例如,移动医疗设备的医疗保健应用)。根据本公开的实施例,应用370可以包括从外部电子设备接收的应用。程序模块310的至少一部分可以在软件、固件、硬件(例如,处理器210)或其至少两个或多个的组合中实现(例如,执行),并且可以包括执行一个或多个功能的模块、程序、例程、命令集或过程。
如本文所使用的,术语“模块”包括以硬件配置的单元,执行软件的硬件或固件,并且可以与其他术语例如逻辑、逻辑块、部件或电路互换使用。模块可以是单个整体部件或最小单元或执行一个或多个功能的一部分。该模块可以机械地或电子地实现,并且可以包括例如已经或将来开发的专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)或可编程逻辑器件以执行一些操作。根据本公开的实施例,设备的至少一部分(例如,模块或其功能)或方法(例如,操作)可以被实现为存储在非暂时计算机可读存储介质(例如,存储器130)中的指令,例如,以程序模块的形式。当由处理器(例如,处理器120)执行时,指令可以使处理器执行相应的功能。非暂时性计算机可读介质的示例可以包括例如硬盘、软盘、磁介质(例如磁带),光记录介质(例如,CD-ROM、DVD、磁光介质(例如,光盘)或嵌入式存储器,该指令可以包括由编译器创建的代码或由解释器执行的代码。根据本公开的各种实施例的模块或编程模块可以包括至少一个或多个前述组件,省略其中的一些,或者还包括其他附加组件。根据本公开的各种实施例的模块、编程模块或其他组件执行的操作可以顺序地、并行地、重复地或启发式地执行,或者至少一些操作可以以不同的顺序执行或者省略或可以添加其他操作。
虽然描述了两种或三种类型的帧被包括在视频(IM)中,以便于描述,但是本公开的技术精神并不限于此。在图4中,诸如IM,IM1等的图例可以各自表示由聚焦在特定选择的对象或区域上而捕获的周期序列帧(图像)或整个视频中特定深度处的对象/区域组成的视频。
图4是示意性地示出根据本公开的实施例的电子设备的框图。
参考图4,电子设备400可以包括相机模块410、处理器420、存储器470、显示器480和通信模块490。
电子设备400可以顺序地生成(或捕获)分别聚焦在通过相机模块410获得的视频中选择的多个区域上的多个帧。这里,术语“顺序地”可以意味着可以“顺序地和交替地”生成分别聚焦在多个区域的多个帧。例如,在两种类型的帧的情况下,以焦点在帧中的第一对象或帧区域上设计的第一帧A可以周期性地与以焦点在第二对象或帧区域上设计的第二帧B交替在视频中。结果,可以从整个视频产生两个视频-由A帧组成的第一个视频和由B帧组成的第二个视频。
此外,电子设备400可以存储和播放多个帧中的每一个。电子设备400可以编辑多个帧中的每一个。
相机模块410可以包括图像传感器。相机模块410可以捕获对象以产生用于对象的视频IM。例如,视频可以包括多个帧。
根据本公开的实施例,相机模块410可以捕获(或获取)包括多个帧的视频IM。例如,相机模块410可以捕获(或获取)包括分别聚焦在M个区域上的N个帧的视频IM。
视频IM可以是包括多个帧的运动图像(或运动图像数据)。根据本公开的实施例,视频IM可以是包括分别聚焦在多个区域上的多个帧的运动图像(或运动图像数据)。
处理器420可以控制电子设备400的整体操作。例如,处理器420可以被实现为应用处理器、用于个人计算机(PC)的处理器和/或用于服务器的处理器。
根据本公开的实施例,处理器420可以在存储器470中顺序地存储分别聚焦在从通过相机模块410获得的视频IM中选择的多个区域上的多个帧中的每一个。此外,处理器420可以编辑多个帧中的每一个并在显示器480上重放它们。
根据本公开的实施例,处理器420可以在存储器450中顺序地存储分别聚焦在通过相机模块410获得的视频中选择的多个区域上的多个帧中的每一个。
处理器420可以控制多个帧中的每个帧的聚焦移位时间和曝光时间。处理器420还可以控制多个帧中的每一个的白平衡。
例如,聚焦移位时间可以意味着聚焦从视频IM中的一个区域转移到另一个所花费的时间。曝光时间可以意味着相机模块410中的图像传感器暴露于对象的时间,以便读出视频IM中的多个帧。
根据本公开的实施例,处理器420可以在存储器470中交替地存储聚焦在视频IM中的第一区域上的第一帧FR1和聚焦在视频IM中的与第一个区域不同的第二区域上的第二帧FR2。
第一区域可以是视频IM中包括的帧区域。第二区域可以是视频IM中包括的与第一区域不同的第二帧区域。这里,可以由处理器420或用户的选择来自动确定对第一区域和第二区域的聚焦。例如,在由处理器420自动确定第一区域和第二区域的情况下,第一区域和第二区域可由包括在视频IM中的对象或深度确定。
根据本公开的实施例,处理器420可以确定聚焦从第一区域移动到第二区域的第一聚焦移位时间。处理器420还可以确定第二聚焦移位时间,在该时间期间,将第二区域上的聚焦改变为聚焦于第一区域。
处理器420可以基于第一聚焦移位时间确定第二帧FR2的曝光时间。处理器420还可以基于第二聚焦移位时间确定第一帧FR1的曝光时间。
处理器420可以基于第一帧FR1的曝光时间或第二帧FR2的曝光时间来调整相机模块410(或包括在相机模块410中的图像传感器)的灵敏度。
处理器420可以使用第一帧FR1和第二帧FR2产生全景聚焦图像。处理器420还可以使用第一帧FR1和第二帧FR2产生高动态范围(HDR)视频。
处理器420可以包括中央处理单元(CPU)430、编解码器440、存储器控制器450、显示控制器455、用户接口460和调制解调器465。处理器420的组件430、440、450、455、460和465的每个可以经由总线425发送或接收数据。
CPU 430可以控制处理器420的整体操作。例如,CPU 430可以被实现为数字信号处理器(DSP)。
根据本公开的实施例,CPU 430可以控制从相机模块410获得的视频IM中的多个帧。
例如,CPU 430可以控制由相机模块410捕获的多个帧的帧速率。CPU430还可以控制多个帧中的每个的聚焦区域、曝光时间和/或白平衡。
例如,CPU 430可以向相机模块410发送聚焦控制信号AF、曝光控制信号AE和/或白平衡控制信号AWB。聚焦控制信号AF可以指用于控制多个帧中的每一个的聚焦区域和聚焦移位时间的信号。曝光控制时间AE可以指用于控制多个帧中的每一个的曝光时间的信号。白平衡控制信号(AWB)可以指用于控制多个帧中的每一帧的白平衡的信号。
根据本公开的实施例,CPU 430可以根据相机操作模式来控制相机模块410。
例如,在正常模式下,CPU 430可以控制相机模块410捕获(或获取)包括聚焦在特定区域上的多个帧的视频。在选择模式中,CPU 430可以控制相机模块410捕获(或获取)包括分别聚焦在多个区域上的多个帧的视频IM。在选择模式中,CPU 430可以向编解码器440发送包括分别聚焦在多个区域上的多个帧的视频IM。同时,正常模式和选择模式可以自动设置或由用户设置。
编解码器440可以转换从CPU 430接收的视频IM。编解码器440还可以转换从外部设备接收的视频IM'。
根据本公开的实施例,编解码器440可以从CPU 430接收包括多个帧中的每一个的视频IM。
编解码器440可以使用从CPU 430接收的视频来生成第一视频和/或第二视频。
根据本公开的实施例,编解码器440可以从多个帧生成第一视频IM1和/或第二视频IM2。例如,第一视频IM1可以是包含聚焦在帧中的第一区域上的周期性第一帧FR1的运动图像(或运动图像数据)。第二视频IM2可以是包含聚焦在与多个帧中的第一区域不同的第二区域上的周期性第二帧FR2的运动图像(或运动图像数据)。因此,第一视频IM1可以从多个帧的第一子集生成,而第二视频IM2可以从多个帧的第二子集生成。
编解码器440可以使用从外部设备接收的视频IM'来生成包含聚焦在第一区域上的第一帧FR1的第一视频IM1和包含聚焦在第二区域上的第二帧FR2的第二视频IM2。
编解码器440可以在CPU 430的控制下将第一视频IM1和第二视频IM2发送到存储器控制器450和/或显示控制器455。编解码器440还可以在CPU430的控制下将第一视频IM1和第二视频IM2发送到调制解调器465。
例如,编解码器440可以以硬件或固件来实现。尽管图4示出了为了便于描述,编解码器440与CPU 430分开实现的示例,编解码器440可以包括在CPU 430中。
根据本公开的实施例,编解码器440可以基于从用户接口460接收的选择信号CS来生成第一视频IM1和/或第二视频IM2。例如,当选择信号指示第一区域时,编解码器440可以在CPU 430的控制下产生第一视频IM1。当选择信号指示第二区域时,编解码器440可以在CPU 430的控制下产生第二视频IM2。
存储器控制器450可以在存储器470中存储从CPU 430或编解码器440输出的视频IM、IM1或IM2。
例如,存储器470可以存储从CPU 430或编解码器440输出的视频IM、IM1或IM2。可以将易失性或非易失性存储器实现为存储器470。
显示控制器455可以向显示器480发送从CPU 430或编解码器440输出的视频IM、IM1或IM2。例如,显示控制器455可以通过显示串行接口(DSI)将视频IM、IM1或IM2发送到显示器480。
显示器480可以显示(或播放)由CPU 430或编解码器440生成的视频IM、IM1或IM2。
显示器480可以包括触摸屏485。
触摸屏485可以从用户接收输入(或触摸输入)。
根据本公开的实施例,触摸屏485可以响应于用户选择的聚焦区域而生成选择信号,并将选择信号CS发送到用户接口460。例如,当用户选择第一区域时,触摸屏485可以将指示第一区域的选择信号CS发送到用户接口460。例如,当用户选择第二区域时,触摸屏485可以向用户接口460发送指示第二区域的选择信号CS。这里,选择信号CS可以是包括关于用户选择和相机模块410聚焦的区域的信息的信号。
用户接口460可以从触摸屏485接收输入信号(或触摸信号),并将对应于输入信号的数据发送到CPU 430。例如,用户接口460可以将从触摸屏485接收的选择信号发送到CPU430。
调制解调器465可以向通信模块490发送由CPU 430或编解码器440产生的视频IM1、IM1和/或IM2,使得视频可以被发送到外部设备。调制解调器465还可以通过通信模块490接收从外部设备接收的视频IM'。调制解调器465可以将从外部设备接收的视频IM'发送到CPU 430或编解码器440。
从外部设备接收的视频IM'可以是与通过相机模块410获得的视频IM基本上相同或相似的视频。
图5是示出根据本公开的实施例的多个帧的序列的框图。
参考图4和图5,相机模块410可以在处理器420的控制下捕获(或获取)包括聚焦在视频中的第一区域上的第一帧FR1和聚焦在第二区域上的第二帧FR2的视频。
为了便于描述,第一区域和第二区域分别用A和B表示。
处理器420可以分别将由相机模块410获得的视频IM中包括的多个帧聚焦到多个区域。
例如,处理器420可将第一帧FR1聚焦在第一区域上和将第二帧FR2聚焦在第二区域上。此时,处理器420可以控制第一帧FR1的第一曝光时间EXPOSURE1和第一聚焦移位时间AF SHIFT1。处理器420还可以控制第二帧FR2的第二曝光时间EXPOSURE2和第二聚焦移位时间AF SHIFT2。
处理器420可以在预设的帧速率间隔内周期性地调整第一曝光时间EXPOSURE1和第一聚焦移位时间AF SHIFT1。处理器420可以在预设帧速率间隔内周期性地调整第二曝光时间EXPOSURE2和第二聚焦移位时间AF SHIFT2。帧速率可以由处理器420或用户设置。
例如,帧速率间隔可以包括第一读出时间READOUT1、第一聚焦移位时间AF SHIFT1和第二曝光时间EXPOSURE2的和。帧速率间隔还可以包括第二读出时间READOUT2、第二焦点移位时间AF SHIFT2和第一曝光时间EXPOSURE1的和。
第一聚焦移位时间AF SHIFT1可以表示从第一区域的聚焦移动(或移动)到第二区域的聚焦的时间。第二聚焦移位时间AF SHIFT2可以表示从第二区域的聚焦移动(或移动)到第一区域的聚焦的时间。
第一曝光时间(EXPOSURE1)可以表示曝光对象以读出(或获得)第一帧FR1的时间。第二曝光时间(EXPOSURE2)可以意味着曝光对象以读出第二帧FR2的时间。
第一读出时间READOUT1可以表示相机模块410的图像传感器输出第一帧FR1的时间。第二读出时间READOUT2可以表示相机模块410的图像传感器输出第二帧FR2的时间。
处理器420可以将相机模块410的第一区域上的聚焦移动到第二区域。此时,处理器420可以控制第一帧FR1的第一曝光时间EXPOSURE1。例如,处理器420可以减小或增加第一帧FR1的第一曝光时间EXPOSURE1。
处理器420还可以将相机模块410的第二区域上的聚焦移动到第一区域。此时,处理器420可以控制第二帧FR2的第二曝光时间EXPOSURE2。例如,处理器420可以减小或增加第二帧FR2的第二曝光时间EXPOSURE2。
根据本公开的实施例,在第一曝光时间EXPOSURE1和/或第二曝光时间EXPOSURE2不足的情况下,处理器420可以调整包括在相机模块410中的图像传感器的灵敏度。例如,在第一曝光时间EXPOSURE1和/或第二曝光时间EXPOSURE2比预设时间短的情况下,处理器420可以增加摄像机模块410中包括的图像传感器的灵敏度。
处理器420可以控制多个帧中的每一个的白平衡。例如,处理器420可以控制第一帧FR1和第二帧FR2中的每一个的白平衡。
图6A和6B是示出根据本公开的实施例的多个帧的序列值的表。
参考图5和图6B,处理器420可以以预设帧速率调整曝光时间EXPOSURE1和EXPOSURE2以及聚焦移位时间AF SHIFT1和AF SHIFT2。例如,帧率可以被设置为每秒60帧(fps)。
根据本公开的实施例,处理器420可以改变聚焦移位时间AF SHIFT1和AF SHIFT2。处理器420可以基于改变的聚焦移位时间AF SHIFT1和AF SHIFT2来确定最大曝光时间MAXEXPOSURE。处理器420可以在所确定的最大曝光时间MAX EXPOSURE中控制曝光时间EXPOSURE1和EXPOSURE2。
例如,当聚焦移位时间AF SHIFT1和AF SHIFT2为8ms时,最大曝光时间MAXEXPOSURE可以确定为3.11ms。在这种情况下,处理器420可以控制在最大曝光时间MAXEXPOSURE(即3.11ms)内的帧FR1和FR2的曝光时间。当聚焦移位时间AF SHIFT1和AF SHIFT2为1ms时,最大曝光时间MAX EXPOSURE可以确定为10.11ms。在这种情况下,处理器420可以控制在最大曝光时间MAX EXPOSURE(即10.11ms)中的帧FR1和FR2的曝光时间。换句话说,当聚焦移位时间增加时,最大曝光时间MAX EXPOSURE可能减小。
根据本公开的实施例,其中最大曝光时间MAX EXPOSURE不足(或短于预设时间),处理器420可以调整(例如,增加)相机模块410中的图像传感器的灵敏度。其中最大曝光时间MAX EXPOSURE足够(或比预设时间长),处理器420可以调整(例如,降低)相机模块410中的图像传感器的灵敏度。
参考图5和图6B,处理器420可以以预设帧速率调整第二曝光时间EXPOSURE1和EXPOSURE2以及聚焦移位时间AF SHIFT1和AF SHIFT2。
根据本公开的实施例,当聚焦移位时间AF SHIFT1和AF SHIFT2被设置为预定时间时,处理器420可以根据帧速率改变最大曝光时间MAX EXPOSURE。换句话说,处理器420可以通过调整帧速率来确保最大曝光时间MAX EXPOSURE。
例如,在帧速率为60fps的情况下,最大曝光时间MAX EXPOSURE可以确定为3.11ms。这里,处理器420可以控制在最大曝光时间MAX EXPOSURE(即3.11ms)内的帧FR1和FR2的曝光时间。在帧速率为30fps的情况下,最大曝光时间MAX EXPOSURE可以确定为19.78ms。在这种情况下,处理器420可以控制在最大曝光时间MAX EXPOSURE(即19.78ms)中的帧FR1和FR2的曝光时间。换句话说,随着帧速率的增加,分配的最大曝光时间MAXEXPOSURE可能减小。
根据本公开的实施例,在最大曝光时间不足(或比预设时间短)的情况下,处理器420可以通过调整(例如,降低)帧速率来控制最大曝光时间。在最大曝光时间足够(或长于预设时间)的情况下,处理器420可以调整(例如,增加)帧速率。
图7A和图7B是示出根据本公开的实施例的多个帧的图。
参考图4至图7A,处理器420可以使用相机模块410来获得(或记录)聚焦在视频IM中的第一区域上的第一帧FR1和聚焦在第二区域上的第二帧FR2。在该示例中,处理器420可以交替地获得第一帧FR1和第二帧FR2。
根据本公开的实施例,处理器420可以交替地获得第一帧FR1和第二帧FR2。例如,处理器420可以以第一帧速率(例如,60fps)交替地获得(或记录)第一帧FR1和第二帧FR2。
处理器420可以使用聚焦在第一区域上的每个帧(例如,第一帧FR1)来生成第一视频IM1。处理器420可以使用聚焦在第二区域上的每个帧(例如,第二帧FR2)来生成第二视频IM2。
处理器420可以以第二帧速率生成第一视频IM1和/或第二视频IM2。这里,可以基于多个帧的类型的数量来确定第二帧速率。例如,在多个帧包括两种类型的帧(例如,第一帧FR1和第二帧FR2)的情况下,第二帧速率可以是第一帧速率的1/2。换句话说,在多个帧包括N种类型的帧(N是不小于2的正整数)的情况下,第二帧速率可以是第一帧速率的1/N。
根据本公开的实施例,处理器420可以以第二帧速率播放第一视频IM1。处理器420还可以以第二帧速率播放第二视频IM2。这里,第二帧速率可以是第一帧速率的一半,即30fps。(这里,诸如“处理器重放视频”或“处理器显示”的短语是指处理器通过控制和输出数据和控制信号到显示设备来使视频被播放或显示。)
根据本公开的实施例,处理器420可以在播放第一视频IM1时根据用户的选择播放第二视频IM2。
例如,当用户在第一视频IM1被播放时选择第二区域时,处理器420可以重播第二视频IM2。换句话说,处理器420可以响应于用户的选择来显示聚焦在第二区域上的第二视频IM2,同时显示聚焦在第一区域上的第一视频IM1。
参考图4至图7B,处理器420可以响应于用户的选择显示聚焦在第二区域上的第二视频IM2,同时显示聚焦在第一区域上的第一视频IM1。
根据本公开的实施例,处理器420可以立即或逐渐地将第一视频IM1改变为第二视频IM2,并且响应于用户的选择而将其重放。
例如,处理器420可以逐渐地将第一视频IM1改变为第二视频IM2并且响应于用户的选择显示它们。处理器420还可以向用户提供如同第一视频IM1改变为第二视频IM2的效果,例如视觉、触觉和/或听觉效果。
根据本公开的实施例,处理器420可以使用第一帧FR1和第二帧FR2来生成第三帧FR3。例如,第三帧FR3可以表示聚焦在第一区域和第二区域之间的中间区域的帧。
例如,响应于用户的选择,处理器420可以显示聚焦在第二区域上的第二视频IM2和聚焦在中间区域上的第三帧FR3,同时显示聚焦在第一区域上的第一视频IM1。换句话说,处理器420可以在从第一视频IM1改变到第二视频IM2的同时再播放第三帧FR3,为用户提供如同聚焦在第一区域上的帧逐渐改变为聚焦在第二区域上的帧的效果。
图8是示出根据本公开的实施例的用于操作电子设备的方法的流程图。
参考图4至图8,处理器420可以使用相机模块410捕获视频。
处理器420可以从相机模块410获得预览视频(S801)。处理器420还可以在显示器480上显示预览视频。
处理器420可以确定用于捕获视频的模式是选择模式还是正常模式(S803)。这里,选择模式可以意味着分别用于生成视频IM的视频捕获模式,视频IM交替地包括聚焦在多个选择的区域上的多个帧。正常模式可以意味着用于生成包括聚焦在特定区域上的多个帧的视频的视频捕获模式。
当视频捕获模式是正常模式(S803中的“否”)时,处理器420可以控制相机模块410生成包括聚焦在特定区域上的多个帧的视频(S805)。
当视频捕获模式是选择模式时(S803中为“是”),处理器420可以选择包括在预览视频中的多个区域的聚焦区域(S807)。聚焦区域可由用户直接选择或由处理器420自动选择。
处理器420可以捕获(或记录)包括聚焦在多个选择区域上的多个帧中的每一个的视频IM(S809)。
图9是示出根据本公开的实施例的用于操作电子设备的方法的流程图。
参考图4至图9,处理器420可以使用相机模块410来捕获(或记录)包括聚焦在多个选择区域上的多个帧中的每一个的视频IM(S901)。
根据本公开的实施例,处理器420可以捕获聚焦在第一区域上的第一帧FR1(S903)。
处理器420可以基于包括在预览视频中的多个对象来确定是否选择对象(S905)。
当没有选择对象(S905中为否)时,处理器420可以获得聚焦在对应于第一深度的第一区域上的第一帧FR1(S907)。例如,处理器420可以使用从预览视频获得的深度图来获得以第一深度聚焦的第一帧FR1。作为示例,如果相机模块410被实现为立体相机模块,则可以获得深度图作为视差图。也可以考虑获得深度图的其它方式。
当选择对象时(S905中为“是”),处理器420可获得聚焦在对应于第一对象的第一区域上的第一帧FR1(S909)。例如,处理器420可以使用对于包括在预览视频中的对象的对象跟踪来获得聚焦在第一对象上的第一帧FR1。
根据本公开的实施例,处理器420可以捕获聚焦在第二区域上的第二帧FR2(S911)。第二个区域可能意味着与第一个区域不同的区域。
处理器420可以基于包括在预览视频中的多个对象来确定是否选择对象(S913)。
当没有选择对象(S913中为否)时,处理器420可以获得聚焦在对应于第二深度的第二区域上的第二帧FR2(S915)。例如,处理器420可以使用从预览视频获得的深度图来获得以第二深度聚焦的第二帧FR2。第二深度可以意味着与第一深度不同的深度。
当选择对象时(S913中为“是”),处理器420可以获得聚焦在与第二对象相对应的区域上的第二帧FR2(S917)。例如,处理器420可以使用对于包括在预览视频中的对象的对象跟踪来获得聚焦在第二对象上的第二帧FR2。第二个对象可能意味着与第一个对象不同的对象。
处理器420可以交替地存储(或捕获)第一帧FR1和第二帧FR2(S919)。处理器420可以交替地存储(或捕获)第一帧FR1和第二帧FR2,产生视频IM。
图10是示出根据本公开的实施例的用于操作电子设备的方法的流程图。
参考图4至图10,处理器420可以使用相机模块410捕获视频IM并完成视频捕获(S1001)。例如,处理器420可以交替地捕获第一帧FR1和第二帧FR2并完成视频捕获(或记录)。
处理器420可以编辑捕获的视频IM。这里,处理器420可以编辑捕获的视频IM并响应于用户的选择将编辑的视频存储在存储器470中。
处理器420可以确定用于捕获视频的模式是选择模式还是正常模式(S1003)。
当视频捕获模式是正常模式(S1003中为“否”)时,处理器420可以存储包括聚焦在特定区域上的多个帧的视频(S1005)。换句话说,在正常模式下,处理器420可以在存储器470中存储包括聚焦在特定区域上的多个帧的视频,而不特别编辑。
当视频捕获模式是选择模式时(S1003中为“是”),处理器420可以编辑包括聚焦在多个区域上的多个帧的视频IM。
处理器420可以确定在编辑视频IM的操作中用户是否选择场景(S1007)。
当用户没有选择场景(S1007中的“否”)时,处理器420可以在存储器470中存储包括聚焦在多个区域上的多个帧的视频IM而无需特别编辑(S1009)。此时,处理器420可以根据用户的稍后请求编辑存储的视频IM。
当用户选择场景时(S1007中为“是”),处理器420可以编辑包括聚焦在多个区域上的多个帧的视频IM。
根据本公开的实施例,处理器420可以在显示器480上播放视频以编辑视频IM(S1011)。
处理器420可以响应于触摸屏485上的触摸输入来选择聚焦区域(S1013)。
处理器420可以基于从触摸屏485发送的选择信号CS在存储器470中存储与所选区域相对应的帧(S1015)。例如,在所选区域是第一区域的情况下,处理器420可以存储对应于第一区域的第一帧FR1。当所选择的区域是第二区域时,处理器420可以存储对应于第二区域的第二帧FR2。
根据本公开的实施例,用户可以从第一时间到第二时间选择第一区域,并且从第二时间到第三时间选择第二区域。在这种情况下,处理器420可以从第一时间到第二时间存储包括第一帧FR1的第一视频IM1和从第二时间到第三时间存储包括第二帧FR2的第二视频IM2。
图11是示出根据本公开的实施例的用于操作电子设备的方法的流程图。
参考图4至图11,处理器420可以交替地存储包括第一帧FR1和第二帧FR2的视频IM(S1101)。
处理器420可以使用聚焦在第一区域上的第一帧FR1和聚焦在第二区域上的第二帧FR2,产生聚焦在第三区域上的第三帧(S1103)。例如,第三区域可以是第一区域和第二区域之间的中间区域。
处理器420还可以生成包括聚焦在第三区域上的第三帧的第三视频。
根据本公开的实施例,当用户选择第三区域时,处理器420可以显示聚焦在第三区域上的第三帧。例如,在用户选择第三区域的情况下,处理器420可以播放包括聚焦在第三区域上的第三帧的第三视频。
图12是示出根据本公开的实施例的用于操作电子设备的方法的流程图。
参考图4至图12,处理器420可以交替地存储包括第一帧FR1和第二帧FR2的视频IM(S1201)。
处理器420可以使用聚焦在第一区域上的第一帧FR1和聚焦在第二区域上的第二帧FR2,产生全景聚焦视频(S1203)。例如,全景聚焦视频可能意味着视频的整个区域中聚焦的视频。
根据本公开的实施例,在用户选择视频中包括的区域的情况下,处理器420可以显示聚焦在该区域上的帧。例如,在用户选择该区域的情况下,处理器420可以存储和/或播放聚焦在该区域上的视频(S1205)。聚焦于该区域的视频可能意味着针聚焦视频(pin focusvideo)。
根据本公开的实施例,在用户选择视频中包括的区域的情况下,处理器420可以显示聚焦在该区域上的帧,其余区域被模糊。例如,在用户选择该区域的情况下,处理器420可以播放聚焦于该区域的视频,其他区域模糊。
图13是示出根据本公开的实施例的用于操作电子设备的方法的流程图。
参考图4至图13,处理器420可以存储交替地包括第一帧FR1和第二帧FR2的视频IM(S1301)。
处理器420可以使用聚焦在第一区域上的第一帧FR1和聚焦在第二区域上的第二帧FR2,产生HDR视频(S1303)。例如,在第一帧FR1和第二帧FR2的亮度彼此不同的情况下,处理器420可以使用第一帧FR1和第二帧FR2来生成HDR视频。
根据本公开的实施例,当用户请求HDR视频时,处理器420可以存储和/或播放HDR视频(S1305)。
图14是示出根据本公开的实施例的用于操作电子设备的方法的流程图。
参考图4和14,处理器420可以通过通信模块490从外部设备接收交替地包括第一帧FR1和第二帧FR2的视频IM'(S1401)。
根据本公开的实施例,处理器420可以响应于触摸屏485上的触摸输入来选择聚焦区域(S1403)。
根据本公开的实施例,当没有通过触摸屏485的用户选择时,处理器420可以在存储器470中存储或在显示器480上显示包括聚焦在多个区域上的多个帧的视频IM'。
当用户通过触摸屏485选择聚焦区域时,处理器420可以存储和/或播放包括聚焦在所选区域上的帧的视频。
例如,在所选择的区域是视频IM'中的第一区域的情况下,处理器420可以存储对应于第一区域的第一帧FR1。当所选择的区域是视频IM'中的第二区域时,处理器420可以存储对应于第二区域的第二帧FR2。
根据本公开的实施例,用户可以从第一时间到第二时间选择第一区域,并且从第二时间到第三时间选择第二区域。在这种情况下,处理器420可以从第一时间到第二时间存储包括第一帧FR1的第一视频IM1和从第二时间到第三时间存储包括第二帧FR2的第二视频IM2。
处理器420可以播放所存储的第一视频IM1和/或第二视频IM2。
为了便于描述,表示更亮的对象可能意味着聚焦的对象或区域,而表示为较暗的对象可能意味着在后续图中未被聚焦的对象或区域。
图15A和15B是示出根据本公开的实施例的多个帧各自聚焦视频中的区域的操作的图。
图15A是示出聚焦与包括在视频中的多个对象对应的区域的操作的图。
参考图4至图15A,处理器420可以通过显示器480显示通过相机模块410获得的预览视频1510。
处理器420可以基于包括在预览视频1510中的多个对象1521、1523和1525来选择聚焦区域(帧区域)。例如,处理器420可以使用包括在预览视频1510中的对象的对象跟踪来确定多个对象中的每一个的聚焦区域。
根据本公开的实施例,预览视频1510可以包括第一对象1521、第二对象1523和第三对象1525。在一个示例中,第一对象1521可以对应于“A”帧和第二对象1523可以对应于先前结合图4-14讨论的“B”帧,而对象1525对应于在A帧和B帧之间周期性散布的附加的“C”帧。
例如,处理器420可以获得聚焦在对应于第一对象1521的第一区域1521上的第一帧1510-1。处理器420可以获得聚焦在对应于第二对象1523的第二区域1523上的第二帧1510-2。处理器420可以获得聚焦在对应于第三对象1525的第三区域1525上的第三帧1510-3。
处理器420可以顺序和交替地捕获并存储第一帧1510-1、第二帧1510-2和第三帧1510-3。处理器420可以顺序并交替地捕获第一帧1510-1、第二帧1510-2和第三帧1510-3,生成(或记录)视频IM。可以周期性地重复捕获,从而产生三个视频:对应于周期性捕获的第一帧1510-1的第一视频;对应于周期性捕获的第二帧1510-2的第二视频;以及对应于周期性捕获的第三帧1510-3的第三视频。
图15B是示出对与包括在视频中的多个深度对应的区域进行聚焦的操作的图。
参考图4至图15B,处理器420可以通过显示器480显示通过相机模块410获得的预览视频1560。
处理器420可以基于包括在预览视频1560中的多个区域的深度来选择聚焦区域。例如,处理器420可以使用包括在预览视频1560中的区域的深度图来确定多个区域中的每个区域的聚焦区域。
根据本公开的实施例,预览视频1560可以包括具有各种深度的区域。例如,预览视频1560可以包括对应于第一深度的第一区域1571和对应于第二深度的第二区域1573。
处理器420可以获得聚焦在与第一深度对应的第一区域1571上的第一帧1560-1。处理器420可以获得聚焦在与第二深度对应的第二区域1573上的第二帧1560-2。
处理器420可以顺序并交替地捕获并存储第一帧1560-1和第二帧1560-2。处理器420可以顺序并交替地捕获第一帧1560-1和第二帧1560-2,生成(或记录)视频IM。(周期性的第一帧1560-1可以生成第一帧A'的第一视频,而与第一帧1560-1交替的周期性第二帧1560-2可以生成与上述的第一帧A和第二帧B类似的第二帧B'的第二视频。)
同时,处理器420可以基于聚焦的N个区域生成N种类型的帧。例如,处理器420可以基于所聚焦的区域的数量来确定生成的帧的类型的数量。
图16A、16B和16C是示出根据本公开的实施例的用于操作电子设备的方法的图。
图16A是示出根据本公开的实施例的电子设备捕获(或记录)视频的操作的图。
参考图4至图16A,处理器420可以使用相机模块410来顺序地和交替地捕获(或记录)分别聚焦在多个帧区域上的多个帧中的每个帧。
预览视频1610可以包括对应于第一区域的第一对象1621和对应于第二区域的第二对象1623。
根据本公开的实施例,处理器420可以使用相机模块410获得(或记录)聚焦在包括在预览视频1610中的第一对象1621上的第一帧1610-1和聚焦在预览视频1610中的第二区域1623中的第二帧1610-2。此时,处理器420可以交替地(或“顺序地和交替地”)获得第一帧1610-1和第二帧1610-2。
根据本公开的实施例,处理器420可以以第一帧速率交替地获取(或记录)第一帧1610-1和第二帧1610-2。
处理器420可以使用编解码器430来生成聚焦在第一区域上的第一帧1610-1的第一流视频(例如,第一视频IM1)。处理器420还可以使用编解码器430生成聚焦在第二区域上的第二帧1610-2的第二流视频(例如,第二视频IM2)。
图16B是示出根据本公开的实施例的电子设备重放视频的操作的图。
参考图4至图16B,处理器420可以存储(或记录)交替地包括第一帧1610-1和第二帧1610-2的视频IM。
处理器420可以在显示器上重放交替地包括第一帧FR1和第二帧FR2的视频1640至1643。
根据本公开的实施例,处理器420可以在显示器480上显示包括聚焦在第一对象1651上的第一帧FR1的第一视频1640、1641。
当第一视频1640、1641被重放时,处理器420可以通过触摸屏485接收在第二对象1653上的触摸输入。
处理器420可以在显示器480上重放包括聚焦在第二对象1653上的第二帧FR2的第二视频1643。
根据本公开的实施例,处理器420可以在显示器480上逐渐播放包括聚焦在第二对象1653上的第二帧FR2的第二视频1643。
例如,处理器420可以使用聚焦在第一对象1651上的第一帧FR1和聚焦在第二对象1653上的第二帧FR2来生成聚焦在第三对象1655上的第三帧FR3。处理器420还可以生成包括聚焦在第三对象1655上的第三帧FR3的第三视频1642。
根据本公开的实施例,在用户选择第二区域1653的情况下,在聚焦在第二对象1653上的第二帧FR2显示之前,处理器420可以重放聚焦在第三对象1655上的第三帧FR3。
通过这样做,处理器420可以向用户提供如第一视频1641逐渐改变为第二视频IM2的效果。当第一视频1641改变到第二视频1643时,处理器420还可以提供如同它寻求焦点(例如,摆动效果)的效果。
同时,处理器420可以控制聚焦在通过触摸屏485选择的对象上的每个帧的曝光时间和白平衡。
图16C是示出根据本公开的实施例的电子设备重放视频的操作的图。
参考图4至图16C,处理器420可以存储(或记录)交替地包括第一帧1610-1和第二帧1610-2的视频IM。
根据本公开的实施例,处理器420可以使用第一帧FR1和第二帧FR2来生成聚焦在所有对象上的全景聚焦帧FR4。处理器420还可以使用全景聚焦帧FR4产生全景聚焦视频1660。
根据本公开的实施例,在用户选择视频中包括的区域的情况下,处理器420可以使用全景聚焦帧FR4来显示聚焦在该区域上的帧。
例如,当通过触摸屏485选择第二对象1673时,处理器420可以重放聚焦在第二对象1673上的视频1661。当通过触摸屏485选择第一对象1671时,处理器420可以播放聚焦在第一对象1671上的视频1662。当通过触摸屏485选择第三对象1675时,处理器420可以播放聚焦在第三对象1671上的视频1663。
根据本公开的实施例,在用户选择视频中包括的区域的情况下,处理器420可以播放聚焦于该区域的视频,其余区域被模糊。当通过触摸屏485选择第二对象1673时,处理器420可以播放聚焦在第二对象1673上的视频,其他区域被模糊。
同时,处理器420可以控制聚焦在通过触摸屏485选择的对象上的每个帧的曝光时间和白平衡。
尽管为了便于说明,图16A至图16C仅示出了基于包括在预览视频中的对象而聚焦的多个帧的配置,但是本公开的技术特征不限于此。本公开的技术精神不受16A至16C所示的对象的数量或位置的限制。
根据本公开的实施例,电子设备可以包括相机模块、存储器和处理器,其在捕获视频时顺序地在存储器中存储分别聚焦在从相机模块获得的视频中选择的多个区域上多个帧中的每一个。
处理器可以在存储器中交替地存储聚焦在视频中包括的第一区域的第一帧和聚焦在视频中包括的第二区域的第二帧。
处理器可以确定聚焦在第一区域改变为聚焦于第二区域的聚焦移位时间,并且基于聚焦移位时间确定第二帧的曝光时间。
处理器可以基于第二帧的曝光时间来调整相机模块的灵敏度和帧速率中的至少一个。
处理器可以使用第一帧和第二帧生成全景聚焦视频。
处理器可以使用第一帧和第二帧生成高动态范围(HDR)视频。
处理器可以基于视频中包括的对象来聚焦多个帧中的每一个。
处理器可以控制多个帧中的每一个的白平衡。
电子设备还可以包括触摸屏。处理器可以在存储器中存储与多个帧中的通过触摸屏选择的区域相对应的帧。
电子设备还可以包括触摸屏。处理器可以显示与在多个帧中通过触摸屏选择的区域相对应的帧。
处理器可以基于视频中的聚焦区域的数量来确定与通过触摸屏选择的区域相对应的帧的帧速率。
根据本公开的实施例,用于操作电子设备的方法可以包括:在捕获视频时从自相机模块获得的视频中选择多个区域,获得分别聚焦在从视频中选择的多个区域上的多个帧中的每一个,并且将多个帧中的每一个顺序地存储在存储器中。
获取多个帧中的每一个可以包括交替地获得聚焦在视频中包括的第一区域的第一帧和聚焦在视频中包括的第二区域的第二帧。
获取多个帧中的每一个可以包括确定聚焦在第一区域上改变为聚焦在第二区域上的聚焦移位时间,并且基于聚焦移位时间确定第二帧的曝光时间。
该方法还可以包括基于第二帧的曝光时间来调整相机模块的灵敏度。
该方法还可以包括使用第一帧和第二帧产生全景聚焦视频。
该方法还可以包括使用第一帧和第二帧生成高动态范围(HDR)视频。
获取多个帧中的每一个可以包括基于视频中包括的对象来聚焦多个帧中的每一个。
获取多个帧中的每一个可以包括确定多个帧中的每一个的白平衡。
顺序地存储多个帧中的每一个可以包括在存储器中存储对应于从多个帧中选择的区域的帧。
该方法还可以包括显示对应于从多个帧中选择的区域的帧。
显示对应于所选择的区域的帧可以包括基于视频中的聚焦区域的数量确定与所选区域相对应的帧的帧速率。
根据本公开的实施例,电子设备可以包括显示器、存储器,和处理器。,存储器以第一帧速率存储聚焦在视频中包括的第一区域的第一帧和并且与第一帧交替地获得的、聚焦在视频中包括的第二区域的第二帧,并且处理器以第二帧速率通过显示器播放第一帧和第二帧中的任一帧。
电子设备还可以包括触摸屏。处理器可以播放通过触摸屏选择的第一帧和第二帧中的任何一个。
处理器可以基于第一帧速率和在视频中聚焦的区域的数量来确定第二帧速率。
电子设备的每个前述部件可以包括一个或多个部件,并且部件的名称可以随着电子设备的类型而变化。根据本公开的各种实施例的电子设备可以包括上述组件中的至少一个,省略其中的一些,或者包括其他附加组件。一些组件可以组合成一个实体,但实体可以执行与组件可能相同的功能。
从前面的描述显而易见,根据本公开的实施例,当用户在播放视频时选择包括在捕获的视频中的对象或区域时,电子设备可以实时地改变所选对象或区域中的视频。
本文公开的实施例被提出用于描述和理解所公开的技术,并不限制本公开的范围。因此,本公开的范围应被解释为基于本公开的技术精神包括所有改变或各种实施例。

Claims (15)

1.一种电子设备,包括:
相机模块;
触摸屏;
存储器;和
处理器,被配置为:
识别与从相机模块获得的预览视频中包括的多个对象相对应的聚焦区域;
获得包括交替地聚焦在聚焦区域上的多个帧的视频;
在存储器中存储交替聚焦在聚焦区域上的多个帧;
响应于重放视频的请求,在触摸屏上重放包括聚焦在所述聚焦区域中的第一聚焦区域上的帧的第一视频;和
在重放第一视频时响应于用户通过触摸屏的选择,在触摸屏上重放包括聚焦在所述聚焦区域中的第二聚焦区域上的帧的第二视频,第二聚焦区域与第一聚焦区域不同。
2.根据权利要求1所述的电子设备,其中所述处理器被配置为:
基于预览视频中包括的多个对象,交替地获得聚焦在与第一深度或第一对象对应的第一聚焦区域上的第一帧,以及聚焦在与第二深度或第二对象对应的第二聚焦区域上的第二帧;
在所述存储器中交替地存储第一帧和第二帧。
3.根据权利要求2所述的电子设备,其中所述处理器被配置为:
确定其间聚焦在所述第一帧区域改变为聚焦于所述第二帧区域的聚焦移位时间,并
基于所述聚焦移位时间确定所述第二帧的曝光时间,
从而帧速率间隔包括第一帧的读出时间、聚焦移位时间和第二帧的曝光时间。
4.根据权利要求3所述的电子设备,
其中,相机模块包括图像传感器,
其中,所述处理器被配置为:基于所述第二帧的曝光时间来调整所述图像传感器的灵敏度和帧速率中的至少一个,使得当第二曝光时间短于预设时间时,所述处理器提高图像传感器的灵敏度。
5.根据权利要求2所述的电子设备,其中所述处理器被配置为:使用所述第一帧和所述第二帧生成包括聚焦在所有多个对象上的全景帧的全景聚焦视频。
6.根据权利要求2所述的电子设备,其中所述处理器被配置为:使用在亮度上彼此不同的所述第一帧和所述第二帧生成高动态范围(HDR)视频。
7.根据权利要求1所述的电子设备,其中所述处理器被配置为:基于所述预览视频中包括的多个对象来对所述多个帧中的每一个进行聚焦。
8.根据权利要求1所述的电子设备,其中所述处理器被配置为:确定所述多个帧中的每一个的白平衡。
9.根据权利要求1所述的电子设备,其中所述处理器被配置为:在所述存储器中存储与所述所获得的多个帧中通过所述触摸屏选择的聚焦区域相对应的帧。
10.根据权利要求1所述的电子设备,其中所述处理器被配置为:重放包括与在所述多个帧中通过所述触摸屏选择的帧区域相对应的帧的视频。
11.根据权利要求10所述的电子设备,其中所述处理器被配置为:基于所述预览视频中的聚焦区域的数量来确定与通过所述触摸屏选择的所述帧区域相对应的帧的帧速率。
12.一种用于操作电子设备的方法,所述方法包括:
识别与从电子设备的相机获得的预览视频中包括的多个对象相对应的聚焦区域;
获得包括交替地聚焦在聚焦区域上的多个帧的视频;
在电子设备的存储器中存储交替聚焦在聚焦区域上的多个帧;
响应于重放视频的请求,在触摸屏上重放包括聚焦在所述聚焦区域中的第一聚焦区域上的帧的第一视频;和
在重放第一视频时响应于用户通过触摸屏的选择,在触摸屏上重放包括聚焦在所述聚焦区域中的第二聚焦区域上的帧的第二视频,第二聚焦区域与第一聚焦区域不同。
13.根据权利要求12所述的方法,其中获得所述视频包括:
基于预览视频中包括的多个对象,交替地获得聚焦在与第一深度或第一对象对应的第一聚焦区域上的第一帧,以及聚焦在与第二深度或第二对象对应的第二聚焦区域上的第二帧;
在所述存储器中交替地存储第一帧和第二帧。
14.根据权利要求13所述的方法,其中获得所述视频包括:
确定其间聚焦在所述第一帧区域改变为聚焦于所述第二帧区域的聚焦移位时间;并
基于所述聚焦移位时间确定所述第二帧的曝光时间,
从而帧速率间隔包括第一帧的读出时间、聚焦移位时间和第二帧的曝光时间。
15.根据权利要求12所述的方法,还包括显示于从所述多个帧中选择的帧区域对应的帧,使得当第二曝光时间短于预设时间时,提高相机的图像感测灵敏度。
CN201710561060.4A 2016-07-11 2017-07-11 视频中的基于对象或区域的聚焦控制 Active CN107613283B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0087619 2016-07-11
KR1020160087619A KR20180006782A (ko) 2016-07-11 2016-07-11 영상의 초점을 제어하는 전자 장치와 이의 동작 방법

Publications (2)

Publication Number Publication Date
CN107613283A CN107613283A (zh) 2018-01-19
CN107613283B true CN107613283B (zh) 2021-07-09

Family

ID=59337477

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710561060.4A Active CN107613283B (zh) 2016-07-11 2017-07-11 视频中的基于对象或区域的聚焦控制

Country Status (5)

Country Link
US (1) US10477096B2 (zh)
EP (1) EP3270582A1 (zh)
KR (1) KR20180006782A (zh)
CN (1) CN107613283B (zh)
WO (1) WO2018012831A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
KR20200117562A (ko) * 2019-04-04 2020-10-14 삼성전자주식회사 비디오 내에서 보케 효과를 제공하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
US11102395B2 (en) 2019-08-16 2021-08-24 Sony Corporation Generation of media content having multi-focus video and multi-directional audio
WO2021106435A1 (ja) * 2019-11-25 2021-06-03 富士フイルム株式会社 映像作成方法
CN111314611A (zh) * 2020-02-26 2020-06-19 浙江大华技术股份有限公司 一种多个运动对象的拍摄方法及装置
KR20220081232A (ko) 2020-12-08 2022-06-15 권예지 엘리베이터 공기정화 및 살균장치
CN115474002A (zh) * 2021-04-30 2022-12-13 苹果公司 用于更改视觉媒体的用户界面
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103139481A (zh) * 2012-12-28 2013-06-05 深圳市中兴移动通信有限公司 一种摄像装置和摄像方法
CN104798364A (zh) * 2012-06-07 2015-07-22 数位光学欧洲有限公司 Mems快速对焦照相机模块

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3429755B2 (ja) * 1990-04-27 2003-07-22 株式会社日立製作所 撮像装置の被写界深度制御装置
WO2003063471A1 (fr) * 2002-01-22 2003-07-31 Sony Corporation Dispositif d'imagerie et technique afferente
US7653298B2 (en) * 2005-03-03 2010-01-26 Fujifilm Corporation Image capturing apparatus, image capturing method, image capturing program, image recording output system and image recording output method
JP4764712B2 (ja) 2005-12-09 2011-09-07 富士フイルム株式会社 ディジタル・カメラおよびその制御方法
US8390729B2 (en) 2007-09-05 2013-03-05 International Business Machines Corporation Method and apparatus for providing a video image having multiple focal lengths
JP2009188697A (ja) 2008-02-06 2009-08-20 Fujifilm Corp 多焦点カメラ装置、それに用いられる画像処理方法およびプログラム
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
US8639032B1 (en) * 2008-08-29 2014-01-28 Freedom Scientific, Inc. Whiteboard archiving and presentation method
US20100283868A1 (en) * 2010-03-27 2010-11-11 Lloyd Douglas Clark Apparatus and Method for Application of Selective Digital Photomontage to Motion Pictures
JP5541016B2 (ja) * 2010-09-08 2014-07-09 リコーイメージング株式会社 撮像システムおよび画素信号読出し方法
US9118842B2 (en) * 2010-09-16 2015-08-25 Intellectual Ventures Fund 83 Llc Producing focused videos from single captured video
KR20120081514A (ko) * 2011-01-11 2012-07-19 삼성전자주식회사 동영상 촬영 방법 및 장치
US8704916B2 (en) * 2011-04-11 2014-04-22 Canon Kabushiki Kaisha Systems and methods for focus transition
JP2013013061A (ja) * 2011-05-27 2013-01-17 Sanyo Electric Co Ltd 撮像装置
US20130044237A1 (en) * 2011-08-15 2013-02-21 Broadcom Corporation High Dynamic Range Video
US8718459B2 (en) * 2012-06-01 2014-05-06 Blackberry Limited Method and digital camera having improved autofocus
KR101487516B1 (ko) * 2012-09-28 2015-01-30 주식회사 팬택 연속 자동 초점을 이용한 멀티 초점 이미지 캡처 장치 및 방법
KR102143618B1 (ko) * 2014-01-17 2020-08-11 삼성전자주식회사 프레임률 제어 방법 및 그 전자 장치
US10419703B2 (en) * 2014-06-20 2019-09-17 Qualcomm Incorporated Automatic multiple depth cameras synchronization using time sharing
US9384579B2 (en) * 2014-09-03 2016-07-05 Adobe Systems Incorporated Stop-motion video creation from full-motion video
US10462449B2 (en) * 2017-02-23 2019-10-29 Novatek Microelectronics Corp. Method and system for 360-degree video playback

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104798364A (zh) * 2012-06-07 2015-07-22 数位光学欧洲有限公司 Mems快速对焦照相机模块
CN103139481A (zh) * 2012-12-28 2013-06-05 深圳市中兴移动通信有限公司 一种摄像装置和摄像方法

Also Published As

Publication number Publication date
CN107613283A (zh) 2018-01-19
WO2018012831A1 (en) 2018-01-18
KR20180006782A (ko) 2018-01-19
EP3270582A1 (en) 2018-01-17
US20180013949A1 (en) 2018-01-11
US10477096B2 (en) 2019-11-12

Similar Documents

Publication Publication Date Title
CN107613283B (zh) 视频中的基于对象或区域的聚焦控制
KR102444085B1 (ko) 휴대용 통신 장치 및 휴대용 통신 장치의 영상 표시 방법
CN110462572B (zh) 电子装置及其控制方法
US10403241B2 (en) Electronic device and method for running function according to transformation of display of electronic device
KR102622754B1 (ko) 이미지 합성 방법 및 이를 지원하는 전자 장치
KR102360453B1 (ko) 카메라 설정 방법 및 장치
US10917552B2 (en) Photographing method using external electronic device and electronic device supporting the same
EP3104590A1 (en) Electronic device and method for displaying image therein
US20160142703A1 (en) Display method and electronic device
US10848669B2 (en) Electronic device and method for displaying 360-degree image in the electronic device
KR102407765B1 (ko) 전자 장치 및 전자 장치의 파노라마 영상 표시 제어 방법
US11670022B2 (en) Electronic device and method for displaying and generating panoramic image
CN106228511B (zh) 电子装置以及用于在电子装置中产生图像文件的方法
US10325533B2 (en) Electronic device and method for outputting electronic document in electronic device
EP3342162B1 (en) Electronic device and method for displaying and generating panoramic image
KR102252448B1 (ko) 제어 방법 및 그 방법을 처리하는 전자장치
CN109804618B (zh) 用于显示图像的电子设备和计算机可读记录介质
KR20170052976A (ko) 모션을 수행하는 전자 장치 및 그 제어 방법
KR20160143094A (ko) 개인 인증 전자 장치 및 방법
KR20180094290A (ko) 전자 장치 및 전자 장치의 수중 촬영 판단 방법
KR20160114434A (ko) 전자 장치 및 전자 장치의 이미지 촬영 방법
KR20180082273A (ko) 영상 통화를 수행하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록매체
KR20160012909A (ko) 이미지를 표시하는 전자 장치 및 그 제어 방법
US20180173701A1 (en) Method for contents tagging and electronic device supporting the same
KR20190071550A (ko) 촬영 아이콘에 포함된 구성원의 프로필 이미지에 따라 카메라 필터를 다르게 적용하는 장치 및 그 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant