CN114422701A - 用于控制相机的方法及其电子设备 - Google Patents
用于控制相机的方法及其电子设备 Download PDFInfo
- Publication number
- CN114422701A CN114422701A CN202210090282.3A CN202210090282A CN114422701A CN 114422701 A CN114422701 A CN 114422701A CN 202210090282 A CN202210090282 A CN 202210090282A CN 114422701 A CN114422701 A CN 114422701A
- Authority
- CN
- China
- Prior art keywords
- camera
- electronic device
- processor
- image
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000003213 activating effect Effects 0.000 claims abstract description 29
- 230000004913 activation Effects 0.000 claims abstract description 17
- 238000004891 communication Methods 0.000 claims description 37
- 230000004044 response Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 45
- 230000006870 function Effects 0.000 description 41
- 230000008859 change Effects 0.000 description 32
- 230000008569 process Effects 0.000 description 29
- 238000001514 detection method Methods 0.000 description 16
- 230000001413 cellular effect Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 239000008186 active pharmaceutical agent Substances 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 101150053844 APP1 gene Proteins 0.000 description 2
- 101100189105 Homo sapiens PABPC4 gene Proteins 0.000 description 2
- 102100039424 Polyadenylate-binding protein 4 Human genes 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 239000007933 dermal patch Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000001646 magnetic resonance method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 229910052755 nonmetal Inorganic materials 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
Abstract
本发明的各种实施例涉及用于控制电子设备中的多个相机的装置和方法。在本文中,电子设备包括:第一相机;第二相机,被设置为具有包括在第一相机的视角中的视角;显示器;以及处理器,其中所述处理器可以被配置为在显示器上显示通过多个相机中的第一相机捕获的第一图像;从第一图像中检测与第二相机相对应的信息;当基于与第二相机相对应的信息确定激活第二相机时,激活第二相机;以及在显示器上显示与第一相机和第二相机的激活相对应的至少一个图像。其他实施例也是可能的。
Description
技术领域
本公开涉及用于控制电子设备中的多个相机的方法和装置。
背景技术
随着信息通信技术和半导体技术的发展,各种类型的电子设备已发展为提供各种多媒体服务的多媒体设备。多媒体服务可以包括以下至少一项:语音呼叫服务、消息服务、广播服务、无线互联网服务、相机服务、音乐再现服务等。
电子设备可以使用多个相机提供用户期望的各种相机服务。例如,电子设备可以使用设置在电子设备的背面的多个相机获得各种视角的图像。
发明内容
技术问题
电子设备可以使用具有不同视角的多个相机来获得用户需要的视角的图像。例如,电子设备可以驱动多个相机中的与用户输入相对于的至少一个相机,以获得与相应相机的视角相对应的图像。然而,当电子设备基于用户输入改变驱动相机时,可能发生与相机的激活相关联的延迟。
此外,当电子设备并行地操作多个相机时,多个相机需要持续地维持激活状态,因此电子设备消耗的电量可能增加,这是一个缺点。
根据本公开的各种实施例,提供了一种方法和装置,通过该方法和装置,电子设备使用多个相机提供多相机服务。
问题的解决方案
根据本公开的各种实施例,电子设备可以包括:第一相机;第二相机,具有被设置为包括在第一相机的视角中的视角;显示器;以及处理器,其中所述处理器被配置为执行以下操作:在显示器上显示经由第一相机获得的第一图像;从第一图像中检测与第二相机相对应的信息;当基于与第二相机相对应的信息确定激活第二相机时,激活第二相机;以及在显示器上另外显示经由第二相机获得的第二图像。
根据本公开的各种实施例,电子设备的操作方法可以包括:在电子设备的显示器上显示经由电子设备的第一相机获得的第一图像;从第一图像中检测与第二相机相对应的信息,第二相机被配置为具有包括在第一相机的视角中的视角;当基于与第二相机相对应的信息确定激活第二相机时,激活第二相机;以及在显示器上另外显示经由第二相机获得的第二图像。
本发明的有益效果
根据各种实施例的电子设备及其操作方法可以基于经由第一相机获得的图像,选择性地激活当前在空闲模式下操作的第二相机,由此可以减少与第二相机的激活相关联的延迟,并且可以降低提供多相机服务所消耗的电量。
附图说明
图1a是根据本公开各种实施例的电子设备的前透视图;
图1b是根据本公开各种实施例的电子设备的后透视图;
图2a是示出了根据本公开各种实施例的网络环境中的电子设备的示意图;
图2b是根据本公开各种实施例的包括多个相机的电子设备的框图;
图2c是示出了根据本公开各种实施例的使用多个相机捕获的数据的配置的示意图;
图3是根据本公开各种实施例的电子设备的框图;
图4是示出了根据本公开各种实施例的通过电子设备提供多相机服务的过程的流程图;
图5是示出了根据本公开各种实施例的由电子设备控制多个相机的过程的流程图;
图6是示出了根据本公开各种实施例的由电子设备基于到目标的距离控制多相机服务的过程的流程图;
图7是示出了根据本公开各种实施例的用于由电子设备基于到目标的距离控制多相机服务的配置的示意图;
图8是示出了根据本公开各种实施例的由电子设备基于面部检测信息提供多相机服务的过程的流程图;
图9a、图9b、图9c、图9d、图9e、图9f、图9g和图9h是示出了根据本公开各种实施例的用于由电子设备基于面部检测信息提供多相机服务的屏幕配置的示意图;
图10是示出了根据本公开各种实施例的由电子设备捕获图像的过程的流程图;
图11a、图1 1b、图11c、图11d、图11e和图11f是示出了根据本公开各种实施例的由电子设备捕获的图像的示意图;
图12是示出了根据本公开各种实施例的由电子设备基于图像的亮度值提供多相机服务的过程的流程图;
图13a和图13b是示出了根据本公开各种实施例的用于由电子设备基于目标的背光信息提供多相机服务的屏幕配置的示意图;
图14a和图14b是示出了根据本公开各种实施例的用于由电子设备基于图像中的亮度差值提供多相机服务的屏幕配置的示意图;
图15是示出了根据本公开各种实施例的由电子设备基于对象的位置提供多相机服务的过程的流程图;
图16a和图16b是示出了根据本公开各种实施例的用于基于与第二相机区域相关联的对焦设置信息提供多相机服务的屏幕配置的示意图;
图17a和图17b是示出了根据本公开各种实施例的用于基于对焦对象的移动信息提供多相机服务的屏幕配置的示意图;
图18是示出了根据本公开各种实施例的由电子设备在经由第一相机获得的图像中设置第二相机区域的过程的流程图;
图19是示出了根据本公开各种实施例的由电子设备控制经由第一相机获得的图像中的第二相机区域的大小的过程的流程图;
图20a和图20b是示出了根据本公开各种实施例的用于由电子设备控制经由第一相机获得的图像中的第二相机区域的大小的屏幕配置的示意图;
图21是示出了根据本公开各种实施例的由电子设备基于对焦对象的大小确定第二相机区域的大小的过程的流程图;
图22是示出了根据本公开各种实施例的由电子设备控制变焦功能的过程的流程图;
图23a和图23b是示出了根据本公开各种实施例的用于通过电子设备控制第二相机的变焦功能的屏幕配置的示意图;
图24a、图24b和图24c是示出了根据本公开各种实施例的用于由电子设备控制第一相机的变焦功能的屏幕配置的示意图;以及
图25a和图25b是示出了根据本公开各种实施例的用于由电子设备改变相机的显示区域的屏幕配置的示意图。
具体实施方式
在在下文中,将参考附图来描述本公开的各种实施例。实施例和其中使用的术语并不旨在将本文公开的技术限制为特定形式,并且应被理解为包括相应实施例的各种修改、等同物和/或替代方案。在描述附图的过程中,可以将相似的附图标记用于表示相似的组成元件。单数表述可以包括复数表述,除非它们在上下文中明显不同。
除非上下文另外清楚地指示,否则如本文所使用的单数形式可以包括复数形式。在本公开各种实施例中使用的表述“第一”、“第二”、“所述第一”或“所述第二”可以修饰各种组件,而不管顺序和/或重要性如何,但不限制对应组件。当一元件(例如,第一元件)被称为“(功能性地或者通信地)连接至”或“直接耦接至”另一元件(第二元件)时,该元件可以直接连接至该另一元件,或者可以经由又一元件(例如,第三元件)连接至该另一元件。
根据具体情形,在硬件或软件方面,在本公开的各种实施例中使用的表述“配置为”可以与例如“适合于”、“具有...的能力”、“设计为”、“适于”、“用于”、或“能够”互换使用。备选地,在一些情况下,表述“被配置为...的设备”可以意指该设备与其它设备或组件一起“能够...”。例如,短语“适于(或(被)配置为)执行A、B和C的处理器”可以意指仅用于执行对应操作的专用处理器(例如,嵌入式处理器)、或可以通过执行存储在存储器设备中的一个或多个软件程序来执行对应操作的通用处理器(例如,中央处理单元(CPU)或应用处理器(AP))。
根据本公开各种实施例的电子设备可以包括以下至少一项:例如智能电话、平板个人计算机(PC)、移动电话、视频电话、电子书阅读器(e-book阅读器)、台式PC、膝上型PC、上网本计算机、工作站、服务器、个人数字助理(PDA)、便携式多媒体播放器(PMP)、MPEG-1音频层-3(MP3)播放器、移动医疗设备、相机和可穿戴设备。根据各种实施例,可穿戴设备可以包括以下至少一项:饰品类型(例如,手表、戒指、手环、脚环、项链、眼镜、隐形眼镜或头戴式设备(HMD))、衣料或服饰集成类型(例如,电子服饰)、身体附着类型(例如,皮肤贴或纹身)和生物植入类型(例如,可植入电路)。
在一些实施例中,电子设备可以包括以下至少一项:例如电视、数字视频盘(DVD)播放器、音频设备、冰箱、空调、吸尘器、烤箱、微波率、洗衣机、空气净化器、机顶盒、家庭自动控制面板、安全控制面板、TV盒(例如,Samsung HomeSyncTM、App le TVTVTM或GoogleTVTM)、游戏机(例如,XBOXTM和PLAYSTATIONTM)、电子词典、电子钥匙、摄像机和电子相框。
在其他实施例中,电子设备可以包括以下至少一项:各种医疗设备(例如,各种便携式医疗测量设备(血糖监控设备、心率监控设备、血压测量设备、体温测量设备等)、磁共振血管造影(MRA)、磁共振成像(MRI)、计算机断层扫描(CT)机和超声波机)、导航设备、全球定位系统(GPS)接收机、事件数据记录仪(EDR)、飞行数据记录仪(FDR)、车辆信息娱乐设备、船用电子设备(例如,船用导航设备和罗盘)、航空电子设备、安全设备、车辆头单元、工业或家用机器人、银行的自动柜员机(ATM)、商店的销售点(POS)或物联网设备(例如,灯泡、各种传感器、电表或气表、洒水器设备、火警、恒温器、街灯、烤面包机、运动器材、热水箱、加热器、锅炉等)。
根据一些实施例,电子设备可以包括家具或建筑物/结构的一部分、电子板、电子签名接收设备、投影仪、以及各种测量仪器(例如水表、电表、气表、和无线电波表等)中的至少一个。在各种实施例中,电子设备可以是柔性的,或可以是上述各种设备中的一个或多个的组合。根据本公开实施例的电子设备不限于上述设备。在本公开中,术语“用户”可以指示使用电子设备的人或者使用电子设备的设备(例如,人工智能电子设备)。
图1a是根据本公开各种实施例的电子设备的前透视图。图1b是根据本公开各种实施例的电子设备的后透视图。
参考图1a和图1b,电子设备100可以包括壳体110。根据实施例,壳体110可以包括金属构件,或者可以包括金属构件和非金属构件二者。根据实施例,包括窗口(例如,前窗或玻璃板)的显示器101可以设置在壳体110的正面(例如,第一侧)。根据实施例,电子设备100可以包括听筒(扬声器)102,以输出伙伴的语音。听筒102可以设置在壳体110中。根据实施例,电子设备100可以包括麦克风设备103,以将用户的语音发送给伙伴。听筒103可以设置在壳体110中。根据实施例,电子设备100可以包括设置在壳体110中的至少一个键输入设备。例如,键输入设备可以包括设置在壳体110的正面的主键按钮114、设置在主键按钮114的右侧和左侧的触摸板115、以及设置在壳体110的侧边的侧键按钮116。
根据一个实施例,用于执行电子设备100的各种功能的组件可以设置在听筒102周围。例如,组件可以包括至少一个传感器模块104。例如,传感器模块104可以包括照度传感器(例如,光传感器)、接近传感器(例如,光传感器)、红外传感器和超声波传感器中的至少一个。例如,组件可以包括前置相机设备105。例如,组件可以包括指示器106(例如,LED设备),以使用户能够识别电子设备的状态信息。
根据实施例,可以在麦克风设备103的一侧设置扬声器设备108。根据实施例,接口连接器端口107可以设置在麦克风设备103的另一侧处,并且可以执行与外部设备的数据收发,并可以接收外部电力以对电子设备100进行充电。根据实施例,可以在接口连接器端口107的一侧设置耳机插孔109。
根据实施例,电子设备100可以包括设置在壳体的背面(例如,第二侧)的背面窗111。根据实施例,第一相机设备112和第二相机设备113可以设置在背面窗111中。根据实施例,可以在第一相机设备112和第二相机设备113的一侧设置至少一个电子组件113。例如,电子组件113可以包括例如照度传感器(例如光传感器)、接近传感器(例如光传感器)、红外传感器、超声波传感器、心率传感器和闪光设备中的至少一个。
图2a示出了根据本公开各种实施例的网络环境200中的电子设备201。
参考图2a,电子设备201可以包括总线210、处理器220、存储器230、输入/输出接口250、显示器260、通信接口270和相机280。在一些实施例中,电子设备201可以省略元件中的至少一个,或还可以包括其他元件。
例如,总线210可以包括用于将元件220至280互连并在元件220至280之间传送通信(例如,控制消息和/或数据)的电路。
处理器220可以包括中央处理器(CPU)、应用处理器(AP)、图像信号处理器(ISP)和通信处理器(CP)中的一个或多个。例如,处理器220可以执行与电子设备201的至少一个其他元件的控制和/或通信相关的操作或数据处理。
根据实施例,处理器220可以使用经由相机280的第一相机获得的图像控制第二相机的驱动。例如,处理器220可以识别在经由第一相机获得图像的至少一部分中设置的第二相机区域。处理器220可以基于第二相机区域的图像属性来确定是否激活第二相机。当确定激活第二相机时,处理器220可以执行控制,使得相机280的第二相机被激活。例如,第二相机区域的图像属性可以包括第二相机区域的面部检测信息、第二相机区域的曝光信息、(亮度值)和第二相机区域的对焦设置信息中的至少一个。
存储器230可以包括易失性和/或非易失性存储器。存储器230可以存储例如与电子设备201的至少一个其他元件相关的指令或数据。根据实施例,存储器230可以存储软件和/或程序240。例如,程序240可以包括内核241、中间件243、应用编程接口(API)245和/或应用程序(或“应用”)247。内核241、中间件243和API 245中的至少一些可以被称作操作系统(OS)。
内核241可以控制或管理用于执行由其他程序(例如,中间件243、API 245或应用247)实施的操作或功能的系统资源(例如,总线210、处理器220或存储器230)。此外,内核241可以提供接口,其中,中间件243、API 245或应用247可以经由所述接口访问电子设备201的各个元件以控制或管理系统资源。
例如,中间件243例如可以用作中介,从而允许API 245或应用247与内核241进行通信以交换数据。此外,中间件243可以根据从应用247接收的一个或多个任务请求的优先级来对所述一个或多个任务请求进行处理。例如,中间件243可以向应用247中的一个或多个指派使用电子设备201的系统资源(例如,总线210、处理器220、存储器230等)的优先级,并可以处理一个或多个任务请求。API 245是被应用247用来控制由内核241或中间件243提供的功能的接口,并且可以包括例如至少一个接口或功能(例如,指令),以进行文件控制、窗口控制、图像处理、字符控制等。
例如,输入/输出接口250可以用作可以向电子设备201的其他元件转发从用户或外部设备输入的命令或数据的接口。
显示器260可以包括例如液晶显示器(LCD)、发光二极管(LED)显示器、有机发光二极管(OLED)显示器、微机电系统(MEMS)显示器或电子纸显示器。例如,显示器260可以向用户显示各种类型的内容(例如,文本、图像、视频、图标和/或符号)。显示器260可以包括触摸屏,并且可以接收例如使用电子笔或用户身体的一部分输入的触摸、手势、接近或悬停。
例如,通信接口270可以建立电子设备201与外部设备(例如,第一外部电子设备202、第二外部电子设备204或服务器206)之间的通信。例如,通信接口270可以经由无线或有线通信与网络272相连,以与外部设备(例如,第二外部电子设备204或服务器206)进行通信。
例如,无线通信可以包括使用以下至少一项的蜂窝通信:LTE、高级LTE(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)和全球移动通信系统(GSM)等。根据实施例,无线通信可包括例如以下至少一项:Wi-Fi、光保真(Li-Fi)、蓝牙、蓝牙低能耗(BLE)、ZigBee、近场通信(NFC)、磁安全传输、射频(RF)和体域网(BAN)。根据实施例,无线通信可以包括GNSS。例如,GNSS可以是全球定位系统(GPS)、全球导航卫星系统(Glonass)、北斗导航卫星系统(在下文中称为“北斗”)或伽利略(欧洲基于全球卫星的导航系统)。在本文档的下文中,术语“GPS”可以与术语“GNSS”互换。例如,有线通信可以包括通用串行总线(USB)、高清多媒体接口(HDMI)、推荐标准232(RS-232)和普通老式电话服务(POST)等中的至少一个。网络272可以包括电信网络,例如,计算机网络(例如,LAN或WAN)、互联网和电话网络中的至少一个。
第一外部电子设备202和第二外部电子设备204中的每一个可以是具有与电子设备201的类型相同或不同的类型的电子设备。根据各种实施例,可以在另一电子设备或多个电子设备(例如,电子设备202和204或者服务器206)中执行电子设备201中所执行的操作中的全部或一些。根据实施例,当电子设备201必须自动地或响应于请求来执行一些功能或服务时,除了执行这些功能或服务或者替代执行这些功能或服务,电子设备201还可以向另一设备(例如,电子设备202或204或者服务器206)请求执行与这些功能或服务相关的至少一些功能。另一电子设备(例如,电子设备202或204或者服务器206)可以执行所请求的功能或附加功能,并可以向电子设备201传递其结果。电子设备201可以提供接收到的结果本身,或者可以附加地处理接收到的结果以提供请求的功能或服务。为此,例如,可以使用云计算、分布式计算或客户端-服务器计算技术。
相机280可以收集与目标相关联的图像信息。例如,相机280可以包括多个相机模块,这些相机模块包括在电子设备201中。例如,相机280可以包括第一相机和第二相机,以拍摄位于用户前方的目标。第一相机和第二相机具有用于获得图像的不同视角,并且第二相机的视角可以与第一相机的视角的至少一部分重叠。附加地或备选地,相机280还可以包括用于以自拍模式执行拍摄的相机(例如,前置相机设备)。例如,相机280可以包括诸如电荷耦合器件(CCD)传感器、互补金属氧化物半导体(CMOS)传感器等的图像传感器。
图2b是根据本公开各种实施例的包括多个相机的电子设备的框图。
参考图2b,电子设备201可以包括处理器220、显示器260、第一相机282和第二相机284。
根据实施例,可以将第一相机282和第二相机284布置为在电子设备201的一侧(例如,背面)彼此靠近。例如,可以将第一相机282和第二相机284布置为在电子设备201的背面沿竖直方向或水平方向彼此靠近。例如,可以将第一相机282的视角设置为比第二相机284的视角更宽,并且第二相机284的视角可以包括在第一相机282的视角中。
根据实施例,当电子设备201以多相机模式操作时,第一相机282可以持续地维持激活状态。根据实施例,当电子设备201以多相机模式操作时,可以选择性地激活第二相机284。例如,当在多相机模式下限制第二相机284的使用时,第二相机284可以在空闲模式下操作。当处理器220确定将第二相机284改变到激活模式时,第二相机284可以改变到激活模式。例如,第二相机284的空闲模式可以包括维持用于激活第二相机284的初始设置并且去激活第二相机284的图像传感器的操作状态。用于激活第二相机284的初始设置可以包括生成实例、分配存储器、从存储器230读取用于操作相机的设置参数等。第二相机284的激活模式可以包括激活第二相机284的图像传感器以获得图像的操作状态。
根据实施例,处理器220可以经由相机驱动模块222和信息提取模块224控制第一相机282和第二相机284的驱动。例如,当电子设备201在多相机模式下操作时,相机驱动模块222可以执行控制,使得第一相机282被激活且第二相机284在空闲模式下操作。信息提取模块224可以从经由第一相机282获得的图像中检测第二相机区域的图像属性。相机驱动模块222可以基于由信息提取模块224提供的第二相机区域的图像属性来确定是否激活第二相机284。例如,第二相机区域的图像属性可以包括第二相机区域的面部检测信息、第二相机区域的曝光信息(亮度值)以及与包括在第二相机区域中的对象相关联的对焦信息中的至少一个。第二相机区域可以包括经由第一相机获得的图像中的与第二相机284的视角相对应的至少一部分。
根据实施例,处理器220可以在经由第一相机282获得的图像中设置第二相机区域。例如,当检测到区域匹配事件发生时,处理器220可以从经由第一相机282获得的图像中检测与经由第二相机284获得的图像相对应的区域。处理器220可以将经由第一相机282获得的图像中的与经由第二相机284获得的图像相对应的区域设置为第二相机区域。例如,区域匹配事件可以周期性地发生,或者由于用户输入而发生。
根据实施例,处理器220可以基于到目标的距离限制第二相机284的驱动。例如,处理器220可以估计到第一相机282提供的图像中的对焦对象的距离。例如,处理器220可以使用第一相机282或单独的传感器估计到对焦对象的距离。当对焦对象存在于参考距离内时,处理器220可以限制第二相机284的驱动。例如,处理器220可以使用相机驱动模块222执行控制,使得第二相机284维持空闲模式或者去激活第二相机284。附加地或备选地,当对焦对象存在于距电子设备201的参考距离内时,处理器220可以去激活电子设备201的多相机模式。
根据实施例,处理器220可以基于多相机模式下的捕获事件的类型,使用第一相机282和第二相机284中的至少一个来捕获图像。例如,当检测到第一捕获事件发生时,处理器220可以使用第一相机282捕获图像。例如,当检测到第二捕获事件发生时,处理器220可以使用第二相机284捕获图像。例如,当检测到第三捕获事件发生时,处理器220可以使用第一相机282和第二相机284捕获图像。在这种情况下,处理器220可以单独存储经由第一相机282捕获的图像和经由第二相机284捕获的图像,或者可以将它们组合为单个图像并存储该图像。例如,处理器220可以基于捕获手势、压力的强度、触摸持续时间、触摸次数和捕获图标类型等中的至少一个对捕获事件的类型进行分类。
根据实施例,处理器220可以控制第二相机284的视角。例如,处理器220可以控制第二相机284的视角以与经由输入/输出接口250检测到的用户输入相对应。例如,处理器220可以在第二相机284提供的图像中识别对焦对象。处理器220可以基于对焦对象的大小控制第二相机284的视角。例如,处理器220可以执行控制以便缩小第二相机284的视角,以与经由第二相机284获得的图像中的对焦对象的大小相对应。
根据实施例,处理器220可以在多相机模式下独立地控制第一相机282和第二相机284的变焦功能。例如,当激活第一相机282和第二相机284时,处理器220可以控制显示器260,以便显示经由第一相机282获得的第一图像和经由第二相机284获得的第二图像。例如,处理器220可以控制显示器260,以便在经由第一相机282获得的第一图像的至少一部分中显示经由第二相机284获得的第二图像。当在第一图像的第二相机区域中检测到与变焦功能相对应的用户输入时,处理器220可以控制第二相机284,以便执行与用户输入相对应的变焦功能。当在第一图像的第二相机区域之外检测到与变焦功能相对应的用户输入时,处理器220可以控制第一相机282,以便执行与用户输入相对应的变焦功能。
显示器260可以显示由第一相机282和第二相机284中的至少一个提供的图像。例如,当激活第一相机282和第二相机284时,显示器260可以单独显示经由第一相机282获得的第一图像和经由第二相机284获得的第二图像。例如,显示器260可以在经由第一相机282获得的第一图像的至少一部分中显示经由第二相机284获得的第二图像,如画中画(PIP)方式一样。例如,显示器260可以在不同区域中显示经由第一相机282获得的第一图像和经由第二相机284获得的第二图像。例如,当第二相机284在多相机模式下以空闲模式操作时,显示器260可以显示经由第一相机282获得的第一图像。例如,当仅激活第二相机284时,显示器260可以显示经由第二相机284获得的第二图像。
根据本公开的各种实施例,当电子设备201使用多个相机捕获图像时,电子设备201可以区分用于后向兼容性和基本再现的第一拍摄以及使用放大/缩小的第二拍摄。例如,第一拍摄可以将经由第一相机282的图像传感器获得的图像修改为具有发送到处理器以进行图像处理的形式的数据(拜耳数据)。第一拍摄可以包括图像捕获序列,图像捕获序列对经修改获得的数据(拜耳数据)执行图像信号处理(ISP)并且将处理后的结果编码为如图2c中所示的图像格式(例如,JPEG)。例如,第二拍摄可以将经由第二相机284的图像传感器获得的图像修改为具有发送到处理器以进行图像处理的形式的数据(拜耳数据)。第二拍摄对经修改获得的数据(拜耳数据)执行ISP。如图2c示,与将图像存储为单独的图像格式相反,第一拍摄图像和第二拍摄图像可以包括用于将图像编码为单个图像格式(例如,JPEG)的图像捕获序列。
图2c是示出了根据本公开各种实施例的使用多个相机捕获的数据的配置的示意图。
根据实施例,当电子设备201在多相机模式下使用多个相机捕获图像时,电子设备201可以存储以图2c的结构提供的数据。例如,电子设备201可以使用允许JPEG扩展的APPn标记代码配置在多相机模式下经由多个相机获得的图像的信息(例如,与多个图像相关联的附加信息和元数据)。例如,多相机模式的捕获图像可以包括指示图像开始的图像开始(SOI)290、包括图像的附加信息的标记代码(APP1)292和294、向使用多个相机捕获的多个图像分配的标记代码(APPn)296、包括经由至少一个相机获得的图像数据的图像数据字段298以及指示图像结束的图像结束(EOI)299。附加地或备选地,多相机模式的图像信息可以具有使用各种放大/缩小的分层结构,并且可以经由相同文件中的单独空间对图像信息进行分配,如图形296和298所示。
根据实施例,APP1字段294的元数据可以包括多相机模式的各种参数信息,例如经由多相机模式获得的图像的变焦放大率、偏移指定等。例如,可以通过诸如整数、浮点、ASCII等的各种形式表示多相机模式的参数。此外,作为用于交换数据的技术,多相机模式的参数可以扩展为标记图像文件格式(TIFF)、可扩展元数据平台(XMP)等。根据实施例,电子设备201需要相对较大的内存大小,以便存储在多相机模式下使用多个相机捕获的图像。因此,电子设备201可能需要一种数据压缩编解码器,该数据压缩编解码器适于利用在多相机模式下捕获的图像的场景。例如,基于变焦功能,在相同视角下的多相机模式的图像可以包括许多重叠的视觉分量。因此,处理器220可以基于变焦功能减少重叠视觉特性,并且可以改变配置以包括低熵的数据,从而可以减少数据量,如图形296所示。例如,处理器220可以使用差分脉冲编码调制(DPCM)、运动估计/运动补偿(ME/MC)等作为用于减少数据量的压缩技术。
根据实施例,电子设备201可以使用如图2c所示的多相机模式的单个文件配置有效地控制各种场景,该单个文件配置对文件管理是有效的。此外,电子设备201可以在没有任何限制的情况下保证后向兼容性并且可以经由回放设备(例如,智能电话、电视等)执行再现,并且可以经由各种用户接口(例如,触摸输入等)使用多个相机来支持各种效果。
图3是根据本公开各种实施例的电子设备301的框图。电子设备301可以包括例如图2所示的电子设备201的整体或一部分。
参考图3,电子设备301包括至少一个处理器(例如,AP)310、通信模块320、订户标识模块324、存储器330、传感器模块340、输入设备350、显示器360、接口370、音频模块380、相机模块391、电源管理模块395、电池396、指示器397和电机398。
处理器310可以控制与其连接的多个硬件或软件元件,并且可以通过驱动操作系统或应用程序来执行各种数据处理和操作。例如,处理器310可以实现为片上系统(SoC)。根据实施例,处理器310还可以包括图形处理单元(GPU)和/或图像信号处理器(ISP)。处理器310还可以包括图3中示出的元件中的至少一些(例如,蜂窝模块321)。处理器310可以将从至少一个其他元件(例如,非易失性存储器)接收到的命令或数据加载到易失性存储器中,可以处理加载的命令或数据,而且可以将所得数据存储在非易失性存储器中。
根据实施例,处理器210可以基于经由电子设备301的第一相机获得的图像的至少一部分(第二相机区域)的图像属性确定是否激活电子设备301的第二相机。
通信模块320可以具有与图2的通信接口270的配置相同或相似的配置。例如,通信模块320可以包括蜂窝模块321、Wi-Fi模块323、蓝牙模块325、GNSS模块327、NFC模块328和RF模块329。
例如,蜂窝模块321可以经由通信网络提供语音呼叫、视频呼叫、文本消息、服务、互联网服务等。根据实施例,蜂窝模块321可以使用订户标识模块324(例如,SIM卡)识别和认证通信网络中的电子设备301。根据实施例,蜂窝模块321可以执行处理器310可以提供的功能中的至少一些功能。根据实施例,蜂窝模块321可以包括通信处理器(CP)。
根据一些实施例,蜂窝模块321、Wi-Fi模块323、BT模块325、GNSS模块327和NFC模块328中的至少一些(例如,两个或更多个)可以被包括在一个集成芯片(IC)或IC封装中。
例如,RF模块329可以发送或接收通信信号(例如,RF信号)。例如,RF模块329可以包括收发机、功率放大模块(PAM)、频率滤波器、低噪声放大器(LNA)、天线等。根据另一实施例,蜂窝模块321、Wi-Fi模块323、BT模块325、GNSS模块327和NFC模块328中的至少一个可以经由单独的RF模块发送或接收RF信号。例如,订户标识模块324可以包括含有订户标识模块或嵌入式SIM的卡,并且可以包含唯一标识信息(例如,集成电路卡标识符(ICCID))或订户信息(例如,国际移动订户标识(IMSI))。
例如,存储器330(例如,图2的存储器230)可以包括嵌入式存储器332或者外部存储器334。例如,嵌入式存储器332可以包括以下至少一项:易失性存储器(例如,DRAM、SRAM、SDRAM等)和非易失性存储器(例如,一次性可编程ROM(OTPROM)、PROM、EPROM、EEPROM、掩模ROM、闪存ROM、闪存、硬盘驱动器或固态驱动器(SSD))。外部存储器334可以包括闪存驱动器,例如紧凑型闪存(CF)、安全数字(SD)、微型SD、迷你型SD、极限数字(xD)、多媒体卡(MMC)、存储棒等。外部存储器334可以经由各种接口与电子设备301功能地或物理地连接。
例如,传感器模块340可以测量物理量或检测电子设备301的操作状态,并且可以将测量的或检测的信息转换为电信号。例如,传感器模块340可以包括以下至少一项:手势传感器340A、陀螺仪传感器340B、气压传感器340C、磁传感器340D、加速度传感器340E、握持传感器340F、接近传感器340G、颜色传感器340H(例如,红、绿和蓝(RGB)传感器)、生物传感器340I、温度/湿度传感器340J、照度传感器340K和紫外(UV)传感器340M。附加地或备选地,传感器模块340可以包括例如电子鼻传感器、肌电图(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器、红外(IR)传感器、虹膜传感器和/或指纹传感器。传感器模块340还可以包括用于控制包括在其中的一个或多个传感器的控制电路。在一些实施例中,电子设备301还可以包括被配置为控制传感器模块340的处理器,作为处理器310的一部分或独立于处理器310,并可以在处理器210处于睡眠状态时控制传感器模块340。例如,温度/湿度传感器340J可以包括设置在不同位置的多个温度传感器。
例如,输入设备350可以包括触摸面板352、(数字)笔传感器354、按键356或超声输入设备358。例如,触摸面板352可以使用电容型、电阻型、红外型和超声型中的至少一种。此外,触控面板352还可以包括控制电路。触摸面板352还可以包括用于向用户提供触觉反应的触觉层。例如,(数字)笔传感器354可以包括识别片,该识别片是触摸面板的一部分或者独立于触摸面板。例如,按键356可以包括物理按钮、光学键或键区。超声输入设备358可以经由麦克风(例如,麦克风388)来检测由输入工具产生的超声波,以识别与检测到的超声波相对应的数据。
显示器360(例如,图2的显示器260)可以包括面板362、全息设备364、投影仪366和/或用于对它们进行控制的控制电路。例如,面板362可以被实现为柔性的、透明的或可穿戴的。面板362可与触摸面板352一起被配置为一个或多个模块。全息设备364可以使用光的干涉在空中显示三维图像。投影仪366可以通过将光投影到屏幕上来显示图像。例如,该屏幕可以位于电子设备301的内部或外部。例如,接口370可以包括HDMI 372、USB 374、光学接口376或D超小型(D-sub)378。例如,接口370可以被包括在图2所示的通信接口270中。附加地或备选地,接口370可以包括例如移动高清链路(MHL)接口、安全数字(SD)卡/多媒体卡(MMC)接口或红外数据协会(IrDA)标准接口。
音频模块380可以例如将声音转换为电信号,反之亦然。例如,音频模块380的至少一些元件可以被包括在图2所示的输入/输出接口250中。例如,音频模块380可以处理经由扬声器382、听筒384、耳机386、麦克风388等输入或输出的声音信息。
相机模块391(例如,图2的相机280)是能够拍摄静止图像和运动图像的设备。根据实施例,相机模块391可以包括一个或多个图像传感器(例如,前置传感器或后置传感器)、镜头、图像信号处理器(ISP)或闪光灯(例如,LED或氙气灯)。例如,电源管理模块395可以管理电子设备301的电源。
电源管理模块395可以包括电源管理集成电路(PMIC)、充电器IC或者电池或燃料表。PMIC可以使用有线和/或无线充电方法。无线充电方法的示例可以包括磁共振方法、磁感应方法、电磁波方法等。还可以包括用于无线充电的附加电路(例如,线圈环、谐振电路、整流器等)。例如,电池表可以测量电池396中的剩余电量以及充电过程中的电压、电流或温度。例如,电池396可以包括可再充电电池和/或太阳能电池。
指示器397可以显示电子设备301或电子设备301的一部分(例如,处理器310)的特定状态(例如,引导状态、消息状态、充电状态等)。电机398可以将电信号转换为机械振动,并且可以产生振动、触觉效果等。电子设备301可以包括移动电视支持设备(例如,GPU),其能够根据诸如数字多媒体广播(DMB)、数字视频广播(DVB)、mediaFloTM等的标准处理媒体数据。
本公开中描述的上述元件中的每一个可以配置有一个或多个组件,且相应元件的名称可以根据电子设备的类型而不同。在各种实施例中,电子设备(例如,电子设备301)可以省略一些元件,或者还可以包括附加元件,或者电子设备的一些元件可以彼此组合以配置一个实体,在这种情况下,电子设备可以等同地执行相应元件在组合之前的功能。
根据各种实施例,电子设备可以包括第一相机、第二相机、显示器和处理器,其中第二相机的视角被设置为包括在第一相机的视角中。处理器被配置为执行以下操作:在显示器上显示经由第一相机获得的第一图像;从第一图像中检测与第二相机相对应的信息;当基于与第二相机相对应的信息确定激活第二相机时,激活第二相机;以及在显示器上显示与第一相机和第二相机的激活相对应的至少一个对象。
根据各种实施例,当设置了多相机模式时,处理器执行控制,使得第一相机被激活且第二相机在空闲模式下操作。
根据各种实施例,当确定激活第二相机时,处理器执行控制,以便激活当前在空闲模式下操作的第二相机。
根据各种实施例,处理器被配置为执行以下操作:从经由第一相机获得的第一图像中检测与第二相机的视角相对应的区域的图像属性;以及基于图像属性来确定是否激活第二相机。
根据各种实施例,图像属性可以包括以下至少一项:与第二相机的视角相对应的区域的面部检测信息、与第二相机的视角相对应的区域的曝光信息(亮度值)、以及包括在与第二相机的视角相对应的区域中的对象的对焦信息。
根据各种实施例,处理器执行控制以执行以下操作:从经由第一相机获得的第一图像中检测对象的面部;当第一图像中存在从与第二相机的视角相对应的区域检测到的对象的面部区域时,确定从与第二相机的视角相对应的区域检测到的对象的面部区域的有效性;以及当确定从与第二相机的视角相对应的区域检测到的对象的面部区域有效时,激活第二相机。
根据各种实施例,处理器执行控制以执行以下操作:识别第一图像中的与第二相机的视角相对应的区域的亮度值;以及当与第二相机的视角相对应的区域和剩余区域之间的亮度差值超过参考值时,激活第二相机。
根据各种实施例,处理器执行控制以执行以下操作:识别在经由第一相机获得的第一图像中的与第二相机的视角相对应的区域中是否存在对焦对象;以及当与第二相机的视角相对应的区域中存在对焦对象时,激活第二相机。
根据各种实施例,当第二相机被激活时,处理器被配置为将捕获图标的形式修改为与第一相机和第二相机的激活相对应。
根据各种实施例,可以将第一相机和第二相机布置为在电子设备的同一侧彼此靠近。
图4是示出了根据本公开各种实施例的由电子设备提供多相机服务的过程的流程图。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图4,电子设备可以在操作401中经由电子设备的第一相机获得图像。例如,处理器220可以控制显示器26以便显示经由第一相机282获得的预览图像,第一相机282电连接到电子设备201。在这种情况下,处理器220可以执行控制,使得电连接到电子设备201的第二相机284在空闲模式下操作。
电子设备可以在操作403中从经由第一相机获得的图像中获得与第二相机相对应的信息。例如,处理器220可以在经由第一相机282获得的第一图像中识别与第二相机区域相对应的至少一部分。处理器120可以检测与同第二相机区域相对应的至少一部分相关联的图像属性。例如,第二相机区域的图像属性可以包括第二相机区域的面部检测信息、第二相机区域的曝光信息(亮度值)以及与包括在第二相机区域中的对象相关联的对焦信息中的至少一个。
在操作405中,电子设备可以基于与第二相机相对应的信息激活第二相机,与第二相机相对应的信息、是从经由第一相机获得的图像中检测到的。例如,处理器220可以确定是否从经由第一相机282获得的图像的第二相机区域中检测到目标的面部。当从第二相机区域检测到的目标的面部区域有效时,处理器220可以执行控制以便激活第二相机284。例如,处理器220可以基于目标的面部区域的大小确定目标的面部区域的有效性。例如,处理器220可以确定经由第一相机282获得的图像中的第二相机区域和剩余区域之间是否存在亮度差值。当经由第一相机282获得的图像中的第二相机区域和剩余区域之间的亮度差值大于参考值时,处理器可以执行控制以便激活第二相机284。例如,当经由第一相机282获得的图像的第二相机区域中存在对焦目标时,处理器220可以执行控制以便激活第二相机284。例如,第二相机区域可以包括经由第一相机282获得的图像中的与第二相机284的视角相对应的至少一部分。
图5是示出了根据本公开各种实施例的由电子设备控制多个相机的过程的流程图。在下文中,将详细描述在图4的操作401中执行的经由第一相机获得图像的操作。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图5,在操作501中,电子设备可以设置多相机模式以并行地驱动第一相机和第二相机。例如,处理器220可以基于经由输入/输出接口250检测到的用户输入设置多相机模式的激活菜单。例如,用户输入可以包括用于选择多相机模式图标的输入和与多相机模式相对应的手势输入中的至少一个。例如,处理器220可以基于电子设备201中当前执行的应用的特征来执行多相机模式。
当设置了多相机模式时,电子设备可以在操作503中激活电子设备的第一相机。例如,处理器220可以执行第一相机282的初始设置,并且可以激活第一相机282的图像传感器。
电子设备可以在操作505中经由第一相机获得预览图像。例如,处理器220可以执行控制以便在显示器260的至少一部分上显示经由第一相机282的图像传感器获得的预览图像。
当设置了多相机模式时,电子设备可以在操作507中以空闲模式操作电子设备的第二相机。例如,处理器220可以执行第二相机284的初始设置,并且可以控制第二相机284,使得第二相机284的图像传感器维持去激活的状态。例如,初始设置可以包括:生成与第二相机284相关联的实例,分配用于驱动第二相机284的存储器,从存储器230读取用于操作相机的设置参数等。
图6是示出了根据本公开各种实施例的由电子设备基于到目标的距离控制多相机服务的过程的流程图。图7是示出了根据本公开各种实施例的用于由电子设备基于到目标的距离控制多相机服务的配置的示意图。在下文中,将详细描述在图4的操作403中执行的从经由第一相机获得的图像中获得第二相机信息的操作。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图6,当经由第一相机获得图像(图4的操作401)时,电子设备可以在操作601中检测电子设备和经由第一相机获得的图像中的对焦对象之间的距离。例如,处理器220可以基于用于获得图像的第一相机282的焦距或者图像中包括的对象的深度信息来估计到对焦目标的距离。例如,处理器220可以使用单独的距离测量传感器(例如超声波传感器等)测量到图像中的对焦对象的距离。
在操作603中,电子设备可以确定到对焦目标的距离是否超过参考距离。例如,可以基于第二相机284的最小焦距设置参考距离。
当到对焦目标的距离超过参考距离时,电子设备可以在操作605中从经由第一相机获得的图像中获得第二相机信息、。例如,如图7所示,当电子设备700和经由第一相机702获得的图像中的对焦目标720之间的距离超过参考距离时,处理器220可以确定电子设备700能够使用第二相机703捕获图像。因此,处理器220可以从经由第一相机702获得的预览图像中检测第二图像区域的图像属性,以便确定是否激活第二相机703。
当到对焦目标的距离小于或等于参考距离时,电子设备可以在操作607中去激活多相机模式。例如,如图7所示,当电子设备700和经由第一相机702获得的图像中的对焦目标710之间的距离小于或等于参考距离时,处理器220可以确定电子设备700不能使用第二相机703捕获图像。因此,处理器220可以去激活用于驱动第一相机702和第二相机703的多相机模式。也就是说,处理器220可以限制第二相机703的驱动。附加地或备选地,当到对焦目标710的距离随着电子设备700或目标710的移动而超过参考距离时,处理器220可以激活多相机模式。也就是说,处理器220可以在操作605中从经由第一相机702获得的预览图像检测第二相机区域的图像属性。
图8是示出了根据本公开各种实施例的由电子设备基于面部检测信息提供多相机服务的过程的流程图。图9a至图9h是示出了根据本公开各种实施例的用于由电子设备基于面部检测信息提供多相机服务的屏幕配置的示意图。在下文中,将详细描述图4的操作403和操作405中执行的激活第二相机的操作。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图8,当经由第一相机获得图像(图4的操作401)时,电子设备可以在操作801中从经由第一相机获得的图像中检测目标的面部。例如,处理器220可以针对经由第一相机282获得的图像900驱动面部检测算法,以便如图9a所示的检测目标的面部区域902。
在操作803中,电子设备可以确定在经由第一相机获得的图像中是否存在目标的面部区域,该目标的面部区域包括在与第二相机的视角相对应的区域中。例如,处理器220可以确定在经由第一相机282获得的图像900的第二相机区域910中是否存在目标的面部区域902-2,如图9b所示。
当不存在第二相机区域中包括的目标的面部区域时,电子设备可以确定不激活第二相机。例如,当如图9e所示的第二相机区域944中不包括从经由第一相机282获得的图像940检测到的面部区域942时,处理器220可以确定不存在由第二相机284捕获的目标。因此,处理器220可以限制使用第二相机284的图像捕获。也就是说,处理器220可以确定不激活第二相机284。
当存在第二相机区域中包括的目标的面部区域时,电子设备可以在操作805中确定第二相机区域中包括的目标的面部区域是否有效。例如,处理器可以基于第二相机区域中包括的目标的面部区域的大小来确定相应面部区域的有效性。例如,当第二相机区域中包括的目标的面部区域的大小小于最小参考大小时,处理器220可以确定相应的面部区域无效。当第二相机区域中包括的目标的面部区域的大小大于最大参考大小时,处理器220可以确定相应的面部区域无效。例如,当第二相机区域中仅包括目标的面部的一部分时,处理器220可以确定相应的面部区域无效。
当第二相机区域中包括的目标的面部区域无效时,电子设备可以确定不激活第二相机。例如,如图9f所示,当经由第一相机282获得的图像950中的第二相机区域954中包括的目标的面部区域952大于最大参考大小时,处理器220可以确定相应的面部区域无效。因此,处理器220可以确定不激活第二相机284。例如,如图9g所示,当经由第一相机282获得的图像960中的第二相机区域962中仅包括目标的面部964的一部分时,处理器220可以确定相应的面部区域无效。因此,处理器220可以确定不激活第二相机284。
当第二相机区域中包括的目标的面部区域有效时,电子设备可以在操作807中激活第二相机。例如,如图9b所示,当经由第一相机282获得的图像900中的第二相机区域910中包括目标的有效的面部区域902-2时,处理器220可以激活第二相机284。因此,处理器220可以控制显示器260,以便在多相机模式下显示对象,该对象指示第一相机282和第二相机284的激活状态。例如,指示第一相机282和第二相机284的激活状态的对象可以包括捕获图标914,其中修改捕获图标91 4以区分使用第一相机282和第二相机284中的至少一个的捕获事件。例如,指示第一相机282和第二相机284的激活状态的对象可以包括与不同的捕获事件相对应的多个捕获图标。附加地或备选地,当处理器220激活第二相机284时,处理器220可以控制显示器260,以便如图9b所示的在经由第一相机282获得的图像900的至少一部分中显示经由第二相机284获得的图像912(例如,预览图像)。例如,如图9c所示,当处理器220激活第二相机284时,处理器220可以控制显示器260以便在竖直划分的不同区域中显示经由第一相机282获得的图像920和经由第二相机284获得的图像922。例如,如图9d所示,当处理器220激活第二相机284时,处理器220可以控制显示器260以便在水平划分的不同区域中显示经由第一相机282获得的图像930和经由第二相机284获得的图像932。在这种情况下,处理器220可以改变显示器260上显示的经由第一相机282获得的图像930和经由第二相机284获得的图像932的屏幕配置。例如,屏幕配置可以包括显示区域的位置、大小和比例中的至少一个。
在操作809中,电子设备确定是否检测到捕获事件的发生。例如,处理器220可以确定是否检测到与捕获图标914相对应的用户输入,如图9b所示。例如,处理器220可以确定是否检测到与捕获事件相对应的手势输入。
当未发生捕获事件时,电子设备可以在操作811中确定面部检测持续时间是否超过参考时间。例如,处理器220可以确定操作801中执行的面部检测的可用时间是否到期。
当面部检测持续时间小于参考时间时,电子设备可以在操作809中识别是否检测到捕获事件的发生。
当面部检测持续时间大于或等于参考时间时,电子设备可以确定面部检测的可用时间到期。在这种情况下,电子设备可以在图4的操作401中经由第一相机获得图像。
当检测到捕获事件发生时,电子设备在操作813中基于捕获事件使用至少一个相机捕获图像。例如,处理器220可以基于捕获事件的类型使用第一相机282和第二相机284中的至少一个来捕获图像。例如,可以基于捕获手势、压力的强度、触摸持续时间、触摸次数和捕获图标类型等中的至少一个对捕获事件的类型进行分类。
根据本公开的各种实施例,电子设备可以确定是否从经由第一相机获得的图像中的与第二相机的视角相对应的区域中检测到目标的面部。例如,处理器220可以向经由第一相机282获得的整个图像或者与第二相机区域相对应的至少一部分应用面部检测算法,以便检测第二相机区域中包括的面部区域。
根据本公开的各种实施例,当从第二相机区域中检测到多个面部区域时,电子设备可以确定每个面部区域是否有效。当多个面部区域中的至少一个面部区域有效时,电子设备可以确定电子设备能够使用第二相机捕获图像。因此,电子设备可以激活第二相机。例如,如图9h所示,当经由第一相机282获得的图像970的第二相机区域972中包括第一目标的面部974的一部分和第二目标的面部的整个区域976时,处理器220可以确定第二相机区域972中包括的目标的面部区域有效。因此,处理器220可以激活第二相机284。
图10是示出了根据本公开各种实施例的由电子设备捕获图像的过程的流程图。图11a至图11f是示出了根据本公开各种实施例的由电子设备捕获的图像的示意图。在下文中,将描述图8的操作813中执行的捕获图像的操作。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图10,当在激活第一相机和第二相机的状态下发生捕获事件(例如,图8的操作809)时,电子设备可以在操作1001中确定是否检测到第一捕获事件的发生。例如,当第一相机282和第二相机284被激活时,处理器220可以控制显示器260,以便如图11a所示的显示与第一相机282和第二相机284的激活状态相对应的对象。例如,与激活状态相对应的对象可以包括捕获图标1120,修改捕获图标1120以区分使用至少一个相机282和284的捕获事件。捕获图标1120可以包括用于捕获事件的用户选择区域1122和用于区分捕获事件的引导信息1124和1126。处理器220可以基于捕获图标1120的输入的类型确定是否检测到第一捕获事件。附加地或备选地,当第一相机282和第二相机284被激活时,处理器220可以控制显示器260,以便如图11a所示的将经由第二相机284获得的图像1112与经由第一相机282获得的图像1100的至少一部分重叠显示。在这种情况下,经由第二相机284获得的图像1112可以与经由第一相机282获得的图像1100中的第二相机区域1110相对应。
在操作1003中,当检测到第一捕获事件发生时,电子设备可以经由第一相机捕获图像。例如,当检测到向捕获图标1120的用户选择区域1122的左侧提供的拖动输入1150(如图11c所示)时,处理器220可以确定发生了第一捕获事件。因此,处理器220可以经由第一相机282捕获图像1160。
在操作1005中,当第一捕获事件未发生时,电子设备可以在操作1005中确定是否发生了第二捕获事件。
在操作1007中,当检测到第二捕获事件发生时,电子设备可以经由第二相机捕获图像。例如,当检测到向捕获图标1120的用户选择区域1122的右侧提供的拖动输入1170(如图11d所示)时,处理器220可以确定发生了第二捕获事件。因此,处理器220可以经由第二相机284捕获图像1180。
当第一捕获事件和第二捕获事件未发生时,电子设备可以在操作1009中确定发生了第三捕获事件。因此,电子设备可以经由第一相机和第二相机捕获图像。例如,当检测到对捕获图标1120的用户选择区域1122的触摸输入1130(如图11b所示)时,处理器220可以确定发生了第三捕获事件。因此,处理器220可以经由第一相机282和第二相机284捕获图像1140。
根据实施例,当经由第一相机282和第二相机284捕获图像1140时,电子设备可以对经由第一相机282和第二相机284捕获的图像进行组合以形成单个图像,并且可以存储单个组合图像。
根据实施例,当经由第一相机282和第二相机284捕获到图像1140时,电子设备可以单独存储分别由第一相机282和第二相机284捕获的图像。
根据本公开的各种实施例,电子设备可以基于对相机获得的图像的分析结果或者用户输入,使用捕获图标1122来改变捕获事件类型。例如,处理器220可以基于目标的移动或者与引导信息1124和1126相对应的区域的用户输入,改变与捕获图标1122匹配的捕获事件类型。例如,当检测到第二相机区域1110中包括的目标的移动时,处理器220可以识别目标的移动的幅度。当第二相机区域1110中包括的目标的移动的幅度小于参考幅度时,处理器220可以将第二相机284的捕获事件改变为视频拍摄1190,如图11e所示。在这种情况下,处理器220可以将第一相机282的捕获事件维持为图像捕获1124。附加地或备选地,当第二相机区域1110中包括的目标的移动的幅度超过参考幅度时,处理器220可以将第二相机284的捕获事件改变为慢速视频拍摄1194,如图11e所示。在这种情况下,处理器220可以将第一相机282的捕获事件改变为标准视频拍摄1192。例如,当检测到与第二相机284的引导信息1126相对应的区域的用户输入时,处理器220可以基于用户输入,按照图像捕获、视频拍摄、慢速视频拍摄和快速视频拍摄的顺序改变第二相机284的捕获事件。
图12是示出了根据本公开各种实施例的由电子设备基于图像的亮度值提供多相机服务的过程的流程图。图13a和图13b是示出了根据本公开各种实施例的用于由电子设备基于目标的背光信息提供多相机服务的屏幕配置的示意图。图14a和图14b是示出了根据本公开各种实施例的用于由电子设备基于图像中的亮度差值提供多相机服务的屏幕配置的示意图。在下文中,将详细描述图4的操作403和403405中执行的激活第二相机的操作。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图12,当经由第一相机获得图像(图4的操作401)时,电子设备可以在操作1201中从经由第一相机获得的图像中确定第二相机区域。例如,当经由第一相机282获得图像1300(如图13a所示)时,处理器220可以从相应图像1300中识别第二相机区域1310。例如,当经由第一相机282获得图像1400(如图14a所示)时,处理器220可以从相应图像1400中识别第二相机区域1410。
在操作1203中,电子设备可以从经由第一相机获得的图像中检测第二相机区域的亮度值。例如,处理器220可以将经由第一相机282获得的图像划分为多个区域,并且可以检测每个区域的亮度值。处理器220可以将多个区域中的与第二相机区域相对应的至少一个区域的亮度值确定为第二相机区域的亮度值。
在操作1205中,电子设备可以确定经由第一相机获得的图像中的第二相机区域和剩余区域之间是否存在亮度差值。例如,处理器220可以确定经由第一相机282获得的图像的第二相机区域和剩余区域之间的亮度差值是否超过参考值。
在操作1207中,当经由第一相机获得的图像的第二相机区域和剩余区域之间存在亮度差值时,电子设备可以确定使用第二相机的图像捕获是有效的。因此,电子设备可以将当前以空闲模式操作的第二相机改变到激活模式。例如,当对象1312背光(如图13a所示)时(对象1312包括在经由第一相机282获得的图像1300中的第二相机区域1310中),由于对象1312背光,第二相机区域1310的亮度值可能低于剩余区域的亮度值。在这种情况下,处理器220可以控制第二相机284以改变到激活模式。当第二相机284被激活时,处理器220可以改变捕获图标1330以执行多相机模式下的捕获,如图13b所示。附加地或备选地,当第二相机284被激活时,处理器220可以控制显示器260,以便将经由第二相机284获得的图像1320与经由第一相机282获得的图像1300区分显示。例如,当经由第一相机282获得的图像1400中的第二相机区域1410中存在明亮对象1412(如图14a所示)时,由于对象1412的亮度值,第二相机区域1410的亮度值可能高于剩余区域的亮度值。在这种情况下,处理器220可以控制第二相机284以改变到激活模式。当第二相机284被激活时,处理器220可以改变捕获图标1430以执行多相机模式下的捕获,如图14b所示。附加地或备选地,当第二相机284被激活时,处理器220可以控制显示器260,以便将经由第二相机284获得的图像1420与经由第一相机282获得的图像1400区分显示。
根据实施例,当与第二相机的视角相对应的区域中存在对象且对象的亮度值低于经由第一相机获得的图像中的参考值时,电子设备可以激活第二相机以识别由第二相机获得的图像的状态。例如,当第二相机区域中包括的目标背光时,处理器220可以将第二相机284改变到激活模式。
图15是示出了根据本公开各种实施例的由电子设备基于对象的位置提供多相机服务的过程的流程图。图16a和图16b是示出了根据本公开各种实施例的用于基于与第二相机区域相关联的对焦设置信息提供多相机服务的屏幕配置的示意图。图17a和图17b是示出了根据本公开各种实施例的用于基于对焦对象的移动信息提供多相机服务的屏幕配置的示意图。在下文中,将详细描述图4的操作403和操作405中执行的激活第二相机的操作。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图15,当经由第一相机获得图像(图4的操作401)时,电子设备可以在操作1501中确定是否检测到针对经由第一相机获得的图像的用户输入。例如,当第二相机284在设置了多相机模式的状态下以空闲模式操作时,处理器220可以执行控制以便在显示器260上显示经由第一相机282获得的预览图像1600。在这种情况下,可以对预览图像1600中包括的第一对象1602和第二对象1612中的第一对象1602进行对焦。处理器220可以识别是否针对经由第一相机282获得并显示在显示器260上的预览图像进行触摸输入(例如,轻击输入)。
当检测到针对经由第一相机获得的图像的用户输入时,电子设备可以在操作1503中确定第二相机区域中是否包括提供用户输入的点。例如,处理器220可以识别第二相机区域中是否包括与向预览图像提供的触摸输入(例如,轻击输入)相对应的点,其中该预览图像是经由第一相机282获得的并显示在显示器260上。
当第二相机区域中包括用户输入点时,电子设备可以在操作1505中激活第二相机。例如,当第二相机区域1610中包括用户输入点1620(如图16b所示)时,处理器220可以确定对第二相机区域1610中与用户输入点1620相对应的对象1612进行对焦。也就是说,处理器220可以将第二相机区域1610中与用户输入点1620相对应的对象1612识别为用于拍摄的主对象。因此,处理器220可以确定使用第二相机284进行的图像捕获是有效的,并且可以执行控制以便将当前在空闲模式下操作的第二相机284改变到激活模式。当第二相机284被激活时,处理器220可以改变捕获图标1650以与多相机模式相对应。附加地或备选地,当第一相机282和第二相机284被激活时,处理器220可以控制显示器260,以便将经由第二相机284获得的图像1630与经由第一相机282获得的图像区分显示。例如,处理器220可以控制显示器260以便将经由第二相机284获得的图像1630与经由第一相机282获得的图像的至少一部分重叠显示。
当第二相机区域中不包括用户输入点时,电子设备可以在操作1507中将与用户输入相对应的对象设置为用于拍摄的主对象。例如,当检测到针对经由第一相机282获得的图像1700的用户输入时,处理器220可以如图17a所示的将第一相机282对焦在与用户输入点相对应的对象1720上。
电子设备可以在操作1509中确定是否检测到主对象的移动。例如,处理器220可以对经由第一相机282周期性地获得的预览图像进行比较,以便确定主对象1720的位置是否改变。当主对象1720的位置改变时,处理器220可以确定检测到主对象1720的移动。
当检测到主对象的移动时,电子设备可以在操作1511中确定主对象是否进入第二相机区域。例如,如图17b所示,处理器220可以确定主对象1720是否位于第二相机区域1710中。
当第二相机区域中包括主对象时,电子设备可以在操作1505中激活第二相机。例如,当对焦的主对象1720移动到第二相机区域1710(如图17b所示)时,处理器220可以确定使用第二相机284对主对象进行图像捕获是有效的。因此,处理器220可以执行控制以便将当前在空闲模式下操作的第二相机284改变到激活模式。当第二相机284被激活时,处理器220可以将捕获图标1750改变为与多相机模式相对应。也就是说,处理器220可以修改捕获图标1750以便指示第一相机282和第二相机284的激活状态。附加地或备选地,当第一相机282和第二相机284被激活时,处理器220可以控制显示器260以便将经由第二相机284获得的图像1740与经由第一相机282获得的图像的至少一部分重叠显示。
图18是示出了根据本公开各种实施例的由电子设备在经由第一相机获得的图像中设置第二相机区域的过程的流程图。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图18,电子设备可以在操作1801中确定是否设置了多相机模式。例如,处理器220可以确定是否经由输入/输出接口250检测到用于设置多相机模式的用户输入。
当设置了多相机模式时,电子设备可以在操作1803中经由第一相机获得第一图像。例如,当设置了多相机模式时,处理器220可以执行用于激活第一相机282的初始设置并且可以激活第一相机282的图像传感器。处理器220可以控制显示器260,以便显示经由第一相机282获得的预览图像。在这种情况下,处理器220可以执行用于激活第二相机284的初始设置,并且可以执行控制,使得第二相机284在去激活第二相机284的图像传感器的空闲模式下操作。
在操作1805中,电子设备确定是否检测到区域匹配事件的发生。例如,处理器220可以确定是否到达用于设置经由第一相机282获得的图像中的第二相机区域的位置的时段。
当未发生区域匹配事件时,电子设备可以在操作1803中经由第一相机获得第一图像。例如,处理器220可以基于第一图像的第二相机区域的图像属性确定是否激活第二相机,如图4的操作401至操作405一样。
当检测到区域匹配事件发生时,电子设备可以在操作1807中激活第二相机以匹配经由第一相机获得的第一图像的第二相机区域的位置。
在操作1809中,电子设备可以经由第二相机获得第二图像。例如,处理器220可以经由第二相机284识别与第二相机区域的视角相对应的第二图像。
在操作1811中,电子设备可以从第一图像中检测与第二图像匹配的区域。例如,处理器220可以基于第一图像的第二相机区域顺序地移动第二图像,以便检测与第二图像匹配的区域。
在操作1813中,电子设备可以将与第二图像匹配的区域设置为第一图像中的第二相机区域。
当设置了第一图像的第二相机区域时,电子设备可以在操作1815中将第二相机改变到空闲模式。例如,在维持第二相机284的初始设置的状态下,处理器220可以去激活第二相机284的图像传感器。
根据实施例,当在第一相机和第二相机被激活的状态下检测到区域匹配事件发生时,电子设备可以将第一相机的图像和第二相机的图像进行比较,以便在操作1811至操作1813中设置第二相机区域的位置。
图19是示出了根据本公开各种实施例的由电子设备控制经由第一相机获得的图像中的第二相机区域的大小的过程的流程图。图20a和图20b是示出了根据本公开各种实施例的用于由电子设备控制经由第一相机获得的图像中的第二相机区域的大小的屏幕配置的示意图。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图19,在操作1901中,电子设备可以在显示器上显示根据多相机模式经由第一相机和第二相机获得的图像。例如,处理器220可以基于经由第一相机282获得的图像中的第二相机区域的图像属性激活第二相机284,如图4的操作401至操作405一样。当第一相机282和第二相机284被激活时,处理器220可以控制显示器260,以便如图20a所示的将经由第二相机284获得的图像2020与经由第一相机282获得的图像2000的至少一部分重叠显示。
在操作1903中,电子设备可以确定在经由第一相机获得的图像中是否改变第二相机区域的大小。例如,处理器220可以基于针对经由第一相机282获得的图像2000的第二相机区域2010的用户输入2030确定第二相机区域2010的大小是否改变,如图20b所示。例如,当第二相机区域2010中存在对焦对象(目标)时,处理器220可以基于对象的大小确定是否改变第二相机区域2010的大小。
当第二相机区域的大小改变时,电子设备可以在操作1905中确定是否将第二相机的视角更新为与第二相机区域的大小相对应。例如,处理器220可以将相机的与第二相机区域的大小相对应的视角与第二相机284的最大视角和最小视角进行比较,并且可以确定是否允许更新第二相机284的视角。例如,当与第二相机区域的大小相对应的视角大于第二相机284的最大视角或者小于第二相机284的最小视角时,处理器可以确定不允许更新第二相机284的视角。
当确定未分配对第二相机的视角的更新以与第二相机区域的大小相对应时,电子设备可以输出警告信息以指示对第二相机的视角的改变受到限制。例如,处理器220可以使用图形、声音和振动中的至少一种通知属性输出警告信息。
当允许将第二相机的视角更新为与第二相机区域的大小相对应时,电子设备可以在操作1907中将第二相机的视角更新为与第二相机区域的大小相对应。
在操作1909中,电子设备可以将经由第二相机获得并显示在显示器上的图像更新为以更新后的第二相机的视角获得的图像。例如,处理器220可以控制显示器260,以便显示随第二相机284的视角的改变而放大的图像2040,如图20b所示。例如,处理器220可以将经由第二相机284获得的图像2040的放大率改变为与第二相机区域2030的大小比(宽度与长度之比)相对应。
图21是示出了根据本公开各种实施例的由电子设备基于对焦对象的大小确定第二相机区域的大小的过程的流程图。在下文中,将详细描述图19的操作1903中执行的确定是否改变第二相机区域的大小的操作。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图21,当在显示器上显示经由第一相机和第二相机获得的图像(例如,图19的操作1901)时,电子设备可以在操作2101中确定第二相机区域中是否包括对焦对象。
当第二相机区域中包括对焦对象时,电子设备可以在操作2103中从第二相机区域中检测对焦对象的大小。例如,当经由第一相机282对第二相机区域中的对象进行对焦时,处理器220可以检测相应对象的大小。例如,当通过第二相机284对第二相机区域中的对象进行对焦时,处理器220可以检测相应对象的大小。
在操作2105中,电子设备可以基于第二相机区域中的对焦对象的大小来确定第二相机区域的大小。例如,处理器220可以将第二相机284的视角确定为接近对焦对象的大小。
在操作2107中,电子设备可以基于被确定为与对焦对象的大小相对应的第二相机区域的大小来确定是否改变经由第一相机获得的图像中的与第二相机的视角相对应的区域的大小。例如,处理器220可以将显示器260上显示的第二相机区域的大小与基于对焦对象的大小确定的第二相机区域的大小进行比较。例如,当显示器260上显示的第二相机区域的大小与基于对焦对象的大小确定的第二相机区域的大小相同时,处理器220可以确定不改变显示器260上显示的第二相机区域的大小。当显示器260上显示的第二相机区域的大小与基于对焦对象的大小确定的第二相机区域的大小不同时,处理器220可以确定改变显示器260上显示的第二相机区域的大小。
图22是示出了根据本公开各种实施例的由电子设备控制变焦功能的过程的流程图。图23a和图23b是示出了根据本公开各种实施例的用于由电子设备控制第二相机的变焦功能的屏幕配置的示意图。图24a至图24c是示出了根据本公开各种实施例的用于由电子设备控制第一相机的变焦功能的屏幕配置的示意图。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
参考图22,在操作2201中,电子设备可以在显示器上显示根据多相机模式经由第一相机和第二相机获得的图像。例如,当第一相机282和第二相机284被激活(如图4的操作401至操作405一样)时,处理器220可以将经由第一相机282获得的图像2300和经由第二相机284获得的图像2320彼此区分地显示,如图23a所示。例如,处理器220可以控制显示器260,以将经由第二相机284获得的图像2320与经由第一相机282获得的图像2300的至少一部分重叠显示。
在操作2203中,电子设备可以确定是否检测到用于控制变焦功能的事件的发生。例如,处理器220可以确定是否检测到用于控制第一相机282或第二相机284的变焦功能的触摸输入2330(例如,拖动输入),如图23a所示。
当确定检测到用于控制变焦功能的事件时,电子设备可以在操作2205中确定第二相机区域中是否包括发生用于控制变焦功能的事件的事件发生区域。例如,处理器220可以确定第二相机区域2310中是否包括检测到用于控制相机的变焦功能的触摸输入的点(例如,拖动输入的起点)。
在操作2207中,当第二相机区域中包括发生用于控制变焦功能的事件的事件发生区域时,电子设备可以控制第二相机的变焦以与用于控制变焦功能的事件相对应。例如,当在如图23a所示的在第二相机区域2310中检测到用于控制变焦功能的用户输入2330时,处理器220可以控制第二相机284的变焦以与用户输入2330相对应。例如,当第二相机284放大为与用户输入2330相对应时,处理器220可以控制显示器260以便显示由第二相机284通过放大而获得的图像2340,如图23b所示。附加地或备选地,处理器220可以将第二相机区域的大小更新为与视角的变化相对应,视角的变化是由第二相机284通过放大造成的,如图形2350所示。
在操作2209中,当第二相机区域中不包括发生用于控制变焦功能的事件的事件发生区域时,电子设备可以在操作2209中控制第一相机的变焦以与用于控制变焦功能的事件相对应。例如,当在从经由第一相机282获得的图像2400中排除第二相机区域2410之后剩余的区域中检测到用于控制变焦功能的用户输入2430(如图24a所示)时,处理器220可以控制第一相机282的变焦以与用户输入2430相对应。例如,当第一相机282放大为与用户输入2430相对应时,处理器220可以控制显示器260以便显示由第一相机282通过放大而获得的图像,如图24b所示。在这种情况下,由第一相机282通过放大对与第二相机284的视角相对应的区域进行放大,因此处理器220可以更新第二相机区域的大小,如图形2440所示。附加地或备选地,当在从经由第一相机282获得的图像2400中排除第二相机区域2440之后剩余的区域中检测到用于控制变焦功能的用户输入2450(如图24b所示)时,处理器220可以如图24c所示的使第一相机282能够放大为与用户输入2450相对应。在这种情况下,处理器220可以将与通过第一相机282进行的放大相关联的第一相机282的视角和第二相机284的视角设置为彼此相同,如图形2460所示。
图25a和图25b是示出了根据本公开各种实施例的用于由电子设备改变相机的显示区域的屏幕配置的示意图。在下文中,电子设备可以包括图2a和图2b中所示的电子设备201的整体或一部分(例如,处理器220)。
根据实施例,电子设备可以在显示器上显示根据多相机模式经由第一相机和第二相机获得的图像。例如,当第一相机282和第二相机284被激活时,处理器220可以控制显示器260以便将经由第二相机284获得的图像2520与经由第一相机282获得的图像2500的至少一部分重叠显示,如图25a所示。
根据实施例,当检测到针对经由第二相机获得的图像的用户输入时,电子设备可以改变由第一相机和第二相机获得的图像被显示的区域。例如,当检测到针对经由第二相机284获得的图像2520的用户输入2530(如图25a所示)时,处理器220可以改变经由第一相机282获得的图像2500的显示区域和经由第二相机284获得的图像2520的显示区域。例如,处理器220可以控制显示器260,以便将经由第一相机282获得的图像2550与经由第二相机284获得的图像2540的至少一部分重叠显示,如图25b所示。
根据本公开的各种实施例,电子设备的操作方法可以包括以下操作:在电子设备的显示器上显示经由电子设备的第一相机获得的第一图像;从第一图像检测与第二相机相对应的信息,第二相机被配置为具有包括在第一相机的视角中的视角;当基于与第二相机相对应的信息确定激活第二相机时,激活第二相机;以及在显示器上显示与第一相机和第二相机的激活相对应的至少一个图像。
根据各种实施例,该方法还可以包括:当设置了多相机模式时,激活第一相机并且将第二相机设置为在空闲模式下操作。
根据各种实施例,激活第二相机的操作可以包括以下操作:当基于与第二相机相对应的信息确定激活第二相机时,激活当前在空闲模式下操作的第二相机。
根据各种实施例,激活第二相机的操作可以包括以下操作:从经由第一相机获得的第一图像中检测与第二相机的视角相对应的区域的图像属性;基于图像属性来确定是否激活第二相机;以及当确定激活第二相机时,激活第二相机。
根据各种实施例,图像属性可以包括以下至少一项:与第二相机的视角相对应的区域的面部检测信息、与第二相机的视角相对应的区域的曝光信息(亮度值)、以及包括在与第二相机的视角相对应的区域中的对象的对焦信息。
根据各种实施例,激活第二相机的操作可以包括以下操作:从经由第一相机获得的第一图像检测对象的面部;当第一图像中存在从与第二相机的视角相对应的区域检测到的对象的面部区域时,确定从与第二相机的视角相对应的区域检测到的对象的面部区域的有效性;以及当确定从与第二相机的视角相对应的区域检测到的对象的面部区域有效时,激活第二相机。
根据各种实施例,确定面部区域的有效性的操作可以包括以下操作:基于从与第二相机的视角相对应的区域检测到的对象的面部区域的大小,确定从与第二相机的视角相对应的区域检测到的对象的面部区域的有效性。
根据各种实施例,激活第二相机的操作可以包括以下操作:识别第一图像中的与第二相机的视角相对应的区域的亮度值;以及当第一图像中的与第二相机的视角相对应的区域和剩余区域之间的亮度差值超过参考值时,激活第二相机。
根据各种实施例,激活第二相机的操作可以包括以下操作:确定在经由第一相机获得的第一图像中的与第二相机的视角相对应的区域中是否存在对焦对象;以及当与第二相机的视角相对应的区域中存在对焦对象时,激活第二相机。
根据各种实施例,显示至少一个对象的操作可以包括:当激活第二相机时,将捕获图标的形式修改为与第一相机和第二相机的激活相对应。
本文使用的术语“模块”可以包括由硬件、软件或固件组成的单元,并且例如可以与术语“逻辑”、“逻辑块”、“组件”、“电路”等互换使用。“模块”可以是集成组件或用于执行一个或多个功能的最小单元或其一部分。“模块”可以通过机械或电的方式实现,并且可以包括例如专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)和已知或者将来开发的用于执行某种操作的可编程逻辑器件。
通过以程序模块的形式存储在计算机可读存储介质(例如存储器230)中的指令,可以实现根据各种实施例的设备(例如,其模块或功能)或方法(例如,操作)中的至少一些。当处理器(例如,处理器220或520)执行指令时,所述指令可以使得一个或多个处理器执行与所述指令相对应的功能。计算机可读存储介质可以包括硬盘、软盘、磁介质(例如,磁带)、光学介质(例如,CD-ROM、DVD)、磁光介质(例如,光磁软盘)、内部存储器等。指令可以包括编译器制作的代码或可由解译器执行的代码。根据本公开的编程模块可以包括上述组件中的一个或多个,或还可以包括其他附加组件,或可以省略上述组件中的一些。
由根据各种实施例的模块、编程模块或其他元件执行的操作可以顺序地、并行地、可重复地或者按照探索性的方式执行。至少一些操作可以根据另一顺序来执行,可以被省略,或者还可包括其他操作。
提出本文公开的实施例以帮助描述和理解所公开的技术内容,而不是限制本公开各种实施例的范围。因此,本发明的各种实施例的范围应该被解释为包括基于本公开各种实施例的精神和范围的所有修改或各种其他实施例。
Claims (12)
1.一种便携式通信设备,包括:
第一相机,能够支持第一视角;
第二相机,能够支持比所述第一视角窄的第二视角;
传感器,被配置为确定所述便携式通信设备与至少一个外部对象之间的距离;
触摸屏显示器;以及
处理器,与所述触摸屏显示器操作性地耦接,
所述处理器被配置为执行以下操作:
经由所述触摸屏显示器呈现与经由所述第一相机使用所述第一视角获得的第一图像对应的第一预览图像,所述第一预览图像包括与外部对象对应的第一图像对象;
使用所述传感器确定所述便携式通信设备与所述外部对象之间的距离;
至少部分地基于确定所述便携式通信设备与所述外部对象之间的距离落入与所述第二相机对应的指定范围,呈现与经由所述第二相机使用所述第二视角获得的第二图像对应的第二预览图像,来取代所述第一预览图像;以及
至少部分地基于确定所述距离未落入所述指定范围,保持呈现所述第一预览图像。
2.根据权利要求1所述的便携式通信设备,其中,所述处理器被配置为:至少部分地基于确定所述距离超过与所述第一相机关联的范围,激活所述第二相机。
3.根据权利要求1所述的便携式通信设备,其中,所述传感器包括与所述第一相机和所述第二相机分离的距离测量传感器。
4.根据权利要求1所述的便携式通信设备,其中,响应于确定激活所述第二相机,所述处理器还被配置激活当前在空闲模式下操作的所述第二相机。
5.根据权利要求1所述的便携式通信设备,其中,响应于所述第二相机被激活,所述处理器还被配置为修改捕获图标的形式以与所述第一相机和所述第二相机的激活相对应。
6.根据权利要求1所述的便携式通信设备,其中,所述第一相机和所述第二相机被布置为在所述便携式通信设备的同一侧彼此靠近。
7.一种便携式通信设备的操作方法,所述操作方法包括:
经由触摸屏显示器呈现与经由第一相机使用第一视角获得的第一图像对应的第一预览图像,所述第一预览图像包括与外部对象对应的第一图像对象;
使用传感器确定所述便携式通信设备与所述外部对象之间的距离;
至少部分地基于确定所述便携式通信设备与所述外部对象之间的距离落入与第二相机对应的指定范围,呈现与经由所述第二相机使用第二视角获得的第二图像对应的第二预览图像,来取代所述第一预览图像;以及
至少部分地基于确定所述距离未落入所述指定范围,保持呈现所述第一预览图像。
8.根据权利要求7所述的操作方法,还包括:
至少部分地基于确定所述距离超过与所述第一相机关联的范围,激活所述第二相机。
9.根据权利要求7所述的操作方法,其中,所述传感器包括与所述第一相机和所述第二相机分离的距离测量传感器。
10.根据权利要求7所述的操作方法,其中,激活所述第二相机包括:响应于确定激活所述第二相机,激活当前在空闲模式下操作的所述第二相机。
11.根据权利要求7所述的操作方法,还包括:
响应于所述第二相机被激活,修改捕获图标的形式以与所述第一相机和所述第二相机的激活相对应。
12.根据权利要求7所述的操作方法,其中,所述第一相机和所述第二相机被布置为在所述便携式通信设备的同一侧彼此靠近。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210090282.3A CN114422701B (zh) | 2016-08-31 | 2017-06-20 | 用于控制相机的方法及其电子设备 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160111577A KR102593824B1 (ko) | 2016-08-31 | 2016-08-31 | 카메라를 제어하기 위한 방법 및 그 전자 장치 |
KR10-2016-0111577 | 2016-08-31 | ||
PCT/KR2017/006445 WO2018043884A1 (ko) | 2016-08-31 | 2017-06-20 | 카메라를 제어하기 위한 방법 및 그 전자 장치 |
CN202210090282.3A CN114422701B (zh) | 2016-08-31 | 2017-06-20 | 用于控制相机的方法及其电子设备 |
CN201780053535.7A CN109644229B (zh) | 2016-08-31 | 2017-06-20 | 用于控制相机的方法及其电子设备 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780053535.7A Division CN109644229B (zh) | 2016-08-31 | 2017-06-20 | 用于控制相机的方法及其电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114422701A true CN114422701A (zh) | 2022-04-29 |
CN114422701B CN114422701B (zh) | 2023-04-07 |
Family
ID=61301336
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210090282.3A Active CN114422701B (zh) | 2016-08-31 | 2017-06-20 | 用于控制相机的方法及其电子设备 |
CN201780053535.7A Active CN109644229B (zh) | 2016-08-31 | 2017-06-20 | 用于控制相机的方法及其电子设备 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780053535.7A Active CN109644229B (zh) | 2016-08-31 | 2017-06-20 | 用于控制相机的方法及其电子设备 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10944908B2 (zh) |
EP (2) | EP4366291A3 (zh) |
KR (1) | KR102593824B1 (zh) |
CN (2) | CN114422701B (zh) |
WO (1) | WO2018043884A1 (zh) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108353126B (zh) | 2015-04-23 | 2019-08-23 | 苹果公司 | 处理相机的内容的方法、电子设备和计算机可读存储介质 |
US9912860B2 (en) | 2016-06-12 | 2018-03-06 | Apple Inc. | User interface for camera effects |
CN106851111A (zh) * | 2017-03-20 | 2017-06-13 | 惠州Tcl移动通信有限公司 | 基于移动终端的双摄像头供电控制方法、系统及移动终端 |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
CN107257439B (zh) * | 2017-07-26 | 2019-05-17 | 维沃移动通信有限公司 | 一种拍摄方法及移动终端 |
US10681273B2 (en) * | 2017-08-24 | 2020-06-09 | Samsung Electronics Co., Ltd. | Mobile device including multiple cameras |
KR102488410B1 (ko) * | 2017-11-07 | 2023-01-16 | 삼성전자주식회사 | 복수의 카메라들을 이용하여 영상을 촬영하는 전자 장치와 이의 동작 방법 |
US11112964B2 (en) | 2018-02-09 | 2021-09-07 | Apple Inc. | Media capture lock affordance for graphical user interface |
JP7150456B2 (ja) * | 2018-04-04 | 2022-10-11 | キヤノン株式会社 | 撮像システム、情報処理装置、情報処理装置の制御方法、及び、プログラム |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
DK201870623A1 (en) | 2018-09-11 | 2020-04-15 | Apple Inc. | USER INTERFACES FOR SIMULATED DEPTH EFFECTS |
US10674072B1 (en) | 2019-05-06 | 2020-06-02 | Apple Inc. | User interfaces for capturing and managing visual media |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
KR102664705B1 (ko) | 2019-02-19 | 2024-05-09 | 삼성전자주식회사 | 복수의 카메라들을 이용하여 이미지의 배율을 변경하기 위한 전자 장치 및 방법 |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
CN111901475A (zh) * | 2019-05-06 | 2020-11-06 | 苹果公司 | 用于捕获和管理视觉媒体的用户界面 |
US11196943B2 (en) * | 2019-05-31 | 2021-12-07 | Apple Inc. | Video analysis and management techniques for media capture and retention |
JP2020205560A (ja) * | 2019-06-18 | 2020-12-24 | キヤノン株式会社 | 撮像装置およびその制御方法 |
CN112333380B (zh) | 2019-06-24 | 2021-10-15 | 华为技术有限公司 | 一种拍摄方法及设备 |
CN110784674B (zh) | 2019-10-30 | 2022-03-15 | 北京字节跳动网络技术有限公司 | 视频处理的方法、装置、终端及存储介质 |
US11997409B2 (en) | 2019-10-30 | 2024-05-28 | Beijing Bytedance Network Technology Co., Ltd. | Video processing method and apparatus, and terminal and storage medium |
WO2021217584A1 (zh) * | 2020-04-30 | 2021-11-04 | 深圳市大疆创新科技有限公司 | 相机调用方法以及设备 |
KR20210141070A (ko) | 2020-05-15 | 2021-11-23 | 삼성전자주식회사 | 복수의 카메라를 이용한 이미지 촬영 방법 및 그 전자 장치 |
US11039074B1 (en) | 2020-06-01 | 2021-06-15 | Apple Inc. | User interfaces for managing media |
US11928799B2 (en) * | 2020-06-29 | 2024-03-12 | Samsung Electronics Co., Ltd. | Electronic device and controlling method of electronic device |
USD958810S1 (en) * | 2020-09-23 | 2022-07-26 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
US11212449B1 (en) | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
CN112333382B (zh) * | 2020-10-14 | 2022-06-10 | 维沃移动通信(杭州)有限公司 | 拍摄方法、装置及电子设备 |
KR20220127568A (ko) * | 2021-03-11 | 2022-09-20 | 삼성전자주식회사 | 홈 트레이닝 서비스 제공 방법 및 그를 수행하는 디스플레이 장치 |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US12112024B2 (en) | 2021-06-01 | 2024-10-08 | Apple Inc. | User interfaces for managing media styles |
CN118354200A (zh) * | 2021-06-07 | 2024-07-16 | 荣耀终端有限公司 | 一种视频拍摄方法及电子设备 |
CN117425057A (zh) * | 2022-07-07 | 2024-01-19 | 抖音视界(北京)有限公司 | 用于影像拍摄的方法、装置、设备和存储介质 |
WO2024019289A1 (ko) * | 2022-07-18 | 2024-01-25 | 삼성전자주식회사 | 멀티 마스터 기반의 영상 센싱 모듈 제어 방법 및 그 장치 |
CN115334246A (zh) * | 2022-09-06 | 2022-11-11 | 抖音视界有限公司 | 用于影像拍摄的方法、装置、设备和存储介质 |
KR20240132828A (ko) * | 2023-02-27 | 2024-09-04 | 삼성전자주식회사 | 가상 객체들 사이의 거리에 기반하여 가상 객체를 제어하기 위한 전자 장치 및 그 방법 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103152518A (zh) * | 2011-12-01 | 2013-06-12 | 索尼公司 | 图像处理系统和方法 |
US20140232904A1 (en) * | 2013-02-21 | 2014-08-21 | Samsung Electronics Co., Ltd. | Combining effective images in electronic device having a plurality of cameras |
US20140361986A1 (en) * | 2013-06-07 | 2014-12-11 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the electronic device based on image data detected through a plurality of cameras |
CN104461288A (zh) * | 2014-11-28 | 2015-03-25 | 广东欧珀移动通信有限公司 | 使用不同视场角摄像头拍照的方法和终端 |
US20150229889A1 (en) * | 2014-02-13 | 2015-08-13 | Semiconductor Components Industries, Llc | Adaptive image sensor systems and methods |
CN105409212A (zh) * | 2013-02-28 | 2016-03-16 | 谷歌技术控股有限责任公司 | 具有多视图图像捕捉和深度感测的电子设备 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3736185B2 (ja) | 1999-03-16 | 2006-01-18 | コニカミノルタビジネステクノロジーズ株式会社 | 画像処理装置 |
JP2003037757A (ja) * | 2001-07-25 | 2003-02-07 | Fuji Photo Film Co Ltd | 画像撮像装置 |
KR100889107B1 (ko) * | 2007-04-06 | 2009-03-17 | (주)케이티에프테크놀로지스 | 복수의 카메라를 구비한 휴대용 단말기 및 이의 카메라활성화 상태 제어 방법 |
KR101096157B1 (ko) * | 2009-10-22 | 2011-12-19 | (주)태종씨앤아이 | 듀얼 카메라를 이용한 실시간 감시장치 |
US20110316971A1 (en) | 2010-06-28 | 2011-12-29 | Jianping Zhou | Single pipeline stereo image capture |
US8493482B2 (en) | 2010-08-18 | 2013-07-23 | Apple Inc. | Dual image sensor image processing system and method |
KR20120048396A (ko) | 2010-11-05 | 2012-05-15 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
JP2012227625A (ja) | 2011-04-15 | 2012-11-15 | Sharp Corp | 立体画像撮影装置、携帯型電子機器、立体画像撮影制御方法、立体画像撮影制御プログラムおよびコンピュータ読取可能記録媒体 |
KR101241625B1 (ko) * | 2012-02-28 | 2013-03-11 | 인텔 코오퍼레이션 | 얼굴 인식 환경 통지 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체 |
TW201403545A (zh) * | 2012-07-13 | 2014-01-16 | Vivotek Inc | 合成虛擬視角影像的處理系統及其處理方法 |
KR101343591B1 (ko) * | 2012-09-03 | 2013-12-19 | 엘지전자 주식회사 | 휴대 전자기기 및 이의 제어방법 |
KR101954192B1 (ko) | 2012-11-15 | 2019-03-05 | 엘지전자 주식회사 | 어레이 카메라, 휴대 단말기 및 그 동작 방법 |
KR102023179B1 (ko) | 2013-02-21 | 2019-09-20 | 삼성전자주식회사 | 듀얼 카메라를 포함하는 전자장치에서 듀얼 리코딩 촬영을 위한 방법 및 장치 |
KR20140114501A (ko) | 2013-03-14 | 2014-09-29 | 삼성전자주식회사 | 영상 데이터 처리 방법 및 이를 지원하는 전자 장치 |
US9552073B2 (en) * | 2013-12-05 | 2017-01-24 | Pixart Imaging Inc. | Electronic device |
KR20150087744A (ko) | 2014-01-22 | 2015-07-30 | 한양대학교 산학협력단 | 전자 장치의 동작 상태를 변경하는 방법 및 장치 |
WO2016004115A1 (en) | 2014-07-01 | 2016-01-07 | Apple Inc. | Mobile camera system |
US9998665B2 (en) | 2014-07-21 | 2018-06-12 | Lenovo (Singapore) Pte. Ltd. | Camera mode selection based on context |
CN107076961B (zh) * | 2014-07-30 | 2019-08-02 | 宇龙计算机通信科技(深圳)有限公司 | 对焦方法和对焦装置 |
CN106575027B (zh) | 2014-07-31 | 2020-03-06 | 麦克赛尔株式会社 | 摄像装置及其被摄体跟踪方法 |
KR20160019145A (ko) | 2014-08-11 | 2016-02-19 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
CN104184944B (zh) | 2014-08-15 | 2016-03-16 | 小米科技有限责任公司 | 获取多媒体数据流的方法及装置 |
JP6372788B2 (ja) | 2014-08-26 | 2018-08-15 | カシオ計算機株式会社 | 撮像装置、撮像システム、撮像方法及びプログラム |
CN104333701B (zh) * | 2014-11-28 | 2017-04-26 | 广东欧珀移动通信有限公司 | 一种相机预览画面的显示方法、装置及终端 |
CN105812835B (zh) * | 2014-12-31 | 2019-01-15 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
CN104618675B (zh) * | 2015-03-09 | 2018-01-26 | 广东欧珀移动通信有限公司 | 录像方法及装置 |
CN108353126B (zh) * | 2015-04-23 | 2019-08-23 | 苹果公司 | 处理相机的内容的方法、电子设备和计算机可读存储介质 |
US10474892B2 (en) * | 2015-05-26 | 2019-11-12 | Lg Electronics Inc. | Mobile terminal and control method therefor |
JP6293706B2 (ja) * | 2015-06-26 | 2018-03-14 | 京セラ株式会社 | 電子機器及び電子機器の動作方法 |
KR101633342B1 (ko) * | 2015-07-21 | 2016-06-27 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US9749543B2 (en) | 2015-07-21 | 2017-08-29 | Lg Electronics Inc. | Mobile terminal having two cameras and method for storing images taken by two cameras |
KR20170123125A (ko) * | 2016-04-28 | 2017-11-07 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
KR102524498B1 (ko) | 2016-07-06 | 2023-04-24 | 삼성전자주식회사 | 듀얼 카메라를 포함하는 전자 장치 및 듀얼 카메라의 제어 방법 |
CN106303258A (zh) | 2016-09-19 | 2017-01-04 | 深圳市金立通信设备有限公司 | 一种基于双摄像头的拍摄方法和终端 |
-
2016
- 2016-08-31 KR KR1020160111577A patent/KR102593824B1/ko active IP Right Grant
-
2017
- 2017-06-20 CN CN202210090282.3A patent/CN114422701B/zh active Active
- 2017-06-20 EP EP24165452.4A patent/EP4366291A3/en active Pending
- 2017-06-20 CN CN201780053535.7A patent/CN109644229B/zh active Active
- 2017-06-20 EP EP17846809.6A patent/EP3506617A4/en active Pending
- 2017-06-20 US US16/328,155 patent/US10944908B2/en active Active
- 2017-06-20 WO PCT/KR2017/006445 patent/WO2018043884A1/ko unknown
-
2021
- 2021-03-05 US US17/193,474 patent/US11350033B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103152518A (zh) * | 2011-12-01 | 2013-06-12 | 索尼公司 | 图像处理系统和方法 |
US20140232904A1 (en) * | 2013-02-21 | 2014-08-21 | Samsung Electronics Co., Ltd. | Combining effective images in electronic device having a plurality of cameras |
CN105409212A (zh) * | 2013-02-28 | 2016-03-16 | 谷歌技术控股有限责任公司 | 具有多视图图像捕捉和深度感测的电子设备 |
US20140361986A1 (en) * | 2013-06-07 | 2014-12-11 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the electronic device based on image data detected through a plurality of cameras |
US20150229889A1 (en) * | 2014-02-13 | 2015-08-13 | Semiconductor Components Industries, Llc | Adaptive image sensor systems and methods |
CN104461288A (zh) * | 2014-11-28 | 2015-03-25 | 广东欧珀移动通信有限公司 | 使用不同视场角摄像头拍照的方法和终端 |
Also Published As
Publication number | Publication date |
---|---|
CN109644229A (zh) | 2019-04-16 |
EP4366291A3 (en) | 2024-05-29 |
US20190199926A1 (en) | 2019-06-27 |
EP4366291A2 (en) | 2024-05-08 |
KR20180024761A (ko) | 2018-03-08 |
EP3506617A4 (en) | 2019-08-21 |
CN114422701B (zh) | 2023-04-07 |
US10944908B2 (en) | 2021-03-09 |
WO2018043884A1 (ko) | 2018-03-08 |
EP3506617A1 (en) | 2019-07-03 |
US11350033B2 (en) | 2022-05-31 |
CN109644229B (zh) | 2022-02-18 |
US20210195109A1 (en) | 2021-06-24 |
KR102593824B1 (ko) | 2023-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114422701B (zh) | 用于控制相机的方法及其电子设备 | |
US10871798B2 (en) | Electronic device and image capture method thereof | |
KR102444085B1 (ko) | 휴대용 통신 장치 및 휴대용 통신 장치의 영상 표시 방법 | |
EP3296951B1 (en) | Image composition method and electronic device for supporting the same | |
CN110462572B (zh) | 电子装置及其控制方法 | |
US10003785B2 (en) | Method and apparatus for generating images | |
CN105282430B (zh) | 使用照片的构图信息的电子装置及使用该装置的拍摄方法 | |
KR102251483B1 (ko) | 영상을 처리하는 전자 장치 및 방법 | |
KR20180106076A (ko) | 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치 | |
KR20180011539A (ko) | 영상의 처리를 위한 전자 장치 | |
KR20170136920A (ko) | 화면 출력 방법 및 이를 지원하는 전자 장치 | |
KR102469426B1 (ko) | 이미지 처리 장치 및 이의 동작 방법 | |
CN108462818B (zh) | 电子设备及用于在该电子设备中显示360度图像的方法 | |
CN107810472B (zh) | 电子装置和用于控制全景图像的显示的方法 | |
KR20150106719A (ko) | 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치 | |
KR20180094290A (ko) | 전자 장치 및 전자 장치의 수중 촬영 판단 방법 | |
KR20170092772A (ko) | 이미지 처리장치 및 방법 | |
KR102477522B1 (ko) | 전자 장치 및 그의 카메라 노출 조정 방법 | |
CN108141544B (zh) | 面部检测方法以及支持该方法的电子设备 | |
CN108124098B (zh) | 电子设备和用于自动聚焦的方法 | |
US11210828B2 (en) | Method and electronic device for outputting guide | |
US10334174B2 (en) | Electronic device for controlling a viewing angle of at least one lens and control method thereof | |
KR20170092004A (ko) | 전자 장치 및 그의 데이터 처리 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |