CN107566693B - 电子设备及其图像捕获方法 - Google Patents
电子设备及其图像捕获方法 Download PDFInfo
- Publication number
- CN107566693B CN107566693B CN201710521086.6A CN201710521086A CN107566693B CN 107566693 B CN107566693 B CN 107566693B CN 201710521086 A CN201710521086 A CN 201710521086A CN 107566693 B CN107566693 B CN 107566693B
- Authority
- CN
- China
- Prior art keywords
- image
- camera
- electronic device
- fov
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 238000012545 processing Methods 0.000 claims description 18
- 230000002194 synthesizing effect Effects 0.000 claims description 13
- 239000002131 composite material Substances 0.000 claims description 11
- 238000004891 communication Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 22
- 230000006641 stabilisation Effects 0.000 description 22
- 238000011105 stabilization Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 13
- 238000007726 management method Methods 0.000 description 11
- 238000005375 photometry Methods 0.000 description 9
- 230000001413 cellular effect Effects 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000008103 glucose Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000537 electroencephalography Methods 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000001646 magnetic resonance method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00281—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6812—Motion detection based on additional sensors, e.g. acceleration sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/683—Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/685—Vibration or motion blur correction performed by mechanical compensation
- H04N23/687—Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Studio Devices (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
电子设备包括支持第一FOV的第一相机,支持第二FOV的第二相机和处理器。处理器被配置为使用第一相机获取具有第一FOV的第一图像,使用第二相机获得与第一图像相关联并且具有第二FOV的第二图像,以基于第二图像调整第一图像的至少一个操作属性,并且使用第一相机基于调整的至少一个操作属性来获得具有第一FOV的第三图像。
Description
本申请要求2016年6月30日提交的韩国专利申请No.10-2016-0082807的优先权,其内容通过引用并入本文。
技术领域
本公开一般涉及使用多个相机捕获图像的设备和方法。
背景技术
随着电子技术的发展,正在开发和分发各种类型的电子产品。特别地,例如智能电话、平板电脑PC等的具有各种功能的便携式电子设备已经日益分发。
近年来,在日常生活中用户可以通过使用安装在诸如智能电话、平板电脑等的便携式电子设备上的相机拍摄照片。因此,制造商正在开发更高性能的相机。
便携式电子设备可以在其前表面或后表面上包括多个相机。用户可以通过使用多个相机来捕获图像。
发明内容
本公开的示例性方面至少解决了上述问题和/或缺点,并且至少提供了下面描述的优点。因此,本公开的一个示例性方面是提供能够通过使用多个相机来捕获改善质量的图像的电子设备和电子设备的图像捕获方法。
根据本公开的示例方面,电子设备包括:支持第一FOV的第一相机、支持第二FOV的第二相机和处理器。处理器被配置为使用第一相机获取具有第一FOV的第一图像,以使用第二相机获得与第一图像相关联并具有第二FOV的第二图像,以基于第二图像调整第一相机的至少一个操作属性,并且基于使用第一相机的调整的至少一个操作属性来获得具有第一FOV的第三图像。
根据本公开的示例方面,电子设备包括:第一相机,被配置为捕获具有第一FOV的第一图像;第二相机,被配置成捕获包括第一图像并具有比第一个FOV宽的第二FOV的第二图像;和处理器。处理器被配置为使用第一图像和第二图像生成第三图像,以分析对应于第一图像的第二图像的像素移动,并且基于像素移动对第三图像执行第一图像稳定。
根据本公开的示例方面,电子设备包括:显示器、第一相机、第二相机和处理器。处理器被配置为使用第一相机和第二相机中的至少一个来获取初步图像,以验证初步图像的第一区域的第一属性值,以验证初步图像的第二区域的第二属性值,将与第一相机相关联的配置值设置为与第一属性值相对应的第一配置值,并将与第二相机相关联的配置值设置为与第二属性值对应的第二配置值,并基于第一配置值使用第一相机捕获第一图像,并且基于第二配置值使用第二相机捕获第二图像。
从以下结合附图公开了本公开的各种实施例的详细描述中,本公开的其它方面、优点和显着特征对于本领域技术人员将变得显而易见。
附图说明
从以下结合附图的详细描述中,本公开的上述和其他方面、特征和伴随的优点将更加明显和容易地理解,其中相同的附图标记表示相同的元件,以及其中:
图1是示出根据本公开的各种示例性实施例的网络环境中的示例电子设备的图;
图2是示出根据本公开的各种示例性实施例的示例性电子设备的框图;
图3是示出根据本公开的各种示例实施例的示例程序模块的框图;
图4是示出根据本公开的各种示例性实施例的电子设备的示例配置的框图;
图5是示出根据本公开的各种示例性实施例的示例性全景图像捕获方法的图;
图6是示出根据本公开的各种示例性实施例的示例性引导显示方法的图;
图7是示出根据本公开的各种示例性实施例的电子设备的示例配置的框图;
图8是示出根据本公开的各种示例性实施例的合成图像的示例FOV的图;
图9是示出根据本公开的各种示例性实施例的示例图像捕获方法的图;
图10是示出根据本公开的各种示例性实施例的示例图像捕获方法的图;
图11是示出根据本公开的各种示例性实施例的示例图像捕获方法的图;
图12是示出根据本公开的各种示例性实施例的电子设备的示例图像捕获方法的流程图;
图13是示出根据本公开的各种示例性实施例的电子设备的示例图像捕获方法的流程图;
图14是示出根据本公开的各种示例性实施例的电子设备的示例图像捕获方法的流程图;和
图15是示出根据本公开的各种示例性实施例的电子设备的示例图像捕获方法的流程图。
在整个附图中,应当注意,相同的附图标记用于描绘相同或相似的元件,特征和结构。
具体实施方式
在下文中,参考附图公开了本公开的各种示例性实施例。然而,本公开并不旨在被本公开的各种实施例限制到特定实施例,并且本公开旨在涵盖本公开的所有修改、等同物和/或替代方案,只要它们在所附权利要求及其等同物的范围。关于附图的描述,相同的附图标记表示相同的元件。
本文使用的术语“包括”,“包含”和“具有”或“可以包括”或“可以包含”和“可以具有”表示所公开的功能、操作或元素的存在但不排除其他功能、操作或元素。
在本文公开的公开内容中,本文所用的表述“A或B”,“A或/和B中的至少一个”或“A或/和B中的一个或多个”等等可以包括一个或多个相关列出的项目的任何以及所有组合。例如,术语“A或B”,“A和B中的至少一个”或“A或B中的至少一个”可以指包括至少一个A的所有情况(1),包括至少一个B的情况(2),或包括至少一个A和至少一个B两者的情况(3)。
这里使用的诸如“第一”、“第二”等的术语可以指本公开的各种实施例的各种元件,但不限制元件。例如,“第一用户设备”和“第二用户设备”可以指示不同的用户设备,而不管其顺序或优先级。例如,在不脱离本公开的范围的情况下,第一元件可以被称为第二元件,并且类似地,第二元件可以被称为第一元件。
应当理解,当元件(例如,第一元件)被称为“(可操作地或通信地)与另一元件(例如,第二元件)耦合或连接到另一元件(例如,第二元件)”时,可以直接耦合到或连接到另一元件,或者可以存在中间元件(例如,第三元件)。另一方面,当元件(例如,第一元件)被称为与另一元件(例如,第二元件)“直接耦合”或“直接连接”时,应当理解,没有中间元素(例如,第三个元素)存在。
根据这种情况,本文使用的“配置为”的表述可以与例如“适用于”、“具有”、“设计为”、“适应”、“适用于”、“制造”或“有能力”的表述交换使用。术语“被配置为”不得仅指在硬件中的“专门设计为”。相反,表述“设备被配置为”可以指的是设备“能够”与另一设备或其他组件一起操作的情况。例如,“配置为(或设置为)执行A、B和C的处理器”可以例如但不限于用于执行相应操作的专用处理器(例如,嵌入式处理器)或通过执行存储在存储器件中的一个或多个软件程序执行相应操作的通用处理器(例如,中央处理单元(CPU)或应用处理器)。
本公开中使用的术语用于描述特定的实施例,而不意图限制本公开的范围。单数形式的术语可以包括复数形式,除非另有规定。本文使用的所有术语(包括技术或科学术语)可以具有与本领域技术人员通常理解的相同的含义。将进一步理解,在词典中被定义并且常用的术语也应被解释为在相关领域中的习惯含义,而不是在理想化或过度形式的检测中,除非在本文的各种实施例中明确地如此定义披露。在一些情况下,即使术语是在本公开中定义的术语,它们也可能不被解释为排除本发明的实施例。
例如,根据本公开的各种实施例的电子设备可以包括智能电话、平板电脑(PC)、移动电话、视频电话、电子书阅读器、台式PC、膝上型PC、上网本电脑、工作站、服务器、个人数字助理(PDA)、便携式多媒体播放器(PMP)、运动图像专家组(MPEG-1或MPEG-2)音频层3(MP3)播放器、移动医疗设备、相机或可穿戴设备等中的至少一个,但不限于此。根据各种实施例,可穿戴装置可以包括附件类型的装置(例如,钟表、戒指、手镯、脚踝链、项链、眼镜、隐形眼镜或头戴式装置(HMD)),一体式织物或衣服类型的装置(例如电子衣物)、身体附着型装置(例如皮肤垫或纹身)或生物植入型装置(例如,可植入电路)等中的至少一种,但不限于此。
在本公开的一些各种实施例中,电子设备可以是家用电器。智能家电可以包括例如电视(TV)、数字通用盘(DVD)播放器、音响、冰箱、空调、清洁器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、家庭自动化控制面板、安全控制面板、电视盒(例如,SamsungHomeSyncTM,Apple TVTM或Google TVTM)、游戏机(例如,XboxTM或PlayStationTM)、电子词典、电子钥匙、相机或电子相框等中的至少一种,但不限于此。
在各种实施例中,电子设备可以包括各种医疗设备(例如,各种便携式医疗测量设备(例如,血糖仪,心率计,血压计或温度计等)、磁共振血管成像(MRA)、磁共振成像(MRI)、计算机断层摄影(CT)、扫描仪或超声波装置等)、导航装置、全球导航卫星系统(GNSS)、事件数据记录器(EDR)、飞行数据记录器(FDR)、车辆信息娱乐设备、船舶电子设备(例如导航系统、陀螺仪等)、航空电子设备、安全设备、车辆头单元、工业或家庭机器人、自动柜员机(ATM)、销售点(POS)或物联网(例如灯泡、各种传感器、电气或燃气表、喷水灭火装置、火灾报警器、恒温器、路灯、烤面包机、运动器材、热水箱、加热器、煮沸器等)等中的至少一个,但不限于此。
根据各种实施例,电子设备可以包括家具或建筑物/结构的部件、电子板、电子签名接收装置、投影仪或各种测量仪器(例如,水表、电表、燃气表、或波表等)等中的至少一个,但不限于此。根据本公开的各种实施例的电子设备可以是上述设备的一个或多个组合。根据本公开的各种实施例的电子设备可以是柔性电子设备。此外,根据本公开的各种实施例的电子设备不限于上述设备,并且可以包括根据技术开发的新的电子设备。
在下文中,将参考附图更详细地描述根据本公开的各种实施例的电子设备。本文使用的术语“用户”可以指使用电子设备或可以参考使用电子设备的设备(例如,人造智能电子设备)的人员。
图1是示出根据本公开的示例实施例的网络环境中的示例电子设备的图。
将参考图1描述根据本公开的各种实施例的网络环境100中的电子设备101。电子设备101可以包括总线110,处理器(例如,包括处理电路)120,存储器130,输入/输出接口(例如,包括输入/输出电路)150,显示器160和通信接口(例如,包括通信电路)170。在本公开的各种实施例中,可以省略上述元件中的至少一个,或者可以将另一元件添加到电子设备101。
总线110可以包括用于将上述元件110至170彼此连接并在上述元件之间传送通信(例如,控制消息和/或数据)的电路。
处理器120可以包括各种处理电路,例如但不限于,专用处理器、中央处理单元(CPU)、应用处理器(AP)或通信处理器(CP)中的至少一个。处理器120可以执行与电子设备101的至少一个其他元件的通信和/或控制有关的数据处理或操作。
存储器130可以包括易失性存储器和/或非易失性存储器。存储器130可以存储与电子设备101的其他元件中的至少一个相关的指令或数据。根据本公开的实施例,存储器130可以存储软件和/或程序140。程序140可以包括例如内核141、中间件143、应用编程接口(API)145和/或应用程序(或应用)147)。内核141、中间件143或API 145中的至少一部分可以被称为操作系统(OS)。
内核141可以控制或管理用于执行其他程序(例如,中间件143、API 145、或应用程序147)的操作或功能的系统资源(例如,总线110、处理器120、存储器130等)。此外,内核141可以提供用于允许中间件143、API 145或应用程序147访问电子设备101的各个元件以便控制或管理系统资源的接口。
中间件143可以用作中间媒介,使得API 145或应用程序147与内核141通信和交换数据。
此外,中间件143可以根据优先级顺序处理从应用程序147接收的一个或多个任务请求。例如,中间件143可以向至少一个应用程序147分配使用电子设备101的系统资源(例如,总线110、处理器120、存储器130等)的优先级。例如,中间件143可以根据分配给至少一个应用的优先级来处理一个或多个任务请求,从而相对于一个或多个任务请求执行调度或负载平衡。
作为允许应用程序147控制由内核141或中间件143提供的功能的接口的API 145可以包括例如用于文件控制、窗口控制、图像处理、字符控制等的至少一个接口或功能(例如,指令)。
输入/输出接口150可以包括各种输入/输出电路,并且用于将来自用户或另一外部设备的指令或数据输入传送到电子设备101的其它元件。另外,输入/输出接口150可以向用户或另一外部设备输出从电子设备101的其他元件接收的指令或数据。
显示器160可以包括例如液晶显示器(LCD)、发光二极管(LED)显示器、有机发光二极管(OLED)显示器、微机电系统(MEMS)显示器或电子纸显示器等,但不限于此。显示器160可向用户呈现各种内容(例如,文本、图像、视频、图标、符号等)。显示器160可以包括触摸屏,并且可以从电子笔或用户身体的一部分接收触摸、手势、接近或悬停输入。
通信接口170可以包括各种通信电路,并且设置电子设备101与外部设备(例如,第一外部电子设备102、第二外部电子设备104或服务器106)之间的通信。例如,通信接口170可以经由无线通信或有线通信连接到网络162,以便与外部设备(例如,第二外部电子设备104或服务器106)进行通信。另外,通信接口170可以建立例如(但不限于)与第一外部电子设备102的短距离无线通信连接164。
无线通信可以采用蜂窝通信协议中的至少一种,例如长期演进(LTE)、高级LTE(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)或全球移动通信系统(GSM)。无线通信可以包括例如短距离通信164。短距离通信可以包括无线保真(Wi-Fi)、蓝牙、蓝牙低能(BLE)、紫蜂、近场通信(NFC)、磁安全传输(MST)或GNSS。根据使用面积或带宽,GNSS可以包括例如全球定位系统(GPS)、全球导航卫星系统(GLONASS)、北斗导航卫星系统(BeiDou)或伽利略、欧洲全球卫星导航系统中的至少一个。在下文中,术语“GPS”和术语“GNSS”可以互换使用。
有线通信可以包括通用串行总线(USB)、高分辨率多媒体接口(HDMI)、推荐标准232(RS-232)、普通老式电话服务(POTS)等)中的至少一个。网络162可以包括电信网络、例如计算机网络(例如,局域网(LAN)或广域网(WAN))、因特网或电话网络中的至少一个。
第一外部电子设备102和第二外部电子设备104的类型可以与电子设备101的类型相同或不同。根据本公开的实施例,服务器106可以包括一组一个或多个服务器。可以在一个或多个其他电子设备(例如,第一电子设备102、第二外部电子设备104或服务器106)中执行在电子设备101中执行的部分或全部操作。当电子设备101应自动或响应于请求执行某一功能或服务时,电子设备101可以向另一设备请求至少一部分与该功能或服务有关的功能(例如,第一电子设备102、第二外部电子设备104或服务器106),而不是执行自身的功能或服务,或者除了执行自身的功能或服务之外电子设备101还可以向另一设备请求至少一部分与该功能或服务有关的功能(例如,第一电子设备102、第二外部电子设备104或服务器106)。另一个电子设备(例如,第一电子设备102、第二外部电子设备104或服务器106)可以执行所请求的功能或附加功能,并且可以将性能的结果传送到电子设备101。电子设备101可以自己使用接收到的结果,或另外处理接收的结果以提供所请求的功能或服务。为此,例如,可以使用云计算技术、分布式计算技术或客户端-服务器计算技术。
图2是示出根据本公开的示例性实施例的示例性电子设备的框图。
参考图2,电子设备201可以包括例如图1所示的电子设备101的一部分或全部。电子设备201可以包括至少一个处理器(例如,AP)(例如,包括处理电路)210、通信模块(例如,包括通信电路)220、用户识别模块(SIM)224、存储器230、传感器模块240、输入设备(例如,包括输入电路)250、显示器260、接口(例如,包括接口电路)270、音频模块280、相机模块291、电源管理模块295、电池296、指示器297和马达298。
处理器210可以包括各种处理电路并运行操作系统或应用程序,以便控制连接到处理器210的多个硬件或软件元件,并且可以处理各种数据并执行操作。处理器210可以用例如片上系统(SoC)来实现。根据本公开的实施例,处理器210还可以包括图形处理单元(GPU)和/或图像信号处理器。处理器210可以包括图2所示的元件的至少一部分(例如,蜂窝模块221)。处理器210可以在易失性存储器上加载从其他元件(例如,非易失性存储器)中的至少一个接收的指令或数据来处理指令或数据,并且可以将各种数据存储在非易失性存储器中。
通信模块220可以具有与图1的通信接口170相同或类似的配置。通信模块220可以包括各种通信电路,例如但不限于蜂窝模块221、Wi-Fi模块223、蓝牙模块225、GNSS模块227(例如,GPS模块、GLONASS模块、北斗模块或伽利略模块)、NFC模块228和射频(RF)模块229。
蜂窝模块221可以通过通信网络提供例如语音呼叫服务、视频呼叫服务、文本消息服务或因特网服务。蜂窝模块221可以使用用户识别模块224(例如,SIM卡)来识别和认证通信网络中的电子设备201。蜂窝模块221可以执行可由处理器210提供的功能的至少一部分。蜂窝模块221可以包括通信处理器(CP)。
Wi-Fi模块223、蓝牙模块225、GNSS模块225和NFC模块228中的每一个可以包括例如用于处理通过模块发送/接收的数据的处理器。根据本公开的一些各种实施例,蜂窝模块221、Wi-Fi模块223、蓝牙模块225、GNSS模块227和NFC模块228中的至少一部分(例如,两个或更多个)可以包含在单个集成芯片(IC)或IC封装中。
RF模块229可以发送/接收例如通信信号(例如,RF信号)。RF模块229可以包括例如收发器、功率放大器模块(PAM)、频率滤波器、低噪声放大器(LNA)、天线等。根据本公开的另一实施例,蜂窝模块221、Wi-Fi模块223、蓝牙模块225、GNSS模块227和NFC模块228中的至少一个可以通过单独的RF模块来发送/接收RF信号。
SIM 224可以包括例如嵌入式SIM和/或包含订户身份模块的卡,并且可以包括唯一标识信息(例如,集成电路卡标识符(ICCID))或订户信息(例如,国际移动用户身份(IMSI))。
存储器230(例如,存储器130)可以包括例如内部存储器232和/或外部存储器234。内部存储器232可以包括易失性存储器(例如,动态RAM(DRAM)、静态RAM(SRAM)、同步动态RAM(SDRAM)等)、非易失性存储器(例如,一次性可编程ROM(OTPROM)、可编程ROM(PROM))、可擦除和可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩模ROM、闪存ROM、闪存(例如,NAND闪存、NOR闪存等))、硬盘驱动器、或固态硬盘(SSD)中的至少一个。
外部存储器234可以包括闪存驱动器,诸如紧凑闪存(CF)、安全数字(SD)、Micro-SD、Mini-SD、极限数字(xD)、多媒体卡(MMC)记忆棒等。外部存储器234可以通过各种接口可操作地和/或物理地连接到电子设备201。
安全模块236,其是包括比存储器230的安全级别更高的存储空间的模块,可以是用于确保安全数据存储和受保护的执行环境的电路。安全模块236可以用附加电路来实现,并且可以包括附加的处理器。安全模块236可以存在于可附接的智能芯片或SD卡中,或者可以包括安装在固定芯片中的嵌入式安全元件(eSE)。此外,安全模块236可以在与电子设备201的OS不同的另一个OS中驱动。例如,安全模块236可以基于Java卡开放平台(JCOP)OS来操作。
例如,传感器模块240可以测量物理量或检测电子设备201的操作状态,以便将测量或检测到的信息转换为电信号。传感器模块240可以包括例如手势传感器240A、陀螺仪传感器240B、大气压力传感器240C、磁性传感器240D、加速度传感器240E、握持传感器240F、接近传感器240G、颜色传感器240H(例如,红色/绿色/蓝色(RGB)传感器)、生物测定传感器240I、温度/湿度传感器240J、照明(例如,照度)传感器240K或紫外线(UV)传感器240M中的至少一个。另外或替代地,传感器模块240可以包括例如嗅觉传感器(电子鼻传感器)、肌电图(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器、红外线(IR)传感器、虹膜识别传感器和/或指纹传感器。传感器模块240还可以包括用于控制其中包括的至少一个传感器的控制电路。在本公开的一些各种实施例中,电子设备201还可以包括处理器,其被配置为将传感器模块240控制为处理器210的一部分或单独地控制,使得在处理器210处于睡眠状态时控制传感器模块240。
输入设备250可以包括各种输入电路,例如但不限于触摸面板252、(数字)笔传感器254、键256或超声波输入设备258。触摸面板252可以采用电容性、电阻性、红外和紫外线感测方法中的至少一种。触摸面板252还可以包括控制电路。触摸面板252还可以包括触觉层,以向用户提供触觉反馈。
(数字)笔传感器254可以包括例如用于识别的片材(sheet),其是触摸面板的一部分或分离的片材。键256可以包括例如物理按钮\光学按钮或键盘。超声波输入设备258可以通过麦克风288感测由输入工具产生的超声波,以便识别与所感测的超声波对应的数据。
显示器260(例如,显示器160)可以包括面板262、全息图设备264或投影仪266。面板262可以具有与显示器260的显示器160相同或类似的配置图。面板262可以是例如柔性的、透明的或可穿戴的。面板262和触摸面板252可以集成到单个模块中。全息图设备264可以使用光干涉现象在空间中显示立体图像。投影仪266可将光投影到屏幕上以显示图像。屏幕可以设置在电子设备201的内部或外部。根据本公开的实施例,显示器260还可以包括用于控制面板262、全息图设备264或投影仪266的控制电路。
接口270可以包括各种接口电路,例如但不限于HDMI 272、USB 274、光学接口276或D超小型(D-sub)278。接口270例如,可以包括在图1所示的通信接口170中。另外或替代地,接口270可以包括例如移动高清链接(MHL)接口、SD卡/多媒体卡(MMC)接口或红外数据关联(IrDA)接口。
音频模块280可以将例如声音转换为电信号,或反之亦然。音频模块280的至少一部分元件可以包括在图1所示的输入/输出接口150中。音频模块280可以处理通过扬声器282、接收器284、耳机286或麦克风288输入或输出的声音信息。
相机模块291例如是用于拍摄静止图像或视频的设备。根据本公开的实施例,相机模块291可以包括至少一个图像传感器(例如,前传感器或后传感器)、透镜、图像信号处理器(ISP)或闪光等(例如,LED或氙气灯)。
电源管理模块295可以管理电子设备201的功率。根据本公开的实施例,电源管理模块295可以包括电源管理集成电路(PMIC)、充电器集成电路(IC)或电池或量表。PMIC可以采用有线和/或无线充电方法。无线充电方法可以包括例如磁共振法、磁感应法、电磁法等。可以进一步包括用于无线充电的附加电路,例如线圈环路、谐振电路、整流器等。例如,当电池充电时,电池量表可以测量电池296的剩余容量及其电压、电流或温度。电池296可以包括例如可充电电池和/或太阳能电池。
指示器297可以显示电子设备201或其一部分(例如,处理器210)的特定状态,例如引导状态、消息状态、充电状态等。马达298可以将电信号转换为机械振动,并且可以产生振动或触觉效果。尽管未示出,但是用于支持移动电视的处理器件(例如,GPU)可以包括在电子设备201中。用于支持移动电视的处理设备可以根据数字多媒体广播(DMB)、数字视频广播(DVB)、MediaFLOTM等的标准处理媒体数据。
图3是示出根据本公开的示例实施例的示例程序模块的框图。
参考图3,程序模块310(例如,程序140)可以包括用于控制与电子设备(例如,电子设备101)相关的资源的操作系统(OS)和/或在操作系统上运行的各种应用(例如,应用程序147)。操作系统可以是例如Android、iOS、Windows、Symbian、Tizen等。
程序模块310可以包括内核320、中间件330、API 360和/或应用370。程序模块310的至少一部分可以预先加载到电子设备上,或者可以从外部电子设备(例如,第一电子设备102、第二外部电子设备104或服务器106)下载。
内核320(例如,内核141)可以包括例如系统资源管理器321或设备驱动器323。系统资源管理器321可以执行系统资源的控制、分配或检索。根据本公开的实施例,系统资源管理器321可以包括进程管理单元、存储器管理单元、文件系统管理单元等。设备驱动器323可以包括例如显示驱动器、相机驱动器、蓝牙驱动器、共享存储器驱动器、USB驱动器、键盘驱动器、Wi-Fi驱动器、音频驱动器或者进程间通信(IPC)驱动器。
例如,中间件330可以提供应用370共同需要的功能,或者可以通过API 360向应用370提供各种功能,使得应用370可以有效地使用电子设备中的有限系统资源。根据本公开的实施例,中间件330(例如,中间件143)可以包括运行时库335、应用管理器341、窗口管理器342、多媒体管理器343、资源管理器344、电源管理器345、数据库管理器346、包管理器347、连接管理器348、通知管理器349、位置管理器350、图形管理器351和安全管理器352中的至少一个。
运行时库335可以包括例如编译器在应用程序370运行时通过编程语言添加新功能的库模块。运行时库335可以执行用于输入/输出管理、存储器管理或算术功能的函数。
应用管理器341可以管理例如应用370中的至少一个的生命周期。窗口管理器342可以管理在屏幕中使用的GUI资源。多媒体管理器343可以识别播放各种媒体文件所需的格式,并且可以使用与格式匹配的编解码器对媒体文件进行编码或解码。资源管理器344可以管理诸如应用370中的至少一个的源代码、存储器或存储空间的资源。
电源管理器345例如可以与基本输入/输出系统(BIOS)一起操作以管理电池或电力,并且可以提供操作电子设备所需的电力信息。数据库管理器346可以生成、搜索或修改要在应用程序370中的至少一个中使用的数据库。包管理器347可以管理以包文件格式分发的应用的安装或更新。
连接管理器348可以管理Wi-Fi、蓝牙等的无线连接。通知管理器349可以以不干扰用户的方式显示或通知诸如消息到达、预约和接近警报的事件。位置管理器350可以管理电子设备的位置信息。图形管理器351可以管理要提供给与其相关的用户或用户界面的图形效果。安全管理器352可以提供系统安全性或用户认证所需的各种安全功能。根据本公开的实施例,在电子设备(例如,电子设备101)包括电话功能的情况下,中间件330还可以包括用于管理电子的语音或视频呼叫功能的电话管理器设备。
中间件330可以包括用于形成上述元件的各种功能的组合的中间件模块。中间件330可以提供专用于每种类型的操作系统的模块以提供差异化的功能。此外,中间件330可以动态地删除现有元素的一部分或者可以添加新元素。
可以根据操作系统以不同的配置提供API 360(例如,API 145),其例如是一组API编程函数。例如,在Android或iOS的情况下,可以为每个平台提供一个API组,并且在Tizen的情况下,可以为每个平台提供至少两个API组。
例如,应用370(例如,应用程序147)可以包括能够执行功能的至少一个应用,诸如家庭371、拨号器372、SMS/MMS 373、即时消息(IM)374,浏览器375、相机376、报警器377、联系人378、语音拨号379、电子邮件380、日历381、媒体播放器382、相册383、时钟(例如手表)384,尽管未示出,但可以包括额外的应用,例如但不限于保健(例如,测量运动量或血糖)或环境信息提供(例如,提供空气压力、湿度或温度信息)。
根据本公开的实施例,应用370可以包括用于支持电子设备(例如,电子设备101)和外部电子设备(例如,第一电子设备102或第二外部电子设备104)之间的信息交换的信息交换应用。信息交换应用可以包括例如用于将特定信息中继到外部电子设备的通知中继应用或用于管理外部电子设备的设备管理应用。
例如,通知中继应用可以具有用于将在电子设备的另一应用(例如,SMS/MMS应用、电子邮件应用、医疗保健应用、环境信息应用等)中生成的通知信息中继到外部电子设备(例如,第一电子设备102或第二外部电子设备104)的功能。此外,通知中继应用可以从外部电子设备接收通知信息,并且可以向用户提供接收到的通知信息。
例如,设备管理应用可以管理(例如,安装、删除或更新)至少一个功能(例如,打开/关闭外部电子设备本身(或某些元件)或与电子设备通信的外部电子设备(例如,第一电子设备102或第二外部电子设备104)的显示器的亮度(或分辨率)调整、在外部电子设备中运行的应用或从外部电子设备提供的服务(例如,呼叫服务、消息服务等)。
根据本公开的实施例,应用370可以根据外部电子设备(例如,第一电子设备102或者第二外部电子设备104)的属性来包括特定的应用(例如,移动医疗设备的医疗应用)。应用370可以包括从外部电子设备(例如,第一电子设备102或第二外部电子设备104)接收的应用。应用370可以包括预加载应用或可从服务器下载的第三方应用。示出的程序模块310的元件的名称可以随着操作系统的类型而变化。
根据本公开的各种实施例,程序模块310的至少一部分可以用软件、固件、硬件或其组合来实现。例如,程序模块310的至少一部分可以由处理器(例如,处理器210)来实现(例如,来执行)。程序模块310的至少一部分可以包括例如用于执行至少一个功能的模块、程序、例程、指令集或过程。
图4是示出根据本公开的各种示例性实施例的电子设备的示例配置的框图。
参考图4,电子设备400(例如,图2的电子设备200)可以包括第一相机410、第二相机420、显示器430、输入模块(例如,包括输入电路)440、存储器450、和处理器(例如,包括处理电路)460。根据各种实施例,图4所示的电子设备400的一部分配置可以省略,或者可以向电子设备400添加其他配置。
第一相机410和第二相机420可以捕获通过透镜出现的图像(例如,图片或视频)。例如,第一相机410和第二相机420可以在不同的时间点或同时捕获图像。
根据实施例,第一相机410和第二相机420可以是捕获彩色图像的彩色相机或者捕获灰度图像的黑白相机。例如,第一相机410和第二相机420都可以是彩色相机或黑白相机。作为另一示例,第一相机410可以是黑白相机,并且第二相机420可以是彩色相机。
根据实施例,第一相机410和第二相机420可以具有相同的捕获方向。根据实施例,第一相机410和第二相机420可以具有彼此相同的视场(FOV)或彼此不同的FOV。例如,第二相机420可以具有比第一相机410更宽的FOV。在第二相机420具有比第一相机410更宽的FOV的情况下,第二相机420可以捕获包括由第一相机410拍摄的图像的宽FOV的图像。
根据实施例,第一相机410和第二相机420中的每一个可以包括图像传感器。图像传感器可以将包括经由透镜接收的对象信息的光转换为电信号。例如,第一相机410可以包括支持第一FOV的灰度图像的图像传感器,并且第二相机420可以包括支持比第一FOV宽的第二FOV的彩色图像的图像传感器。
根据实施例,显示器430可以显示由第一相机410或第二相机420捕获的图像或存储在存储器450中的图像。例如,显示器430可以显示由第一相机410或第二相机420捕获的预览图像。作为另一示例,显示器430可以显示由第一相机410或第二相机420捕获并被存储在存储器450中的图像,或者从另一设备接收的图像存储在存储器450中的图像。
根据实施例,输入模块440可以包括被配置为接收输入(例如,用户输入)的各种输入电路。根据实施例,输入模块440可以接收用于捕获图像或存储捕获图像的用户输入。
根据实施例,显示器430和输入模块440可以利用能够同时显示和感测触摸操作的触摸屏来实现。在触摸屏中,可以在显示面板上设置输入面板。
根据实施例,存储器450可以存储由第一相机410或第二相机420捕获的图像。例如,存储器450可以存储诸如图片、视频等的图像。根据一个实施例,存储器450可以存储由第一相机410拍摄的图像和由第二相机420拍摄的图像组成的合成图像。
根据一个实施例,处理器460可以包括各种处理电路并控制电子设备400的整体操作。根据一个实施例,处理器460可以通过控制第一相机410、第二相机420、显示器430、输入模块440和存储器450的每个来获得根据本公开的各种实施例的图像。
根据实施例,当通过使用第一相机410和第二相机420捕获图像时,处理器460可以确定第一相机410和第二相机420中的每一个的操作属性,并且可以基于确定的操作属性捕获图像。例如,操作属性可以包括曝光值、色温值和快门速度值中的至少一个。例如,处理器460可以通过使用由第一相机410和第二相机420拍摄的图像来执行测光,并且可以基于测光结果确定第一相机410和第二相机420的曝光值。
根据实施例,处理器460可以基于由第二相机420捕获的图像来确定第一相机410的操作属性。例如,处理器460可以通过使用由第二相机420捕获的宽FOV的图像来执行测光并且可以基于测光结果确定第一相机410的曝光值。因此,还可以在未包括在由第一相机410拍摄的图像中的区域上执行测光。因此,在图像的对比度高的情况下,可以减少白色孔或黑孔的出现。
图5是示出根据本公开的各种示例性实施例的示例性全景图像捕获方法的图。
根据实施例,电子设备500(例如,图4的电子设备400)可以通过使用第一相机(例如,图4的第一相机410)和第二相机(例如,图4的第二相机420)来生成全景图像。根据实施例,第一相机可以捕获具有第一FOV的第一图像(例如,501-1),并且第二相机420可以捕获具有比第一FOV宽的第二FOV的第二图像(例如,502-1)。根据实施例,第一图像可以包括在第二图像中。例如,第二图像可以包括在第一图像中包括的所有对象。
参考图5,电子设备500可以通过使用第一相机和第二相机来连续地捕获多个图像。例如,电子设备500可以通过使用第一相机捕获具有第一FOV的多个第一图像501-1至501-n,并且可以通过使用第二个摄像头捕获具有比第一个FOV宽的第二FOV的多个第二图像502-1至502-n。例如,如果拍摄方向从用户最初拍摄图像的位置向右移动,则电子设备500可以连续地捕获多个第一图像501-1至501-n和多个第二图像502-1到502-n。术语“连续”可以意味着时间连续性,并且可以意味着以特定的时间间隔连续捕获图像,例如视频拍摄。电子设备500可以在显示器(例如,图4的显示器430)中显示多个第一图像501-1至501-n作为预览图像。每当捕获多个第一图像501-1至501-n时,电子设备500可以更新并显示预览图像。
根据实施例,电子设备500可以通过使用多个第一图像501-1至501-n中的至少一部分来生成第三图像503(或全景图像)。根据实施例,电子设备500可以根据捕获顺序在与相机的移动方向相对应的第一方向(例如,右方向)上合成多个第一图像501-1至501-n。
根据实施例,当生成第三图像503时,电子设备500可以参考包括在多个第二图像502-1至502-n中的对象(或特征点)。例如,电子设备可以验证连续捕获的多个第二图像502-1至502-n中包括的对象,并且可以识别多个图像中的对象(或位置改变)的位置。根据实施例,当生成第三图像503时,电子设备500可以参考包括在多个第一图像501-1至501-n中和多个第二图像502-1至502-n中的对象(或特征点)。例如,电子设备可以标识在第一时间点捕获的第二图像502-1和在第二时间点捕获的第一图像501-2中包括的对象,并且可以识别多个图像中对象的位置(或位置变化)。
根据实施例,电子设备500可以基于验证对象的位置(或位置变化)从连续捕获的多个第一图像501-1至501-n中确定用于生成第三图像的图像。例如,如果包括在第二时间点捕获的第二图像502-2中的对象的位置相对于在第一时间点捕获的第二图像502-1中包含的对象的位置移动特定像素的数量或以上,则电子设备500可以将在第二时间点捕获的第一图像501-2确定为用于生成第三图像的图像。作为另一示例,如果包括在第二时间点捕获的第二图像502-2中的对象的位置相对于包括在第二图像502-1中的对象的位置不移动特定像素的数量或以上,则电子设备500可以将包括在第三时间点捕获的第二图像(未示出)中的对象的位置与包含在第一时间点捕获的第二图像502-1中的对象的位置进行比较。如果对象的位置移动特定像素数量或以上,则电子设备500可以将第三时间点拍摄到的第一图像(未示出)确定为用于生成第三图像的图像。
根据实施例,电子设备500基于被验证对象的位置(或位置变化)可以在第三图像503中确定多个第一图像501-1至501-n(或多个第一图像中的用于生成第三图像的图像)的第一方向的位置以及与第一方向垂直的第二方向的位置。例如,当电子设备500合成在第一时间点捕获的第一图像501-1和在第二时间点捕获的第一图像501-2时,电子设备500可以参考在第一时间点捕获的第二图像502-1和在第二时间点捕获的第二图像502-2中包括的对象的位置(或位置改变)确定在第二时间点捕获的第一图像501-2的合成位置。
参考图5,根据实施例,即使没有需要确定第一图像中的合成位置的特征点,但是考虑包括在第二图像中的特征点的位置,电子设备500仍可以确定用于第三图像的合成的第一图像或第一图像的合成位置。
图6是示出根据本公开的各种示例性实施例的示例性引导显示方法的图。
根据实施例,当拍摄全景图像时,电子设备600(例如,图4的电子设备400)可以显示用于在显示器630(例如,图4的显示器430)中引导捕获方向的引导件611。参照显示在显示器上的引导件611,用户可以沿特定方向(例如,向右方向)保持捕获方向。根据实施例,电子设备600除了作为引导件的方向性符号之外还可以显示另一形状的符号。根据实施例,电子设备600可以显示图标或文本形状的引导件。根据实施例,电子设备600可以显示第三图像作为引导件。例如,无论何时捕获第一图像,电子设备600都可以实时地生成第三图像,并且可以在显示器630中显示生成的第三图像。用户可以识别添加到第三图像的第一图像的位置,以及可以调整捕获方向。
根据实施例,当在显示器中显示引导件611时,电子设备600可以参考包括在具有宽FOV的第二图像602-1和602-2中的对象(或特征点)。例如,电子设备600可以将在第一时间点捕获的第二图像502-1中包括的对象的位置与在第二时间点捕获的第二图像502-2中包括的对象的位置进行比较,并且可以识别捕获方向的移动方向。如图6所示,在捕获方向沿右上方向移动同时驳货右方向中的全景图像的情况下,电子设备600可以在显示器630中显示用于引导捕获方向向右下的方向的引导件611。
根据参考图6描述的实施例,即使没有需要来识别具有窄FOV的第一图像中的捕获方向的特征点,电子设备600仍可以考虑包括在具有宽FOV的第二图像中的特征点的位置来显示显示器630中的引导件611。
图7是示出根据本公开的各种示例实施例的电子设备的示例配置的框图。
参考图7,电子设备700(例如,图4的电子设备400)可以包括第一相机710(例如,图4的第一相机410)、第二相机720(例如,图4的第二相机420)、合成模块(例如,包括处理电路)760(例如,图4的处理器460)、视频数字图像稳定(VDIS)模块(例如,包括图像稳定电路和/或程序元件)770、和光学图像稳定(OIS)模块(例如,包括OIC电路和/或程序元件)780。
第一相机710可以是具有第一FOV的黑白相机,并且第二相机720可以是具有比第一FOV宽的第二FOV的彩色相机。第一相机710可以捕获具有第一FOV的灰度图像(第一图像701),并且第二相机720可捕获具有第二FOV的彩色图像(第二图像702)。根据实施例,第一图像可以包括在第二图像中。例如,第二图像可以包括在第一图像中包括的所有对象。
合成模块760可以通过合成由第一相机710拍摄的第一图像701和由第二相机720捕获的第二图像702来生成具有第一FOV的彩色图像(第三图像703)。例如,合成模块760可以通过将包括在对应于第一图像701的区域721中的颜色信息叠加在灰度的第一图像701上的第二图像702中来生成第三图像703。
根据实施例,合成模块760可以包括各种处理电路和/或程序元件,并且可以用合成图像的软件模块和/或硬件模块来实现。在合成模块760用硬件模块实现的情况下,合成模块760可以是独立于包括在电子设备700中的处理器(例如,图4的处理器460)的单独元件,或者可以是处理器中包含的元素的一部分。
根据实施例,VDIS模块770可以包括在由合成模块760生成的第三图像703上执行视频数字图像稳定(第一图像稳定)的各种电路和/或程序元素。根据实施例,VDIS模块770可以根据图像捕获条件被激活或去激活。例如,当捕获视频或捕获延时图像(time-lapseimage)时,可以激活VDIS模块770。作为另一示例,在第一相机710被放大超过特定的倍率(例如,1.1倍)的情况下,VDIS模块770可以被激活。
根据实施例,当在第三图像703上执行视频数字图像稳定时,VDIS模块770可以通过使用由第二相机720捕获的第二图像702来执行图像稳定。合成模块760可以通过使用在第一时间点捕获的第一图像和在第一时间点捕获的第二图像生成对应于第一时间点的第三图像,并且可以通过使用在第二时间点捕获的第一图像以及在第二时间点捕获的第二图像来生成与第二时间点相对应的第三图像。VDIS模块770可以通过将在第一时间点捕获的第二图像与在第二时间点捕获的第二图像进行比较来分析像素的移动,并且可以基于像素的移动来计算校正值。VDIS模块770可以通过基于校正值改变(例如,与像素的移动相对)在第二时间点处生成的第三图像703中包括的像素的位置来执行图像稳定。
VIDS模块770可以基于具有比第三图像703宽的FOV的第二图像702执行视频数字图像稳定(即,包括大量像素信息),从而提高图像稳定性的准确度。
根据实施例,OIS模块780可以包括在第二相机720上执行光学图像稳定(第二图像稳定)的OIS电路和/或程序元件。例如但不限于,OIS模块780可以包括陀螺传感器。OIS模块780可以通过使用陀螺仪传感器来感测电子设备700或第二相机720的移动,并且可以基于关于移动的信息来计算校正值。OIS模块780可以通过基于校正值(例如,与第二相机720的移动相对)来改变包括在第二相机720中的透镜的位置来执行图像稳定。在图7中,示出了OIS模块780位于第二相机720的外部。然而,OIS模块780可以包括在第二相机720中。
由于存在滤色器,与黑白相机相比,由彩色相机中的图像传感器吸收的光量可能相对较小。要拍摄相同亮度的图像,彩色相机的拍摄时间(或快门速度)需要比黑白相机的拍摄时间(或快门速度)要长,并且与黑白相机相比,彩色相机可能对抖动有很大的影响。因此,如图7所示,在电子设备700仅包括一个OIS模块780的情况下,可以在作为彩色相机的第二相机720上执行图像稳定。
在参照图7述的实施例中,描述了电子设备700包括一个OIS模块780。然而,电子设备700可以包括执行第一相机710和第二相机720中的每一个的图像稳定化的多个OIS模块780。
图8是示出根据本公开的各种示例性实施例的合成图像的示例FOV的图。
在VDIS模块(例如,图7的VDIS模块770)被激活并执行视频数字图像稳定的情况下,图像的FOV(或尺寸)可以减小由于握手造成的图像的位置变化。例如,参照图8,在合成模块(例如,图7的合成模块760)被去激活的情况下,可以产生具有第一FOV的第三图像801。在VDIS模块被激活的情况下,可以产生具有比第一FOV窄的第二FOV的第三图像802。
在第一相机(例如,图7的第一相机710)以特定倍率(例如,1.1倍)放大的情况下,VDIS模块被激活以防止图像的FOV(或尺寸)由于视频数字图像稳定而产生的损失。另外,在第一相机未被放大的情况下或在第一相机被放大到低于特定倍率的情况下,VDIS模块被去激活以防止图像的FOV(或尺寸)由于视频数字图像稳定而导致的损失。在第一相机以特定的倍率放大的情况下,可以合成具有比第二FOV窄的第三FOV的第三图像803,而不管VDIS模块是否被激活。也就是说,由于在第一相机以特定的倍率放大的情况下,根据倍率来确保用于改变图像的位置的区域,所以无论VDIS模块是否被激活,合成图像的FOV(或尺寸)都不受影响。
根据实施例,电子设备(例如,图4的电子设备400)可以不同地设置第一相机(例如,图4的第一相机410)和第二相机(例如,图4的第二相机420)的配置值(或捕获条件),并且可以通过使用根据不同配置值捕获的多个图像来生成合成图像。合成图像可以在显示器(例如,图4的显示器430)中作为预览图像显示,或者可以作为图像文件存储在存储器(例如,图4的存储器450)中。
根据实施例,电子设备可以通过使用第一相机和第二相机中的至少一个来获得初步图像。例如,电子设备可以通过使用第一相机或第二相机捕获初步图像,或者可以通过合成由第一相机和第二相机捕获的多个图像来获得初步图像。例如,由电子设备获得的初步图像可以是预览图像。根据实施例,电子设备可以确定所获得图像中的第一区域和第二区域。第一区域和第二区域中的每一个可以是包括所获得的图像中包括的至少一个像素的区域。例如,电子设备可以识别所获得的图像中包括的每个像素的属性值,并且可以基于属性值来确定第一区域和第二区域。例如,图像的属性值可以包括亮度、色温、与对象的距离以及对象的移动速度中的至少一个。根据实施例,可以将初步图像中包括的区域中的属性值最高的区域(或属性值最低的区域)设置为第一区域,可以将包括在初步图像中的区域中的属性值最低(或者属性值最高)的区域设置为第二区域。
根据实施例,电子设备可以基于第一区域的属性值和第二区域的属性值来不同地设置第一相机和第二相机的配置值(或捕获条件)。例如,如果确定了第一区域和第二区域,则电子设备可以识别(或比较)第一区域的属性值和第二区域的属性值。第一区域和第二区域的属性值可以是包括在第一区域和第二区域中的每个像素的属性值的代表值(例如,平均值、最大值或最小值)。如果第一区域的属性值与第二区域的属性值之间的差不小于特定值,则电子设备可以将第一相机的配置值设置为与与第一区域的属性值对应的第一配置值并且可以将第二相机的配置值设置为与第二区域的属性值对应的第二配置值。例如,相机的配置值可以包括曝光值、色温值、聚焦位置或快门速度值中的至少一个。
电子设备可以通过使用第一相机基于第一配置值来捕获第一图像,并且可以通过使用第二相机基于第二配置值来捕获第二图像。电子设备可以合成根据第一配置值捕获的第一图像和根据第二配置值捕获的第二图像。例如,合成图像(或第三图像)可以在显示器(例如,图4的显示器430)中显示为预览图像,或者可以作为图像文件存储在存储器(例如,图4的存储器450)。
下面将参照图9至11描述合成根据不同配置值捕获的多个图像的方法。
图9是示出根据本公开的各种示例性实施例的示例图像捕获方法的图。
图9的图像910示出了通过使用第一相机(例如,图4的第一相机410)和第二相机(例如,图4的第二相机420)中的至少一个而获得的初步图像。电子设备(例如,图4的电子设备400)可以确定图像910中的第一区域911和第二区域913。例如,电子设备可以识别在图像910中包括的像素的亮度值(或色温值),可以将最暗区域设置到第一区域911,并且可以将最亮区域确定为第二区域913。
如果第一区域911的亮度值和第二区域913的亮度值之间的差异不小于特定值,则电子设备可以不同地设置第一相机和第二台相机的曝光值(或色温值)。电子设备可以基于第一区域911的亮度值设置第一相机的曝光值(例如,光圈值和快门速度值),并且可以基于第二区域913的亮度值来设置第二相机的曝光值。例如,响应于包括暗区域的第一区域911,电子设备可以将第一相机的曝光值设置为明亮(例如,光圈值低,快门速度慢),以及响应于包括亮区域的第二区域913,可以将第二相机的曝光值设置为较暗(例如,光圈值高并且快门速度快)。
电子设备可以基于设置到第一相机和第二相机中的每一个的曝光值来捕获图像。图9的图像920示出了在设置曝光值之后由第一相机拍摄的第一图像,以及图9的图像930示出了在设置曝光值之后由第二相机拍摄的第二图像。
电子设备可以通过使用由第一相机拍摄的第一图像和由第二相机拍摄的第二图像来生成合成图像。图9的图像940示出了通过合成由第一相机拍摄的图像920和由第二相机拍摄的图像930获得的图像(或第三图像)。例如,电子设备可以通过使用图像920中的第三区域921(其包括图像910的第一区域911)和在图像930中的第四区域931(其包括图像910的第二区域913)来生成图像940。
电子设备可以通过分析图像920和图像930的属性来确定第三区域921和第四区域931。例如,电子设备可以基于包括在图像920和图像930中的像素的亮度值的变化来确定第三区域921和第四区域931。
如果图像910与图像940进行比较,则可以改善图像的质量,因为包括在图像910中相对较暗地捕获的人物图像的区域在图像940中被明亮地捕获。
图10是示出根据本公开的各种示例性实施例的示例性图像捕获方法的图。
图10的图像1010示出了通过使用第一相机(例如,图4的第一相机410)和第二相机(例如,图4的第二相机420)中的至少一个而获得的初步图像。电子设备(例如,图4的电子设备400)可以确定图像1010中的第一区域1011和第二区域1013。例如,电子设备可以识别包括在图像1010中的对象的距离,可以设置与第一区域1011最近的区域,并且可以将最远区域确定为第二区域1013。
如果与第一区域1011的距离与与第二区域1013的距离之间的差不小于特定值,则电子设备可以不同地设置第一相机和第二相机的焦点位置。例如,电子设备可以将第一相机的焦点位置设置到第一区域1011,并且可以将第二相机的焦点位置设置到第二区域1013。
电子设备可以基于设置到第一相机和第二相机中的每一个的焦点位置来捕获图像。图10的图像1020示出了在设置聚焦位置之后由第一相机拍摄的第一图像,以及图10的图像1030示出了在设置聚焦位置之后由第二相机拍摄的第二图像。参考图像1020,可以清楚地捕获相对较近的对象,因为它在焦点中。另一方面,相对较远的科目可能被模糊地捕获,因为它不在焦点中。参考图像1030,相对较近的对象可以被模糊地捕获,因为它不在焦点中。另一方面,相对较远的科目可能被清楚地捕获,因为它在焦点中。
电子设备可以通过使用由第一相机捕获的第一图像和由第二相机拍摄的第二图像来生成合成图像(或第三图像)。图10的图像1040示出了通过合成由第一相机拍摄的图像1020和由第二相机拍摄的图像1030而获得的图像。例如,电子设备可以通过使用图像1020中的第三区域1021(其包括的图像1010的第一区域1011)和图像1030中的第四区域1031(其包括的图像1010的第二区域1013)来生成图像1040。
电子设备可以通过分析图像1020和图像1030的属性来确定第三区域1021和第四区域1031。例如,电子设备可以基于距离在图像1020和图像1030中包括的对象的距离来确定第三区域1021和第四区域1031。
如果将图像1010与图像1040进行比较,则在图像1010中相对模糊地捕获的背景区域可被捕获为图像1040中的清晰区域。为此,获得完全聚焦的图像。结果,可以提高图像的质量。
图11是示出根据本公开的各种示例性实施例的示例图像捕获方法的图。
图11的图像1110示出通过使用第一相机(例如,图4的第一相机410)和第二相机(例如,图4的第二相机420)中的至少一个获得的初步图像。电子设备(例如,图4的电子设备400)可以确定图像1110中的第一区域1111和第二区域1113。例如,电子设备可以识别包括在图像1110中的对象的移动速度,将对象最快的区域设置到第一区域1111,并且可以将对象是最慢的或者不存在对象的移动的区域设置到第二区域1113。例如可以通过比较连续拍摄的图像中包括的对象的位置来验证对象的移动速度。例如,连续拍摄的图像可以是在显示器(例如,图4的显示器430)中显示的预览图像。
如果包括在第一区域1111中的对象的速度与包括在第二区域1113中的对象的速度之间的差不小于特定值,则电子设备可以不同地设置第一相机和第二相机的快门速度。电子设备可以基于第一区域1111中包括的对象的速度将第一相机的快门速度设置为相对较快,并且可以基于在第二区域1113中包括的对象的速度将第二相机的快门速度设置为相对较慢。根据实施例,电子设备可以基于设置的快门速度来设置第一相机和第二相机中的每一个的灵敏度或光圈值,使得由第一相机和第二相机捕获的图像具有彼此相同或相似的亮度。例如,在第一相机的快门速度相对较高并且第二相机的快门速度相对较低的情况下,电子设备可以将第一相机的灵敏度设置为高,或者可以将第一相机的光圈值设置为低。或者在第一相机的快门速度相对较高并且第二相机的快门速度相对较低的情况下,电子设备可以将第二相机的灵敏度设置为低或可以将第二相机的光圈值设置为高。
电子设备可以基于设置到第一相机和第二相机中的每一个的快门速度来捕获图像。图11的图像1120示出了在设置快门速度之后由第一相机捕获的第一图像,以及图11的图像1130示出了在设置快门速度之后由第二相机拍摄的第二图像。如果参照以高快门速度拍摄的图像1120,则不存在对象的抖动。如果参考以低快门速度拍摄的图像1130,则可以在图像中的对象根据对象的速度而抖动时拍摄图像。
电子设备可以通过使用由第一相机捕获的第一图像和由第二相机拍摄的第二图像来生成合成图像(或第三图像)。图11的图像1140示出了通过合成由第一相机拍摄的图像1120和由第二相机拍摄的图像1130而获得的图像。例如,电子设备可以通过使用图像1120中的第三区域1121(其包括图像1110的第一区域1111)和图像1130中的第四区域1131(其包括图像1110的第二区域1113)来生成图像1140。
电子设备可以通过分析图像1120和图像1130的属性来确定第三区域1121和第四区域1131。例如,电子设备可以基于图像1120和图像1130中包括的对象的速度来确定第三区域1121和第四区域1131。
如果将图像1110与图像1140进行比较,则在图像1110中相对抖动的被拍摄对象可以在图像1140中清楚地捕获4而没有抖动。结果,可以提高图像的质量。
图12是示出根据本公开的各种示例性实施例的电子设备的示例图像捕获方法的流程图。
图12所示的流程图可以包括电子设备处理的操作。即使在下面省略,关于参照图1至图11描述的电子设备的详细描述仍可以应用于图12所示的流程图。
根据实施例,在操作1210中,电子设备(例如,图4的电子设备400)可以通过使用第一相机(例如,图4的第一相机410)来捕获具有第一FOV的第一图像。根据实施例,电子设备可以连续地捕获多个第一图像。
根据实施例,在操作1220中,电子设备可以通过使用第二相机(例如,图4的第二相机420)捕获具有比第一FOV宽的第二FOV的第二图像。根据实施例,第一图像可以包括在第二图像中。例如,第二图像可以包括在第一图像中包括的所有对象。根据实施例,电子设备可以连续地捕获多个第二图像。拍摄第二图像的操作1220可以与拍摄第一图像的操作1210同时执行。
根据实施例,在操作1230中,电子设备可以使用连续捕获的多个第一图像的至少一部分来生成第三图像。根据实施例,电子设备可以基于捕获顺序在与相机的移动方向相对应的第一方向上构成多个第一图像。例如,第三图像可以是全景图像。
根据实施例,当生成第三图像时,电子设备可以指代包括在第二图像中的对象(或特征点)。例如,电子设备可以识别包括在连续捕获的多个第二图像中的对象(或特征点),并且可以识别图像中的对象的位置改变。电子设备可以参考包括在多个第二图像中的对象来确定第三图像中的多个第一图像的第一方向以及垂直于第一方向的第二方向的位置。
根据实施例,当捕获(或产生)第三图像时,电子设备可以显示用于在显示器(例如,图4的显示器430)中引导捕获方向的引导件。根据实施例,电子设备可以参考在多个第二图像中包括的对象(或特征点)在显示器中显示引导件。例如,电子设备可以通过比较包括在多个第二图像中的对象的位置来识别拍摄方向的移动方向,并且电子设备可以基于拍摄方向的移动方向显示引导件。
根据实施例,电子设备可以基于由第二相机捕获的第二图像来确定第一相机的操作属性。例如,操作属性可以包括曝光值、色温值和快门速度值中的至少一个。例如,电子设备可以通过使用由第二相机拍摄的具有第二FOV的图像来执行测光,并且可以基于测光结果确定第一相机的曝光值。
图13是示出根据本公开的各种示例性实施例的电子设备的示例图像捕获方法的流程图。
图13所示的流程图可以包括电子设备处理的操作。即使在下面省略,关于参照图1至图11描述的电子设备的详细描述仍可以应用于图13所示的流程图。
根据实施例,在操作1310中,电子设备(例如,图4的电子设备400)可以使用第一相机(例如,图4的第一相机410)捕获具有第一FOV的第一图像。例如,第一图像可以是灰度图像。
根据实施例,在操作1320中,电子设备可以使用第二相机(例如,图4的第二相机420)捕获具有比第一FOV宽的第二FOV的第二图像。例如,第二图像可以是彩色图像。根据实施例,第一图像可以包括在第二图像中。例如,第二图像可以包括在第一图像中包括的所有对象。
根据实施例,在操作1330中,电子设备可以调整第一相机的操作属性。电子设备可以基于由第二相机捕获的第二图像来调整第一相机的操作属性。例如,操作属性可以包括曝光值、色温值和快门速度值中的至少一个。例如,电子设备可以使用由第二相机拍摄的具有第二FOV的图像来执行测光,并且可以基于测光结果确定第一相机的曝光值。
根据实施例,在操作1340中,电子设备可以使用第一相机获得第三图像。电子设备可以基于在操作1330中调整的第一相机的操作属性来获得第三图像。
根据实施例,在操作1350中,电子设备可以合成第一图像和第三图像。根据实施例,电子设备可以基于第二图像和第三图像来合成第一图像和第三图像。例如,电子设备可以识别第二图像和第三图像中的相同图像区域(例如,包括相同对象的区域),并且可以基于经验证的相同图像区域来合成第一图像和第三图像。
根据实施例,电子设备可以通过使用第二相机来获得与第三图像相关联的第四图像,并且可以基于第二图像和第四图像来合成第一图像和第三图像。例如,电子设备可以识别第二图像和第四图像中的相同图像区域,并且可以基于经验证的相同图像区域来合成第一图像和第三图像。
图14是示出根据本公开的各种示例性实施例的电子设备的示例图像捕获方法的流程图。
图14所示的流程图可以包括电子设备处理的操作。即使在下面省略,关于参照图1至图11描述的电子设备的详细描述仍可以应用于图14所示的流程图。
根据实施例,在操作1410中,电子设备(例如,图4的电子设备400)可以使用第一相机(例如,图4的第一相机410)捕获具有第一FOV的第一图像。例如,第一图像可以是灰度图像。
根据实施例,在操作1420中,电子设备可以使用第二相机(例如,图4的第二相机420)捕获具有比第一FOV宽的第二FOV的第二图像。例如,第二图像可以是彩色图像。根据实施例,第一图像可以包括在第二图像中。例如,第二图像可以包括在第一图像中包括的所有对象。
根据实施例,在操作1430中,电子设备可以使用第一图像和第二图像生成第三图像。例如,电子设备可以通过将包括在与第一图像相对应的区域中的颜色信息叠加在灰度的第一图像上的第二图像中来生成第三图像。
根据实施例,在操作1440中,电子设备可以分析第二图像的像素移动。例如,电子设备可以通过比较连续捕获的多个第二图像来分析像素移动。
根据实施例,在操作1450中,电子设备可以基于第二图像的像素移动来对第三图像执行图像稳定。根据实施例,电子设备可以基于第二图像的像素移动对第三图像执行视频数字图像稳定。例如,电子设备可以基于第二图像的像素移动来计算校正值,并且可以基于校正值通过改变第三图像中包括的像素的位置(例如,与像素的移动相对)来执行图像稳定。
根据实施例,电子设备可以基于图像捕获条件来激活或去激活DVIS功能。例如,当拍摄视频或捕获延时图像时,可以激活电子设备。作为另一示例,在第一相机以特定倍率(例如,1.1倍)放大的情况下,可以激活电子设备。
图15是示出根据本公开的各种示例性实施例的电子设备的示例图像捕获方法的流程图。
图15所示的流程图可以包括电子设备处理的操作。即使在下面省略,关于参照图1至图11描述的电子设备的详细描述仍可以应用于图15所示的流程图。
根据实施例,在操作1510中,电子设备(例如,图4的电子设备400)可以使用第一相机(例如,图4的第一相机410)和第二相机(例如,图4的第二相机420)中的至少一个来获得初步图像。例如,电子设备可以通过使用第一相机或第二相机捕获初步图像,或者可以通过合成由第一相机和第二相机捕获的多个图像来获得初步图像。
根据实施例,在操作1520中,电子设备可以确定初步图像中的第一区域和第二区域。第一区域和第二区域中的每一个可以是包括初步图像中包括的至少一个像素的区域。例如,电子设备可以识别包括在初步图像中的每个像素的属性值,并且可以基于属性值来确定第一区域和第二区域。例如,图像的属性值可以包括亮度、色温、与对象的距离以及对象的移动速度中的至少一个。根据实施例,可以将初步图像中包括的区域中的属性值最高的区域(或属性值最低的区域)设置为第一区域,可以将包括在初步图像中的区域中的属性值最低的区域(或者属性值最高的区域)设置为第二区域。
根据实施例,在操作1530中,电子设备可以识别(或比较)第一区域的属性值和第二区域的属性值。第一区域和第二区域的属性值可以是包括在第一区域和第二区域中的每个像素的属性值的代表值(例如,平均值、最大值或最小值)。
根据实施例,在操作1540中,电子设备可以确定第一区域的属性值和第二区域的属性值之间的差是否不小于(例如,超过)特定值。
根据实施例,在操作1540中,如果第一区域的属性值与第二区域的属性值之间的差不小于特定值,则在操作1550中,电子设备可以将第一相机的配置值设置为与第一区域的属性值相对应的第一配置值,并且可以将第二相机的配置值设置为与第二区域的属性值对应的第二配置值。例如,相机的配置值可以包括曝光值、色温值、聚焦位置或快门速度值中的至少一个。
根据实施例,在操作1540中,如果确定第一区域的属性值与第二区域的属性值之间的差小于特定值,则在操作1590中,电子设备可以在显示器中显示初步图像。根据实施例,电子设备可以将初步图像显示为预览图像。
根据实施例,在操作1550中,如果设置了第一相机的配置值,则在操作1560中,电子设备可以基于第一配置值使用第一相机捕获第一图像。
根据实施例,在操作1550中,如果设置了第二相机的配置值,则在操作1570中,电子设备可以基于第二配置值使用第二相机捕获第二图像。
根据实施例,在操作1580中,电子设备可以使用根据第一配置值捕获的第一图像和根据第二配置值捕获的第二图像来生成第三图像。例如,电子设备可以确定包括第一图像中的第一区域的第三区域,并且可以确定包括第二图像中的第二区域的第四区域。电子设备可以通过使用第三区域和第四区域来生成第三图像。
根据实施例,在操作1590中,电子设备可以在显示器中显示第三图像。根据实施例,电子设备可以将第三图像显示为预览图像。
根据本公开的各种实施例,可以通过使用利用多个相机捕获的多个图像来改善所捕获的图像。
本文使用的术语“模块”可以表示例如包括硬件、软件和固件的一个或多个组合的单元。术语“模块”可以与术语“单元”、“逻辑”、“逻辑块”、“组件”和“电路”互换使用。“模块”可以是集成组件的最小单位,也可以是其一部分。“模块”可以是用于执行一个或多个功能或其一部分的最小单位。“模块”可以机械地或电子地实现。例如,“模块”可以包括但不限于例如专用处理器、CPU、专用IC(ASIC)芯片、现场可编程门阵列(FPGA)和可编程逻辑器件,用于执行一些已知或将被开发的操作。
根据各种实施例,设备的至少一部分(例如,其模块或功能)或方法(例如,操作)可以例如由存储在计算机可读存储介质中的指令以程序模块的形式来实现。该指令在由处理器执行时可以使一个或多个处理器执行与该指令相对应的功能。计算机可读存储介质例如可以是存储器。
计算机可读记录介质可以包括硬盘、磁介质、软盘、磁介质(例如,磁带)、光学介质(例如,光盘只读存储器(CD-ROM))和数字通用盘(DVD)、磁光介质(例如,光盘)和硬件设备(例如,只读存储器(ROM)、随机存取存储器(RAM)或闪速存储器)),此外,程序指令不仅可以包括诸如由编译器生成的那些的机械代码,还可以包括在使用解释器的计算机上可执行的高级语言代码。上述硬件设备可以被配置为以一个或多个更多的软件模块来执行根据本公开的各种实施例的操作,反之亦然。
根据本公开的各种实施例的模块或程序模块可以包括上述元件中的至少一个,或者可以省略一些元件或者可以添加其他附加元件。根据本公开的各种实施例的由模块、程序模块或其他元件执行的操作可以以顺序、并行、迭代或启发式方式来执行。此外,一些操作可以以另一顺序执行或可以被省略,或者可以添加其他操作。
虽然已经参照本发明的各种示例性实施例来说明和描述了本公开,但是本领域技术人员将会理解,在不脱离本发明的精神和范围的情况下,可以在形式和细节上进行各种改变如所附权利要求及其等同物所限定的本发明。
Claims (12)
1.一种电子设备,包括:
支持第一视野(FOV)的第一相机;
支持第二FOV的第二相机,其中,第二FOV比第一FOV宽;和
处理器,
其中,所述处理器被配置为:
使用第一相机获得具有第一FOV的第一图像;
使用第二相机获得具有第二FOV的第二图像;
基于第二图像调整第一相机的至少一个操作属性;
使用第一相机基于经调整的至少一个操作属性获得具有第一FOV的第一经调整的图像;和
通过合成第一图像和第一经调整的图像来生成合成的图像。
2.根据权利要求1所述的电子设备,其中,所述处理器进一步被配置为:
在拍摄全景图像时显示提供捕获方向的引导件。
3.根据权利要求1所述的电子设备,其中,所述至少一个操作属性包括曝光值、色温值和快门速度值中的至少一个。
4.根据权利要求1所述的电子设备,其中,所述处理器进一步被配置为:
识别相对于第二图像和第一经调整的图像的相同图像区域;和
通过基于相同图像区域合成第一图像和第一经调整的图像来生成合成的图像。
5.根据权利要求1所述的电子设备,其中,所述处理器进一步被配置为:
使用第二相机获得其它的第二图像;
使用第一相机获得与其它的第二图像相关联的第一经调整的图像;和
通过基于第二图像和其它的第二图像合成第一图像和第一经调整的图像来生成合成的图像。
6.根据权利要求5所述的电子设备,其中,所述处理器进一步被配置为:
识别相对于第二图像和其它的第二图像的相同图像区域;和
基于相同图像区域生成合成的图像。
7.一种电子设备的图像捕获方法,所述方法包括:
使用第一相机获得具有第一视野(FOV)的第一图像;
使用第二相机获得具有第二FOV的第二图像,其中,第二FOV比第一FOV宽;
基于第二图像调整第一相机的至少一个操作属性;
使用第一相机基于经调整的至少一个操作属性获得具有第一FOV的第一经调整的图像;和
通过合成第一图像和第一经调整的图像来生成合成的图像。
8.根据权利要求7所述的方法,还包括:
当拍摄全景图像时显示提供捕获方向的引导件。
9.根据权利要求7所述的方法,其中,所述至少一个操作属性包括曝光值、色温值和快门速度值中的至少一个。
10.根据权利要求7所述的方法,还包括:
识别相对于第二图像和第一经调整的图像的相同图像区域;和
通过基于相同图像区域合成第一图像和第一经调整的图像来生成合成的图像。
11.根据权利要求7所述的方法,其中,还包括:
使用第二相机获得其它的第二图像;
使用第一相机获得与其它的第二图像相关联的第一经调整的图像;和
通过基于第二图像和其它的第二图像合成第一图像和第一经调整的图像来生成合成的图像。
12.根据权利要求11所述的方法,其中,所述合成的图像的生成包括:
识别相对于第二图像和其它的第二图像的相同图像区域;和
通过基于第二图像和其它的第二图像合成第一图像和第一经调整的图像来生成合成的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111208615.XA CN113965678B (zh) | 2016-06-30 | 2017-06-30 | 电子设备及其图像捕获方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2016-0082807 | 2016-06-30 | ||
KR1020160082807A KR102520225B1 (ko) | 2016-06-30 | 2016-06-30 | 전자 장치 및 전자 장치의 이미지 촬영 방법 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111208615.XA Division CN113965678B (zh) | 2016-06-30 | 2017-06-30 | 电子设备及其图像捕获方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107566693A CN107566693A (zh) | 2018-01-09 |
CN107566693B true CN107566693B (zh) | 2021-11-02 |
Family
ID=59366199
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111208615.XA Active CN113965678B (zh) | 2016-06-30 | 2017-06-30 | 电子设备及其图像捕获方法 |
CN201710521086.6A Active CN107566693B (zh) | 2016-06-30 | 2017-06-30 | 电子设备及其图像捕获方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111208615.XA Active CN113965678B (zh) | 2016-06-30 | 2017-06-30 | 电子设备及其图像捕获方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10484589B2 (zh) |
EP (2) | EP3869790B1 (zh) |
KR (1) | KR102520225B1 (zh) |
CN (2) | CN113965678B (zh) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017155365A1 (en) * | 2016-03-11 | 2017-09-14 | Samsung Electronics Co., Ltd. | Electronic apparatus for providing panorama image and control method thereof |
US9716825B1 (en) | 2016-06-12 | 2017-07-25 | Apple Inc. | User interface for camera effects |
SE541780C2 (en) * | 2016-07-07 | 2019-12-17 | Brighter Ab Publ | Method involving a mobile phone for monitoring a medical device |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
KR102479492B1 (ko) * | 2018-01-08 | 2022-12-20 | 삼성전자주식회사 | 차량 주변의 이미지를 제공하는 전자 장치 및 방법 |
US11112964B2 (en) | 2018-02-09 | 2021-09-07 | Apple Inc. | Media capture lock affordance for graphical user interface |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
DK201870623A1 (en) | 2018-09-11 | 2020-04-15 | Apple Inc. | USER INTERFACES FOR SIMULATED DEPTH EFFECTS |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US10645294B1 (en) | 2019-05-06 | 2020-05-05 | Apple Inc. | User interfaces for capturing and managing visual media |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
KR102710139B1 (ko) | 2019-02-19 | 2024-09-26 | 삼성전자주식회사 | 이미지 안정화를 위한 전자 장치 및 그의 동작 방법 |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
JP7265652B2 (ja) | 2019-05-31 | 2023-04-26 | ナイキ イノベイト シーブイ | 動的応答目標を備えるマルチチャネル通信プラットフォーム |
CN110166680B (zh) * | 2019-06-28 | 2021-08-24 | Oppo广东移动通信有限公司 | 设备成像方法、装置、存储介质及电子设备 |
CN110290324B (zh) * | 2019-06-28 | 2021-02-02 | Oppo广东移动通信有限公司 | 设备成像方法、装置、存储介质及电子设备 |
CN110290322A (zh) | 2019-06-28 | 2019-09-27 | Oppo广东移动通信有限公司 | 设备成像方法、装置、存储介质及电子设备 |
CN111062881A (zh) * | 2019-11-20 | 2020-04-24 | RealMe重庆移动通信有限公司 | 图像处理方法及装置、存储介质、电子设备 |
US11436827B1 (en) * | 2020-02-25 | 2022-09-06 | Tp Lab, Inc. | Location tracking system using a plurality of cameras |
US11039074B1 (en) | 2020-06-01 | 2021-06-15 | Apple Inc. | User interfaces for managing media |
US11212449B1 (en) * | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
CN113141450B (zh) * | 2021-03-22 | 2022-07-22 | 维沃移动通信(杭州)有限公司 | 拍摄方法、装置、电子设备及介质 |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US12112024B2 (en) | 2021-06-01 | 2024-10-08 | Apple Inc. | User interfaces for managing media styles |
KR20240059437A (ko) * | 2022-10-27 | 2024-05-07 | 삼성전자주식회사 | 타임 랩스 영상을 제공하는 조리 기기 및 그 제어 방법 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8339500B2 (en) * | 2006-09-04 | 2012-12-25 | Nikon Corporation | Video sharing system, photography support system, and camera |
JP4897593B2 (ja) * | 2007-07-09 | 2012-03-14 | 富士フイルム株式会社 | 複眼撮影装置及びその調節方法 |
US8072503B2 (en) | 2007-10-23 | 2011-12-06 | At&T Intellectual Property I, L.P. | Methods, apparatuses, systems, and computer program products for real-time high dynamic range imaging |
US8089518B2 (en) * | 2007-11-16 | 2012-01-03 | Samsung Electronics Co., Ltd. | System and method for automatic image capture in a handheld camera with a multiple-axis actuating mechanism |
JP2010004113A (ja) * | 2008-06-18 | 2010-01-07 | Olympus Imaging Corp | 撮像装置、撮像方法、画像処理装置、および画像処理方法 |
US9204026B2 (en) * | 2010-11-01 | 2015-12-01 | Lg Electronics Inc. | Mobile terminal and method of controlling an image photographing therein |
KR101674959B1 (ko) * | 2010-11-02 | 2016-11-10 | 엘지전자 주식회사 | 이동 단말기 및 이것의 영상 촬영 제어 방법 |
JP6004371B2 (ja) * | 2011-11-16 | 2016-10-05 | パナソニックIpマネジメント株式会社 | 撮像装置 |
WO2013116394A2 (en) | 2012-01-30 | 2013-08-08 | Mark Olsson | Adjustable variable resolution inspection systems and methods |
US9204041B1 (en) | 2012-07-03 | 2015-12-01 | Gopro, Inc. | Rolling shutter synchronization |
TWI435162B (zh) * | 2012-10-22 | 2014-04-21 | Nat Univ Chung Cheng | Low complexity of the panoramic image and video bonding method |
US8957940B2 (en) | 2013-03-11 | 2015-02-17 | Cisco Technology, Inc. | Utilizing a smart camera system for immersive telepresence |
JP2014202771A (ja) * | 2013-04-01 | 2014-10-27 | 株式会社Jvcケンウッド | 撮像装置、及びその制御方法 |
US9615012B2 (en) * | 2013-09-30 | 2017-04-04 | Google Inc. | Using a second camera to adjust settings of first camera |
EP3654286B1 (en) | 2013-12-13 | 2024-01-17 | Panasonic Intellectual Property Management Co., Ltd. | Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium |
EP2887352A1 (en) * | 2013-12-19 | 2015-06-24 | Nokia Corporation | Video editing |
US9330436B2 (en) | 2014-04-01 | 2016-05-03 | Gopro, Inc. | Multi-camera array with adjacent fields of view |
KR102251483B1 (ko) * | 2014-10-23 | 2021-05-14 | 삼성전자주식회사 | 영상을 처리하는 전자 장치 및 방법 |
KR20160058519A (ko) * | 2014-11-17 | 2016-05-25 | 삼성전자주식회사 | 복수의 영상들에 대한 영상 처리 |
KR20160082807A (ko) | 2014-12-29 | 2016-07-11 | 주식회사 에스제이씨 | 회전자용 원심 주조 장치 |
US10284761B2 (en) * | 2016-11-17 | 2019-05-07 | Motorola Mobility Llc | Multi-camera capture of a high dynamic range image |
-
2016
- 2016-06-30 KR KR1020160082807A patent/KR102520225B1/ko active IP Right Grant
-
2017
- 2017-06-29 EP EP21169161.3A patent/EP3869790B1/en active Active
- 2017-06-29 EP EP17178587.6A patent/EP3264744B1/en active Active
- 2017-06-29 US US15/636,897 patent/US10484589B2/en active Active
- 2017-06-30 CN CN202111208615.XA patent/CN113965678B/zh active Active
- 2017-06-30 CN CN201710521086.6A patent/CN107566693B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
EP3264744A2 (en) | 2018-01-03 |
EP3264744B1 (en) | 2021-05-26 |
US10484589B2 (en) | 2019-11-19 |
KR102520225B1 (ko) | 2023-04-11 |
CN107566693A (zh) | 2018-01-09 |
CN113965678B (zh) | 2024-04-02 |
EP3869790B1 (en) | 2023-10-18 |
KR20180003235A (ko) | 2018-01-09 |
CN113965678A (zh) | 2022-01-21 |
EP3869790A1 (en) | 2021-08-25 |
EP3264744A3 (en) | 2018-01-17 |
US20180007315A1 (en) | 2018-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107566693B (zh) | 电子设备及其图像捕获方法 | |
US10871798B2 (en) | Electronic device and image capture method thereof | |
US10623661B2 (en) | Image composition method with image sensors having different angles of view and electronic device for supporting the same | |
CN110462572B (zh) | 电子装置及其控制方法 | |
US20210349616A1 (en) | Electronic device and method for electronic device displaying image | |
CN108279832B (zh) | 图像采集方法和电子装置 | |
CN107257954B (zh) | 用于提供屏幕镜像服务的设备和方法 | |
CN111935380B (zh) | 电子装置 | |
EP3440829B1 (en) | Apparatus and method for processing image | |
CN108028891B (zh) | 电子设备和照相方法 | |
CN108427533B (zh) | 电子设备及用于确定电子设备的环境的方法 | |
CN107682619B (zh) | 用于处理图像的方法和支持该方法的电子设备 | |
US20190349562A1 (en) | Method for providing interface for acquiring image of subject, and electronic device | |
CN108124054B (zh) | 基于握持传感器的感测信号显示用户界面的设备 | |
CN108141544B (zh) | 面部检测方法以及支持该方法的电子设备 | |
US20180032238A1 (en) | Electronic device and method for outputting thumbnail corresponding to user input | |
US11210828B2 (en) | Method and electronic device for outputting guide |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |