CN108353129A - 拍摄设备及其控制方法 - Google Patents

拍摄设备及其控制方法 Download PDF

Info

Publication number
CN108353129A
CN108353129A CN201680063785.4A CN201680063785A CN108353129A CN 108353129 A CN108353129 A CN 108353129A CN 201680063785 A CN201680063785 A CN 201680063785A CN 108353129 A CN108353129 A CN 108353129A
Authority
CN
China
Prior art keywords
image
capture apparatus
processor
camera lens
visual angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680063785.4A
Other languages
English (en)
Other versions
CN108353129B (zh
Inventor
郑珍久
韩熙喆
李太熙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN108353129A publication Critical patent/CN108353129A/zh
Application granted granted Critical
Publication of CN108353129B publication Critical patent/CN108353129B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

一种拍摄设备可以包括:具有不同视角的两个或更多个镜头;以及处理器,被配置为使用从镜头获取的图像来检测第一对象,并且基于第二对象是否接近所获取的图像中的包括第一对象在内的第一图像的视角来生成通知信号。

Description

拍摄设备及其控制方法
技术领域
本公开涉及一种拍摄设备及根据对象的接近度控制拍摄设备的方法。
背景技术
随着与拍摄设备有关的技术的发展,正在开发能够拍摄高质量图像的拍摄设备。然而,当在拍摄图像时除了要拍摄对象之外的干扰物体(即,可能干扰拍摄的物体)在附近时,用户可能由于干扰物体的干扰而不能拍摄图像。
发明内容
[问题的解决方案]
提供了拍摄设备及根据对象的接近度控制拍摄设备的方法。
[本发明的有益效果]
当在对第一对象进行拍摄期间检测到第二对象的接近时,拍摄设备可以生成通知信号。因此,用户可以准确地拍摄第一对象的图像而没有其他对象的干扰。
此外,拍摄设备可以跟踪第一对象的移动路径并产生实时查看图像以连续地显示第一对象。因此,用户可以连续地观察他或她想要拍摄的第一对象的图形。
附图说明
根据以下结合附图的详细描述,这些和/或其他方面将变得清楚并更易于理解,在附图中相似的附图标记指相似的元件,并且其中:
图1是示出了控制拍摄设备的方法的示例的图;
图2是示出了拍摄设备的示例的示例配置的框图;
图3是示出了拍摄设备的另一示例的示例配置的框图;
图4是示出了多个镜头具有不同视角的示例的图;
图5是示出了多个镜头具有相同视角的示例的图;
图6是示出了控制拍摄设备的方法的示例的流程图;
图7A和图7B是示出了通过具有不同视角的镜头获取的图像的示例的图;
图8是示出了对第一对象进行检测的示例的图;
图9是示出了对第一对象进行检测的另一示例的图;
图10是示出了对第一对象进行检测的又一示例的图;
图11是示出了生成通知信号的示例的流程图;
图12是示出了获取第二对象的运动信息的示例的图;
图13是示出了获取第二对象的运动信息的另一示例的图;
图14是示出了根据一些实施例的生成通知信号的示例的图;
图15是示出了根据一些实施例的生成通知信号的另一示例的图;
图16是示出了拍摄设备使用从外部设备接收到的信息来检测第一对象和第二对象的示例的图;
图17A和图17B是示出了控制拍摄静止图像的方式的示例的图;
图18是示出了控制拍摄视频的方式的示例的图;
图19是示出了控制拍摄静止图像的方式的示例的流程图;
图20是示出了控制拍摄视频的方式的示例的流程图;
图21是示出了控制拍摄设备的方法的另一示例的流程图;
图22A和图22B是示出了其中基于第一对象的移动来输出实时查看图像的示例的图;
图23是示出了基于第一对象的移动来输出实时查看图像的示例的流程图;
图24是示出了输出图像的示例的图;以及
图25是示出了输出图像的另一示例的图。
具体实施方式
提供了拍摄设备及根据对象的接近度控制拍摄设备的方法。
提供了一种存储程序的计算机可读记录介质,该程序用于使计算机执行上述方法。
附加方面部分地将在下面的描述中进行阐述,并且将部分地根据该描述而变得清楚。
根据示例实施例的一个方面,一种拍摄设备包括:具有不同视角的两个或更多个镜头;以及处理器,被配置为使用从所述镜头获取的图像来检测第一对象,并且基于第二对象是否接近所获取的图像中的包括所述第一对象在内的第一图像的视角来生成通知信号。
在上述拍摄设备中,所述第一对象可以包括所述拍摄设备所生成的最终图像中所包括的对象。
在上述拍摄设备中,所述处理器可以被配置为选择所获取的图像中的第二图像中包括的除了所述第一对象之外的对象中的至少一个对象作为所述第二对象。
在上述拍摄设备中,所述处理器可以被配置为基于用户输入在所述第一图像中包括的对象中检测所述第一对象。
在上述拍摄设备中,所述处理器可以被配置为检测在所述第一图像中包括的各个对象的图形,并且使用检测到的图形来选择所述第一对象。
在上述拍摄设备中,所述处理器可以被配置为使用预先存储的对象信息在所述第一图像中包括的对象中检测所述第一对象。
在上述拍摄设备中,所述处理器可以被配置为基于所获取的图像中包括的第二图像来获取所述第二对象的运动信息,并且使用所述运动信息来确定所述第二对象是否接近所述第一图像的视角。
在上述拍摄设备中,所述处理器可以被配置为使用预先存储的对象信息来获取所述第二对象的运动信息,并且使用所述运动信息来确定所述第二对象是否接近所述第一图像的视角。
在上述拍摄设备中,所述通知信号可以包括与所述拍摄设备所输出的图像或声音相对应的信号。
在上述拍摄设备中,所述处理器可以被配置为使用所获取的图像以及从外部设备接收的表示对象的信息来检测所述第一对象。
在上述拍摄设备中,所述处理器可以被配置为基于所述第二对象是否包括在所述第一图像的视角中来确定是否拍摄图像。
在上述拍摄设备中,所述处理器可以被配置为基于所述第二对象是否包括在所述第一图像的视角中来改变视频帧采样率。
上述拍摄设备还可以包括被配置为存储所述第一对象的信息的存储器。
根据另一示例实施例的一个方面,一种控制拍摄设备的方法包括:通过具有不同视角的两个或更多个镜头来获取图像;使用所获取的图像来检测第一对象;以及基于第二对象是否接近所获取的图像中的包括所述第一对象在内的第一图像的视角来生成通知信号。
在上述方法中,所述第一对象可以包括所述拍摄设备所生成的最终图像中所包括的对象。
上述方法还可以包括:选择所获取的图像中的第二图像中包括的除了所述第一对象之外的对象中的至少一个对象作为所述第二对象。
在上述方法中,检测所述第一对象可以包括:基于用户输入在所述第一图像中包括的对象中检测所述第一对象。
在上述方法中,检测所述第一对象可以包括:检测所述第一图像中包括的各个对象的图形,并且使用检测到的图形来选择所述第一对象。
在上述方法中,检测所述第一对象可以包括使用预先存储的对象信息在所述第一图像中所包括的对象中检测所述第一对象。
在上述方法中,生成所述通知信号可以包括:基于所获取的图像中包括的第二图像来获取所述第二对象的运动信息,并且使用所述运动信息来确定所述第二对象是否接近所述第一图像的视角。
在上述方法中,生成所述通知信号可以包括:使用预先存储的对象信息来获取所述第二对象的运动信息,并且使用所述运动信息来确定所述第二对象是否接近所述第一图像的视角。
在上述方法中,所述通知信号可以包括与所述拍摄设备所输出的图像或声音相对应的信号。
上述方法还可以包括:从外部设备接收表示对象的信息,其中检测所述第一对象可以包括使用所获取的图像和接收到的信息来检测所述第一对象。
上述方法还可以包括:基于所述第二对象是否包括在所述第一图像的视角中来确定是否拍摄图像。
上述方法还可以包括:基于所述第二对象是否包括在所述第一图像的视角中来改变视频帧采样率。
上述方法还可以包括:存储所述第一对象的信息。
根据另一示例实施例的一个方面,一种非暂时性计算机可读记录介质存储程序,所述程序使得计算机执行上述方法。
[具体实施方式]
现在将更详细参考示例实施例,其示例在附图中示出,其中相似的附图标记贯穿全文指代相似的元件。在这点上,示例性实施例可以具有不同形式,并且不应当被解释为受限于本文所阐明的描述。因此,下面通过参考附图来简单地描述示例实施例,以解释特定特征。本文中所使用的术语“和/或”包括相关列出项目中的一个或多个的任意和所有组合。诸如“……中的至少一个”之类的表述在元件列表之前时修饰整个元件列表,而不是修饰列表中的单独元件。
在整个公开中,当部分“包括”元件时,除非另有说明,否则还可以包括另一元件,而不排除其他元件的存在。此外,本文中使用的诸如“单元”和“部分”之类的术语表示包括例如现场可编程门阵列(FPGA)和专用集成电路(ASIC)的软件元件和硬件元件(例如,电路),并且“单元”和“部分”执行某些作用。然而,“单元”和“部分”不限于软件或硬件。“单元”和“部分”可以被配置为驻留在可寻址存储介质上,并且被配置为在一个或多个处理器上执行。因此,“单元”和“部分”的示例可以包括元件,诸如软件元件、面向对象软件元件、类元件和任务元件、进程、函数、属性、程序、子例程、程序代码段、驱动程序、固件、微代码、电路、数据、数据库、数据结构、表、数组和变量。在元件和“部分”中提供的功能可以组合成更少的元件和“部分”,或者进一步分成附加元件和“部分”。
在整个公开中,“手势”可以例如指代由用户做出的手部运动等。例如,本公开中陈述的手势可以指代例如点击、触摸并保持、双击、拖动、平移、轻拂、拖放等等。
“点击”可以指例如用户用他或她的手指或触摸工具(例如,电子笔)非常快速地触摸屏幕的动作。例如,“点击”可以表示如下情况:在触摸进入(touch-in)时间点和触摸离开(touch-out)时间点之间存在非常小的差,该触摸进入时间点是手指或触摸工具接触屏幕的时间点,该触摸离开时间点是手指或触摸工具从屏幕移开的时间点。
“触摸并保持”可以指例如用户用他或她的手指或触摸工具触摸屏幕并将触摸输入保持阈值时间或更长时间的动作。例如,触摸并保持表示如下情况:触摸进入时间点和触摸离开时间点之间的差是阈值时间或更长时间。为了使用户识别触摸输入是点击还是触摸并保持,当触摸输入被维持阈值时间或更长时,可以以听觉或触觉的方式提供反馈信号。
“双击”可以指例如用户用他或她的手指或触摸工具快速地触摸屏幕两次的动作。
“拖动”可以指例如如下动作:用户用他或她的手指或触摸工具触摸屏幕,并且在保持触摸的同时将手指或触摸工具移动到屏幕中的另一个位置。由于拖动操作,可以移动对象(例如,缩略图中所包括的图像),或者可以执行下述平移动作。
“平移”可以指例如用户在未选择对象的情况下进行拖动动作的动作。由于平移动作不涉及选择任何对象,因此没有对象在交互式屏幕中移动,但交互式屏幕本身会变为下一页,或者对象组在交互式屏幕中移动。
“轻拂”可以指例如用户使用他或她的手指或触摸工具非常快速地执行拖动动作的动作。可以基于手指或触摸工具的移动速度是否是阈值速度或更快来区分拖动(或平移)动作和轻拂动作。
“拖放”可以指例如用户使用他或她的手指或触摸工具将对象拖动到屏幕中的位置并放下对象的动作。
图1是示出了控制拍摄设备的方法的示例的图。
在图1中,示出了用户10使用拍摄设备100来对对象20进行拍摄的示例。例如,拍摄设备100可以包括两个或更多个镜头,并且各个镜头可以具有相同的视角或不同的视角。
基于拍摄位置的情况,当用户10对对象(以下称为“第一对象”)20进行拍摄时,另一对象(在下文中称为“第二对象”)30可能包括在图像中。例如,如果第二对象30是能够自己移动的物体(例如,人或动物),则在准备拍摄期间第二对象30可能不包括在镜头的视角中,但在拍摄期间可能包括在镜头的视角中。因此,第二对象30可能包括在拍摄设备100所生成的最终图像中。
下面可以使用镜头的视角,其与通过镜头获取的图像的视角具有相同含义。例如,假设第一图像是通过第一镜头获取的,则在下面的描述中,第一镜头的视角与第一图像的视角具有相同含义。
例如,第二对象30可以在第一对象20的前方经过(即,在第一对象20和拍摄设备100之间),或者可以在第一对象20的后方经过。在该示例中,第二对象30以及用户想要拍摄的第一对象20可以包括在拍摄设备100所生成的最终图像中。
拍摄设备100包括两个或更多个镜头,并且各个镜头可以具有不同的视角。例如,假设在拍摄设备100中安装了两个镜头,一个镜头可以具有窄视角,并且另一个镜头可以具有宽视角。通常,具有窄视角的镜头具有相对较深的景深,使得可以获取高质量的图像。具有宽视角的镜头具有相对浅的景深,使得可以获取包括大区域的图像。
拍摄设备100可以通过具有窄视角的镜头来获取示出第一对象20的图像,并且通过具有宽视角的镜头来确定第二对象30是否朝向第一对象20移动。拍摄设备100可以传送与第二对象30是否正在接近用户10有关的信息,并且用户10可以在没有第二对象30的干扰的情况下来拍摄第一对象20的图像。
备选地,拍摄设备100中包括的镜头可以具有相同视角。即使镜头具有相同视角,也可以在例如镜头被安装在拍摄设备100的不同位置处的情况下通过镜头来获取示出不同区域的图像。因此,拍摄设备100可以传送与第二对象30是否接近用户10有关的信息,并且用户10可以在没有第二对象30的干扰的情况下拍摄第一对象20的图像。
当第二对象30接近第一对象20时,拍摄设备100可以生成并输出用于向用户10通知第二对象30的接近的通知信号。例如,通知信号可以是与拍摄设备100输出的图像或声音相对应的信号。例如,拍摄设备100可以在屏幕50中输出指示第二对象30正在靠近的图像60,或者通过拍摄设备100的扬声器输出指示第二对象30正在靠近的声音。
下面将参考图2和图3更详细地描述拍摄设备100的示例。
图2是示出了拍摄设备的示例的示例配置的框图。
拍摄设备100a可以包括例如拍摄部分110、模拟信号处理器(例如,包括处理电路)120、存储器130、存储/读取控制器(例如,包括处理电路)140、数据存储设备142、程序存储设备150、显示驱动器(例如,包括驱动电路)162、显示器(例如,包括显示面板)164、中央处理单元/数字信号处理器(CPU/DSP)(例如,包括处理电路)170和操控器(例如,包括输入电路)180。
拍摄设备100a的全部操作例如可以通过CPU/DSP 170来进行管理。在图4至图19中,CPU/DSP 170可以被称为控制器。CPU/DSP 170提供用于操作拍摄设备100a中包括的各个元件的操作的控制信号,所述各个元件例如是镜头驱动器112、光圈驱动器115、成像元件控制器119、显示驱动器162、操控器180等。
拍摄部分110可以指代例如根据入射光生成电信号的图像的元件,并且包括例如镜头111、镜头驱动器112、光圈113、光圈驱动器115、成像元件118和成像元件控制器119。
镜头111可以包括例如多个组中的多个镜头。当拍摄设备100a包括多个镜头时,各个镜头可以具有不同视角或相同视角。可以通过镜头驱动器112来调整镜头111的位置。镜头驱动器112可以基于由例如CPU/DSP 170提供的控制信号来调整镜头111的位置。
可以通过光圈驱动器115来调整光圈113的打开或关闭的程度,并且光圈113可以调整入射在成像元件118上的光量。
透过镜头111和光圈113的光信号在成像元件118的光接收表面上形成对象的图像。成像元件118可以是将光信号转换为电信号的电荷耦合器件(CCD)图像传感器或互补金属氧化物半导体(CMOS)图像传感器(CIS)等。可以通过成像元件控制器119来调整成像元件118的灵敏度等。成像元件控制器119可以基于由实时输入的图像信号自动生成的控制信号或通过用户操控手动输入的控制信号来控制成像元件118。
可以通过快门(未示出)来调整成像元件118的曝光时间。例如,快门(未示出)可以是通过移动盖体来调整入射光的机械快门或通过向成像元件118供应电信号来控制曝光的电子快门。
模拟信号处理器120可以被配置为对从成像元件118提供的模拟信号执行降噪、增益调整、波形标准化、模数转换等。
经过模拟信号处理器120处理的信号可以通过存储器130被输入到CPU/DSP 170,或者可以不经过存储器130而被输入到CPU/DSP 170。例如,存储器130可以操作为拍摄设备100a的主存储器,并且暂时性地存储用于操作中的CPU/DSP 170的信息。程序存储设备150存储程序,例如用于运行拍摄设备100a的操作系统(OS)、应用系统等。
另外,拍摄设备100a包括显示器164以显示其操作状态或者与拍摄设备100a所拍摄的图像有关的信息。显示器164可以向用户提供视觉信息和/或听觉信息。为了提供视觉信息,显示器164可以包括例如液晶显示器(LCD)面板或有机发光显示器面板等。
拍摄设备100a可以包括两个或更多个显示器164,并且可以包括例如能够识别触摸输入的触摸屏。例如,拍摄设备100a可以包括显示示出要被拍摄的目标的实时查看图像的显示器以及显示拍摄设备100a的状态的显示器。
显示驱动器162向显示器164提供驱动信号。
CPU/DSP 170处理输入图像信号,并且基于处理后的图像信号或外部输入信号来控制各个元件。CPU/DSP 170可以降低输入图像数据中的噪声,并且执行诸如伽马校正、滤色器阵列插值、颜色矩阵、颜色校正、颜色增强等的图像信号处理以提高图像质量。此外,CPU/DSP 170可以被配置为通过压缩经由用于提高图像质量的图像信号处理获得的图像数据来生成图像文件,或者从图像文件恢复图像数据。图像的压缩格式可以是可逆的或不可逆的。作为适当格式的示例,可以将静止图像转换为联合图像专家组(JPEG)格式、JPEG2000格式等等。此外,当记录视频时,可以通过根据运动图像专家组(MPEG)标准压缩多个帧来生成视频文件。可以根据例如可交换图像文件格式(EXIF)标准来生成图像文件。
从CPU/DSP 170输出的图像数据可以直接地或通过存储器130被输入到存储/读取控制器140,并且存储/读取控制器140可以自动地或根据来自用户的信号来将图像数据存储在数据存储设备142中。存储/读取控制器140可以从数据存储设备142中存储的图像文件中读取关于图像的数据,并且通过存储器130或另一路径将读取的数据输入到显示驱动器162,使得图像可以显示在显示器164上。数据存储设备142可以是可拆卸的或永久安装在拍摄设备100a中。
此外,CPU/DSP 170可以执行模糊、彩色处理、虚化、边缘强调、图像解释、图像识别、图像效果处理等。通过图像识别,可以执行面部识别、场景识别等。此外,CPU/DSP 170可以处理要在显示器164上显示的显示图像信号。例如,CPU/DSP 170可以执行亮度水平调整、颜色校正、对比度调整、轮廓强调调整、屏幕分割、字符图像等的生成、图像合成等。CPU/DSP170可以连接到外部监视器,执行特定的图像信号处理,并且发送以这种方式处理的图像数据,使得相应的图像可以显示在外部监视器上。
此外,CPU/DSP 170可以执行程序存储设备150中存储的程序或者包括附加模块以生成用于控制自动对焦、变焦改变、焦点改变、自动曝光校正等的控制信号,将控制信号提供给光圈驱动器115、镜头驱动器112和成像元件控制器119,并且共同控制拍摄设备100a中包括的诸如快门、闪光灯等的元件的操作。
操控器180例如可以是用户可以向其输入控制信号的元件。例如,操控器180可以包括各种功能按钮,诸如输入用于将成像元件118曝光预定时间以进行拍摄的快门释放信号的快门释放按钮、输入用于控制电源开/关的控制信号的电源按钮、基于输入来扩大或缩小视角的变焦按钮、模式选择按钮、调整其他拍摄设置值的按钮等。操控器180可以以用户可以通过其输入控制信号的任何形式实现,例如按钮、键盘、触摸板、触摸屏、遥控器等。
传感器(例如,包括传感器电路)190可以例如测量物理量或感测拍摄设备100a的操作状态,并将测量到或感测到的信息转换为电信号。下面将参考图3来描述可以包括在拍摄设备100a中的传感器190的示例。传感器190还可以包括控制电路,用于控制属于其的一个或多个传感器。在示例实施例中,拍摄设备100a还可以包括被配置为控制传感器190的处理器,作为CPU/DSP 170的一部分或与CPU/DSP 170分离,由此在CPU/DSP 170处于睡眠状态时控制传感器190。
图2中所示的拍摄设备100a是示出了用于执行拍摄的元件的示例,并且根据一些示例实施例的拍摄设备不限于图2中所示的拍摄设备100a。
下面将参考图3更详细地描述拍摄设备100的另一示例。
图3是示出了拍摄设备的另一示例的示例配置的图。
例如,电子设备100b可以包括图1中所示的拍摄设备100或者图2中所示的拍摄设备100a的全部或一部分。电子设备100b可以包括一个或多个处理器(例如,CPU/DSP或应用处理器(AP))(例如,包括处理电路)210、通信模块(例如,包括通信电路)220、订户标识模块(SIM)224、存储器230、传感器模块(例如,包括包含传感器电路的至少一个传感器)240、输入设备(例如,包括输入电路)250、显示器(例如,包括显示面板和显示驱动电路)260、接口(例如,包括接口电路)270、音频模块280、相机模块291、电源管理模块295、电池296、指示器297和电机298。
通过运行OS或应用程序,处理器210可以被配置为控制与其连接的多个硬件或软件元件,并且执行各种数据处理和计算。例如,处理器210可以实现为片上系统(SoC)。根据示例实施例,处理器210还可以包括图形处理单元(GPU)和/或图像信号处理器(ISP)。处理器210可以包括图3所示的元件中的至少一些(例如,蜂窝模块221)。处理器210可以将从至少一个其他元件(例如,非易失性存储器)接收到的指令或数据加载到易失性存储器中,并将各种数据存储在非易失性存储器中。
通信模块220可以包括例如蜂窝模块221、无线保真(WiFi)模块223、蓝牙(BT)模块225、全球导航卫星系统(GNSS)模块227(例如,全球定位系统(GPS)模块、全球导航卫星系统(GLONASS)模块、北斗模块或伽利略模块)、近场通信(NFC)模块228和射频(RF)模块229。
蜂窝模块221可以提供例如通过例如通信网络的语音呼叫服务、视频呼叫服务、短消息服务或互联网服务等。根据示例实施例,蜂窝模块221可以使用通信网络中的SIM(例如,SIM卡)224来识别和认证电子设备100b。根据示例实施例,蜂窝模块221可以执行处理器210能够提供的功能中的至少一些。根据示例实施例,蜂窝模块221可以包括通信处理器(CP)。
WiFi模块223、BT模块225、GNSS模块227和NFC模块228中的每一个都可以包括例如用于处理通过对应模块收发的数据的处理器。根据示例实施例,蜂窝模块221、WiFi模块223、BT模块225、GNSS模块227和NFC模块228中的至少一些(例如,两个或更多个)可以被包括在一个集成芯片(IC)或IC封装中。
例如,RF模块229可以收发通信信号(例如,RF信号)。RF模块229可以包括例如收发机、功率放大模块(PAM)、频率滤波器、低噪声放大器(LNA)、天线等。根据另一示例实施例,蜂窝模块221、WiFi模块223、BT模块225、GNSS模块227和NFC模块228中的至少一个可以通过单独的RF模块来收发RF信号。
SIM 224可以包括例如包括SIM和/或嵌入式SIM的卡、以及唯一标识信息(例如,集成电路卡标识符(ICCID))或订户信息(例如,国际移动订户标识(IMSI))。
存储器230可以包括例如内部存储器232和/或外部存储器234。内部存储器232可以包括例如以下至少一项:易失性存储器(例如,动态RAM(DRAM)、静态RAM(SRAM)、同步动态RAM(SDRAM)等)和非易失性存储器(例如,一次性可编程ROM(OTPROM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩膜ROM、闪存ROM、闪存(例如,NAND闪存、NOR闪存等)、硬盘驱动器和固态驱动器(SSD))等。
外部存储器234可以包括闪存驱动器(例如紧凑闪存(CF)存储卡)、安全数字(SD)存储卡、微型SD存储卡、迷你SD存储卡、极限数字(XD)存储卡、多媒体卡(MMC)、记忆棒等。通过各种接口,外部存储器234可以功能性地连接到和/或物理连接到电子设备100b。
传感器模块240可以例如包括测量物理量或感测电子设备100b的操作状态并将测量到的或感测到的信息转换为电信号的一个或多个传感器。传感器模块240可以包括以下至少一项:例如,手势传感器240A、陀螺仪传感器240B、气压传感器(例如,压力传感器)240C、磁传感器240D、加速度传感器240E、握力传感器240F、接近度传感器240G、颜色传感器240H(例如,红、绿和蓝(RGB)传感器)、生物测定传感器240I、温度/湿度传感器240J、亮度传感器(例如,照度传感器)240K以及紫外线(UV)传感器240M。附加地或备选地,传感器模块240可以包括例如电子鼻(e-nose)传感器、肌电图(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器、红外(IR)传感器、虹膜传感器和/或指纹传感器等。传感器模块240还可以包括控制电路,用于控制属于其的一个或多个传感器。在实施例中,电子设备100b还可以包括被配置为控制传感器模块240的处理器,作为处理器210的一部分或与处理器210分离,由此在处理器210处于睡眠状态时控制传感器模块240。
输入设备250可以包括例如触摸面板252、(数字)笔传感器254、按键256或超声输入设备258。触摸面板252可以使用例如电容式、电阻式、红外线和超声技术中的至少一种。触摸面板252还可以包括控制电路。触摸面板252还可以包括触觉层以向用户提供触觉反应。
(数字)笔传感器254可以是例如触摸面板的一部分,或可以包括例如单独的识别片。按键256可以包括例如物理按钮、光学按键或键区。超声输入设备258可以通过麦克风(例如,麦克风288)感测由输入工具生成的超声波,并确定与所感测的超声波相对应的数据。
显示器260(例如,显示器164)可以包括面板262、全息图设备264或投影仪266。面板262可以被实现为例如柔性的、透明的或可穿戴的。面板262可以包括具有触摸面板252的一个模块。全息设备264可以使用光的干涉在空中显示三维(3D)图像。投影仪266可以通过将光投影到屏幕来显示图像。屏幕可以位于例如电子设备100b内部或外部。根据示例实施例,显示器260还可以包括控制电路,用于控制面板262、全息设备264或投影仪266。
接口270可以包括例如高清多媒体接口(HDMI)272、通用串行总线(USB)274、光学接口276或D-超小型(D-sub)278。附加地或者备选地,接口270可以包括例如移动高清链路(MHL)接口、SD卡/MMC接口或者红外数据协会(IrDA)标准接口等。
音频模块280可以被配置为例如将声音转换为电信号,反之亦然。音频模块280可以处理通过例如扬声器282、听筒284、耳机286、麦克风288等输入或输出的声音信息。
相机模块291例如是能够拍摄静止图像或视频的设备。根据示例实施例,相机模块291可以包括一个或多个图像传感器(例如,前置传感器和后置传感器)、镜头、ISP和闪光灯(例如,发光二极管(LED)、氙灯等)。当相机模块291具有多个镜头时,各个镜头可以具有不同视角或相同视角。
电源管理模块295可以管理例如电子设备100b的电源。根据示例实施例,电源管理模块295可以包括电源管理集成电路(PMIC)、充电器IC或者电池或燃料表。PMIC可以使用有线和/或无线充电方法。无线充电方法包括例如磁共振无线充电、磁感应无线充电、电磁波无线充电等,并且还可能需要用于无线充电的附加电路,例如线圈环路、谐振电路、整流器等。电池表可以测量例如电池296的剩余电力、充电电压、电流或温度。例如,电池296可以包括可再充电电池和/或太阳能电池。
指示器297可以显示电子设备100b或电子设备100b的一部分(例如,处理器210)的特定状态(例如,引导状态、消息状态、充电状态等)。电机298可以将电信号转换成机械振动,并且引起振动、触觉效果等。虽然图3中未示出,但是电子设备100b可以包括用于支持移动电视(TV)的处理设备(例如,GPU)。用于支持移动TV的处理设备可以按照例如数字多媒体广播(DMB)、数字视频广播(DVB)、mediaFloTM等的标准来处理媒体数据。
本文中所述的元件中的每一个可以例如配置为一个或多个组件,且对应元件的名称可以基于电子设备的类型而改变。在各种示例实施例中,电子设备可以被配置为包括本文所述的元件中的至少一个。一些元件可以被省略,或者可以另外包括其他元件。根据各种示例实施例的电子设备的一些元件可以被组合成一个实体,其可以执行与组合之前的元件相同的功能。
如上参考图1至图3所述,拍摄设备100或100a或电子设备100b可以包括多个镜头。下面将参考图4和图5更详细地描述多个镜头获取图像的示例。
下面将参考图4至图25描述的拍摄设备100可以对应于上面参考图2和图3描述的拍摄设备100a或电子设备100b。下面参考图4至图25描述的处理器可以对应于图3的CPU/DSP 170或处理器210。
图4是示出了多个镜头具有不同视角的示例的图。
图4示出了其中拍摄设备100包括两个镜头410和420并且镜头410和420具有不同视角的示例。在图4中,为了便于描述,镜头410和420被示出为与拍摄设备100分离,但是本领域普通技术人员将会理解,镜头410和420可以被配置为拍摄设备100的一部分。镜头410和420的位置不限于图4中所示的位置,并且根据制造商的意图,镜头410和420可以位于拍摄设备100的各个部分处。
用户10使用拍摄设备100来对第一对象20进行拍摄。例如,第一对象20表示用户10想要拍摄的目标以及拍摄设备100生成的最终图像中包括的对象。
用户10可以调整拍摄设备100的位置,使得第一对象20包括在第一镜头410的视角中。例如,第一镜头410可以具有窄视角但是具有相对较深的景深。
当用户10对第一对象20进行拍摄时,第二对象30可能接近第一对象20。例如,第二对象30可能不是用户10想要拍摄的目标,并且表示能够自己移动的人、动物或物体。因此,当第二对象30在拍摄期间靠近第一对象20时,第二对象30的图形可能无意地包括在示出第一对象20的图像中。
拍摄设备100的第二镜头420可以例如具有比第一镜头410更宽的视角。因此,不仅第一对象20而且第二对象30也可能包括在第二镜头420的视角中。
由于拍摄设备100包括具有不同视角的镜头410和420,因此镜头410和420中的每一个的视场中包括的对象可以不同。例如,当第一对象20包括在第一镜头410的视角中时,第一对象20和第二对象30可以包括在第二镜头420的视角中。因此,拍摄设备100可以使用通过第二镜头420获取的图像来确定第二对象30是否移动以及第二对象30是否接近第一镜头410的视角。
即使当用户10不改变拍摄设备100的位置时,拍摄设备100也可以生成用于跟踪移动物体(例如,第二对象30)的图像。例如,即使当移动物体离开第一镜头410的视角时,如果移动物体包括在第二镜头420的视角中,则拍摄设备100可以使用通过第一镜头410获取的图像、通过第二镜头420获取的图像以及通过对它们进行组合获得的图像来输出用于实时跟踪移动物体的图像(例如,实时查看图像)。
图5是示出了多个镜头具有相同视角的示例的图。
图5示出了拍摄设备100包括两个镜头510和520并且镜头510和520具有相同视角的示例。在图5中,为了便于描述,镜头510和520被示出为与拍摄设备100分离。然而,如上面参考图4所述,镜头510和520可以被配置为拍摄设备100的一部分,并且镜头510和520的位置不限于图4中所示的位置。
即使当镜头510和520具有相同视角时,镜头510和520在拍摄设备100中的位置彼此不同,因此第一镜头510的视角所覆盖的区域可以不同于第二镜头520的视角所覆盖的区域。
当调整拍摄设备100的位置以使得第一对象20包括在第一镜头510的视角中时,第二对象30可以不包括在第一镜头510的视角中,但是可以包括在第二镜头520的视角中。因此,拍摄设备100可以使用通过第二镜头520获取的图像来确定第二对象30是否移动以及第二对象30是否接近第一镜头510的视角。
此外,即使当用户10不改变拍摄设备100的位置时,拍摄设备100也可以生成用于跟踪移动物体(例如,第二对象30)的图像。例如,即使当移动物体离开第一镜头510的视角时,如果移动物体包括在第二镜头520的视角中,则拍摄设备100可以使用通过第一镜头510获取的图像、通过第二镜头520获取的图像以及通过对它们进行组合获得的图像来输出用于实时跟踪移动物体的图像(例如,实时查看图像)。
如上参考图4和图5所述,拍摄设备100可以确定第二对象30是否接近第一镜头410或510的视角。当第二对象30接近第一镜头410或510的视角时,拍摄设备100可以生成用于向用户10通知第二对象30接近的通知信号并且输出该通知信号。下面将参考图6至图17更详细地描述拍摄设备100生成通知信号的示例。
拍摄设备100可以根据第二对象30是否接近第一镜头410或510的视角来自动确定是否执行拍摄。此外,拍摄设备100可以确定视频中包括的视频帧的采样率。以下将参考图17和图18更详细地描述拍摄设备100控制拍摄过程的示例。
图6是示出了控制拍摄设备的方法的示例的流程图。
参考图6,控制拍摄设备的方法包括例如在图1至图5中所示的拍摄设备100或100a或电子设备100b中随时间进行处理的操作。即使在下面省略,关于图1至图5中所示的拍摄设备100或100a或电子设备100b进行的以上描述也可以应用于图6中所示的控制拍摄设备的方法。
在操作610中,处理器被配置为通过两个或更多个镜头来获取图像。例如,两个或更多个镜头可以具有不同视角。例如,假设在拍摄设备中包括两个镜头,第一镜头可以具有比第二镜头更窄的视角。
图7A和图7B是示出了通过具有不同视角的镜头获取的图像的示例的图。
图7A示出了由第一镜头拍摄的图像710,图7B示出了由第二镜头拍摄的图像720。例如,假设第一镜头具有比第二镜头更窄的视角。通常,与具有宽视角的镜头相比,具有窄视角的镜头具有更深的景深。因此,通过第一镜头生成的图像710示出了比通过第二镜头生成的图像720更小的区域,但是可以是相对高质量的图像。
在图像710中,示出了拍摄设备100所生成的最终图像中包括的第一对象20。例如,当用户10想要对第一对象20进行拍摄时,拍摄设备100可以通过第一镜头来生成高质量图像710。
另一方面,在图像720中不仅示出了第一对象20而且还示出了第二对象30。例如,由于第二镜头具有比第一镜头更宽的视角,因此通过第二镜头获取的图像720可以包括通过第一镜头获取的图像710中所示的整个区域。因此,在图像720中,与用户10想要拍摄的第一对象20一起示出可能潜在地干扰拍摄的第二对象30。
返回参考图6,在操作620中,处理器被配置为使用所获取的图像来检测第一对象。例如,第一对象表示旨在被包括在由拍摄设备生成的最终图像中并且用户想要拍摄的对象。
在一个示例中,处理器可以被配置为基于用户输入在第一图像中包括的对象中检测第一对象。例如,第一图像可以表示用户10想要拍摄的目标,并且可以通过具有窄视角的镜头来获取。
在另一个示例中,处理器可以被配置为检测在第一图像中包括的各个对象的图形,并且使用检测到的图形来选择第一对象。例如,处理器可以被配置为使用对象分割技术来检测第一图像中的对象的图形,并且可以从检测到的图形中选择第一对象。
在又一示例中,处理器可以被配置为使用预先存储的对象信息在第一图像中包括的对象中检测第一对象。例如,处理器可以被配置为从存储器中读出先前拍摄的对象的信息,并且在第一图像中包括的对象中选择与从存储器读出的信息相对应的对象作为第一对象。
下面将参考图8至图10更详细地描述处理器在第一图像中检测第一对象的示例。
图8是示出了对第一对象进行检测的示例的图。
在图8中,示出了在拍摄设备100的屏幕上输出实时查看图像810的示例。拍摄设备100可以在屏幕上输出通过其中包括的镜头获取的实时查看图像810。
拍摄设备100的处理器可以被配置为基于用户输入在实时查看图像810中包括的对象中检测第一对象820。例如,第一对象820表示用户10想要拍摄的目标。
例如,用户10可以在屏幕上输出的实时查看图像810中指定第一对象820。假设拍摄设备100的屏幕是触摸屏,则用户10可以在屏幕上显示第一对象820的点处做出手势(例如,点击),并且用户10的手势可以作为用于指定第一对象820的用户输入被输入到拍摄设备100。处理器可以被配置为基于用户输入在实时查看图像810中检测第一对象820。
图9是示出了对第一对象进行检测的另一示例的图。
在图9中,示出了在拍摄设备100的屏幕上输出实时查看图像910的示例。
拍摄设备100的处理器可以被配置为检测实时查看图像910中包括的各个对象的图形。此时,可以使用通用对象分割技术作为处理器在实时查看图像910中检测对象的图形的技术。
处理器可以被配置为从检测到的图形中选择第一对象920。例如,处理器可以被配置为选择位于实时查看图像910的主区域中的图形作为第一对象920。
处理器可以被配置为对被选择为第一对象920的对象进行标记(例如,用框)以与其他对象相区分,并且用户可以将处理器所选择的对象改变为另一对象。例如,用户可以基于上面参考图8所描述的过程来改变第一对象920。
当根据上面参考图8或图9所描述的方法检测到第一对象时,处理器可以被配置为将关于第一对象的信息存储在拍摄设备100的存储器中。例如,关于第一对象的信息可以包括与第一对象的图形(例如,脸部或全身的图形)有关的信息、与第一对象所穿的衣服有关的信息等等。
图10是示出了对第一对象进行检测的又一示例的图。
在图10中,示出了在拍摄设备100的屏幕上输出实时查看图像1010的示例。
拍摄设备100的处理器可以被配置为使用预先存储的对象信息在实时查看图像1010中包括的对象中检测第一对象1020。例如,处理器可以被配置为检测实时查看图像1010中包括的各个对象的图形。此时,处理器检测实时查看图像1010中的对象的图形的过程如以上参考图9所述。
处理器可以被配置为使用存储器1030中存储的对象信息来选择第一对象1020。例如,表示先前拍摄的图像所包括的对象的信息被存储在存储器1030中,并且处理器可以被配置为从存储器1030中存储的信息中搜索与实时查看图像1010中包括的对象1020相匹配的信息1040。当找到匹配信息1040时,处理器可以被配置为选择与检索到的信息1040相匹配的对象作为第一对象1020。
处理器可以对被选择为第一对象1020的对象进行标记(例如,用框)以与其他对象相区分,并且用户可以将处理器所选择的对象改变为另一对象。例如,用户可以根据上面参考图8所描述的过程来改变第一对象1020。
返回参考图6,在操作630中,处理器被配置为基于第二对象是否接近所获取的图像中的包括第一对象在内的第一图像的视角来生成通知信号。例如,当第二对象接近第一图像的视角时,处理器可以被配置为生成通知信号并输出所生成的通知信号。下面将参考图11至图15更详细地描述处理器生成通知信号的示例。
图11是示出了生成通知信号的示例的流程图。
在操作1110中,处理器可以被配置为获取第二对象的运动信息。例如,运动信息可以包括表示第二对象移动的方向和/或第二对象移动得多快的信息。第二对象表示用户不想拍摄的对象。例如,第二对象表示不包括在拍摄设备100所生成的最终图像中的对象。例如,第二对象可以是能够自己移动的物体(例如,人或动物)。
处理器可以被配置为从拍摄设备100获取的图像中选择第二图像。处理器可以被配置为检测第二图像中包括的除了第一对象之外的至少一个对象作为第二对象。例如,第二图像表示通过拍摄设备100中包括的多个镜头中的第二镜头获取的图像。例如,第二镜头可以具有比第一镜头更宽的视角。
如以上参考图4和图5所述,拍摄设备100可以包括多个镜头,并且可以通过各个镜头获取图像。例如,处理器可以使用通过第一镜头获取的图像来检测第一对象。处理器使用通过第一镜头获取的图像来检测第一对象的示例如上面参考图8至图10所描述的。处理器可以被配置为使用通过不同于第一镜头的第二镜头获取的图像来检测第二对象。
处理器可以被配置为获取第二对象的运动信息。在一个示例中,处理器可以基于第二图像来获取第二对象的运动信息。例如,第二图像表示通过拍摄设备100中包括的多个镜头中的第二镜头获取的图像。例如,第二镜头可以具有比第一镜头更宽的视角。在另一个示例中,处理器可以被配置为使用预先存储的对象信息来获取第二对象的运动信息。
下面将参考图12和图13更详细地描述处理器被配置为使用预先存储的对象信息来获取第二对象的运动信息的示例。
图12是示出了可以获取第二对象的运动信息的示例的图。
在图12中,示出了通过拍摄设备100获取的第二图像1210的示例。第二对象1220包括在第二图像1210中,第二图像1210表示通过拍摄设备100中包括的第二镜头获取的图像。例如,第二镜头表示拍摄设备100中包括的多个镜头中非第一镜头的镜头,并且可以具有比第一镜头更宽的视角。作为示例,在通过第一镜头获取的图像中仅包括第一对象,并且在通过第二镜头获取的图像(即,第二图像1210)中不仅包括第一对象而且还包括第二对象1220。
处理器可以被配置为使用第二图像1210来检测第二对象1220。例如,处理器可以被配置为检测第二图像1210中包括的除了第一对象之外的至少一个对象作为第二对象1220。处理器使用第二图像1210来检测第二对象1220的示例如以上参考图11所述。
基于第二图像1210,处理器可以被配置为获取第二对象1220的运动信息。例如,处理器可以被配置为确定第二对象1220在第二图像1210中包括的图像1211中的位置。处理器可以被配置为确定第二对象1220在第二图像1210中包括的图像1212中的位置。处理器可以知道拍摄图像1211的时间点t1和拍摄图像1212的时间点t2。处理器可以被配置为使用第二图像1210来确定拍摄设备100和第二对象1220之间的距离。根据第二对象1220在图像1211中的位置与第二对象1220在图像1212中的位置之差L,处理器可以知道第二对象1220已经实际移动的距离。处理器可以被配置为使用拍摄图像1211和1212的时间点t1和t2之差(t2-t1)以及第二对象1220在图像1211中的位置与第二对象1220在图像1212中的位置之差L来确定第二对象1220的实际速度。处理器可以被配置为基于第二对象1220已经在第二图像1210中移动的方向来确定第二对象1220正在移动的方向。
图13是示出了获取第二对象的运动信息的另一示例的图。
在图13中,示出了通过拍摄设备100获取的第二图像1310的示例。如以上参考图12所述,第二图像1310是通过第二镜头获取的图像,并且包括第二对象1320以及第一对象。
处理器可以被配置为使用预先存储的对象信息来获取第二对象1320的运动信息。例如,基于对象的移动类型的速度以及对象的种类可以被存储在拍摄设备100的存储器1330中。例如,假设对象是人,可以将人的奔跑速度、人的步行速度等存储在存储器1330中。
处理器可以被配置为使用第二图像1310来识别第二对象1320的种类。例如,处理器可以被配置为通过第二图像1310中所示的对象的图形来识别第二对象1320的种类。处理器可以被配置为确定第二对象1320的移动类型。例如,处理器可以确定第二对象1320正在奔跑还是第二对象1320正在步行。
假设第二对象1320被识别为正在奔跑的人,处理器可以从存储器1330中所存储的数据中读出与人的奔跑速度相对应的数据1340。通过使用读出的数据1340,处理器可以被配置为确定第二对象1320移动的速度。处理器可以被配置为基于第二对象1320已经在第二图像1310中移动的方向来确定第二对象1320正在移动的方向。
返回参考图11,在操作1120中,处理器被配置为确定第二对象是否接近第一图像的视角。当第二对象接近第一图像的视角时,过程进行到操作1130。
在操作1130中,处理器被配置为生成通知信号。例如,通知信号可以是与拍摄设备100输出的图像或声音相对应的信号。例如,拍摄设备100可以在屏幕上输出指示第二对象正在接近的图像,或者通过拍摄设备100的扬声器输出指示第二对象正在接近的声音。下面将参考图14和图15更详细地描述由处理器生成的通知信号的示例。
图14是示出了通知信号的示例的图。
参考图14,处理器可以被配置为生成与拍摄设备100输出的图像相对应的通知信号。例如,当在拍摄设备100正在对第一对象1410进行拍摄时第二对象1420接近第一对象1410时,处理器可以被配置为生成通知信号。例如,当第二对象1420接近拍摄设备100的第一镜头的视角时,处理器可以被配置为生成通知信号。在该示例中,第一镜头表示用于拍摄第一对象1410的图像的镜头。
处理器可以被配置为在拍摄设备100的屏幕1430上输出所生成的通知信号。例如,包括第一对象1410的实时查看图像可以与通知信号一起输出在屏幕1430上。
作为示例,通知信号可以包括例如在屏幕的一部分中闪烁的条1441。例如,当第二对象1420接近第一镜头的视角时,可以将条1441生成为更快地闪烁。
作为另一示例,通知信号可以包括例如在屏幕1430的一部分中输出的箭头1442。例如,箭头1442可以是指示第二对象1420从哪一侧接近第一对象1410的箭头。
作为又一示例,通知信号可以包括例如在屏幕1430的一部分中输出的警告消息1443。可以在屏幕1430上输出指示第二对象1420正朝向第一镜头的视角移动的警告消息1443。
由处理器生成的通知信号不限于图14中所示的通知信号1441、1442和1443。例如,能够向用户10通知第二对象1420正朝向第一对象1410移动的任何图像可以对应于通知信号,而没有任何限制。
图15是示出了通知信号的另一示例的图。
参考图15,处理器可以被配置为生成与拍摄设备100输出的声音相对应的通知信号。例如,当在拍摄设备100正在对第一对象1510进行拍摄时第二对象1520接近第一对象1510时,处理器可以被配置为生成通知信号并通过拍摄设备100中包括的扬声器输出该通知信号。
通知信号可以是例如指示第二对象1520正在移动到第一镜头的视角的声音1530。在图15中,指示第二对象1520的接近的语音被示出为声音1530的示例,但是声音1530不限于此。例如,能够向用户10通知第二对象1520正朝向第一对象1510移动的任何声音可以对应于该通知信号,而没有任何限制。
根据以上参考图4至图15进行的描述,拍摄设备100可以使用通过设置在其中的镜头获取的图像来检测第一对象和第二对象并且生成警告信号。拍摄设备100还可以使用从外部设备接收到的信息和通过其中设置的镜头获取的图像来检测第一对象和第二对象。例如,外部设备可以对应于可安装在拍摄设备100中的单独的镜头。下面将参考图16更详细地描述拍摄设备100使用从外部设备接收到的信息来检测第一对象和第二对象的示例。
图16是示出了拍摄设备使用从外部设备接收到的信息来检测第一对象和第二对象的示例的图。
在图16中,示出了将外部设备1610连接到拍摄设备100的示例。例如,外部设备1610可以是用于拍摄深度图像的镜头(下面被称为“深度镜头”)。
深度镜头可以指代例如用于拍摄不仅包括对象的图形而且还包括3D信息(即,与对象和拍摄设备100之间的距离或对象之间的距离有关的信息)的图像的镜头。在一个示例中,通过使用通过被设置在不同位置处的两个立体镜头拍摄的图像,拍摄设备100可以生成包括空间的3D信息的图像。在另一个示例中,拍摄设备100可以通过深度镜头将光发射到空间,并且使用反射光的图案来生成包括空间的3D信息的图像,该反射光被位于空间中的物体反射并返回到深度镜头。在又一示例中,拍摄设备100可以通过深度镜头将光发射到包括对象的空间,并且基于与反射光相对应的电荷量来生成包括空间的3D信息的图像,该反射光被位于空间中的物体反射并返回到深度镜头。
处理器可以被配置为使用从外部设备1610接收的并且表示对象的信息以及通过拍摄设备100中包括的镜头获取的图像来检测第一对象和第二对象。
例如,假设外部设备1610是深度镜头,处理器可以被配置为使用通过深度镜头获取的深度图像和通过拍摄设备100中包括的镜头获取的彩色图像来检测第一对象和第二对象。处理器可以被配置为使用第二对象的上述深度图像和上述彩色图像来获取第二对象的运动信息,并且确定第二对象是否接近第一镜头的视角(即,第二对象是否接近第一个对象)。
处理器可以被配置为基于第二对象是否接近第一图像(即,包括第一对象的图像)的视角来控制拍摄方法。作为一个示例,当拍摄设备100被设置为处于拍摄静止图像的模式时,处理器可以被配置为基于第二对象是否包括在第一图像的视角中来确定是否拍摄静止图像。作为另一示例,当拍摄设备100被设置为处于拍摄视频的模式时,处理器可以被配置为基于第二对象是否包括在第一图像的视角中来改变要包括在视频中的视频帧的采样率。
下面将参考图17A至图18更详细地描述处理器被配置为控制拍摄方法的示例。
图17A和图17B是示出了可以控制拍摄静止图像的方式的示例的图。
在图17A中,示出了第二对象1721不包括在第一图像(即,包括第一对象1711的图像)的视角中的示例。在图17B中,示出了第二对象1722包括在第一图像(即,包括第一对象1712的图像)的视角中的示例。
当拍摄设备100被设置为处于拍摄静止图像的模式时,处理器可以被配置为基于第二对象1721和1722是否包括在第一图像的视角中来确定是否拍摄静止图像。
如图17A所示,当第二对象1721正朝向第一对象1711移动但尚未包括在第一图像的视角中时,处理器可以被配置为控制拍摄设备100以便拍摄第一图像。例如,响应于用户10的动作(例如,按下拍摄设备100的快门按钮),处理器可以被配置为控制拍摄设备100以便拍摄示出第一对象1711的第一图像。
备选地,如图17B所示,当第二对象1722包括在第一图像的视角中时,处理器可以被配置为控制拍摄设备100以便不拍摄第一图像。例如,处理器可以被配置为控制拍摄设备100,使得即使当用户按下拍摄设备100的快门按钮时也不拍摄示出第一对象1712的第一图像。
如以上参考图14和图15所述,无论是否拍摄第一图像,都可以通过输出实时查看图像的屏幕1731和1732或者拍摄设备100的扬声器来输出通知信号。
图18是示出了可以控制拍摄视频的方式的示例的图。
在图18中,示出了基于第二对象1820是否包括在第一图像(即,包括第一对象1810的图像)的视角中来改变视频帧采样率的示例。例如,图18示出了第二对象1820在时间段T1和T3期间不包括在第一图像的视角中,并且在时间段T2期间包括在第一图像的视角中。
当拍摄设备100被设置为处于拍摄视频的模式时,处理器可以被配置为改变时间段T2的视频帧采样率。例如,处理器可以在时间段
T1期间以每秒M帧(fps)的速率对视频帧进行采样,在时间段T2期间以Nfps的速率对视频帧进行采样,在时间段T3期间再次以M f ps的速率对视频帧进行采样。例如,M是比N更大的自然数。
换句话说,与其中第二对象1820包括在第一图像的视角中的时间段T2相比,处理器可以在其中第二对象1820未包括在第一图像的视角中的时间段T1和T3中以更高的速率对视频帧进行采样。
图19是示出了可以控制拍摄静止图像的方式的示例的流程图。
参考图19,控制拍摄静止图像的方式的方法包括在图1至图5中所示的拍摄设备100或100a或电子设备100b中随时间进行处理的操作。因此,可以看出,即使在下面被省略,关于图1至图5中所示的拍摄设备100或100a或电子设备100b进行的以上描述也适用于图19中所示的处理器控制拍摄静止图像的方式的方法。
处理器被配置为获取第一图像1910和第二图像1920。例如,可以通过拍摄设备100中包括的多个镜头来获取第一图像1910和第二图像1920。例如,可以通过具有窄视角的镜头来获取第一图像1910,并且可以通过具有宽视角的镜头来获取第二图像1920。第一图像1910可以是包括用户10想要拍摄的第一对象的图像,并且第二图像1920可以是包括第二对象以及第一对象的图像。例如,第二对象表示妨碍用户10对第一对象进行拍摄并且能够自己移动的对象。
尽管在图19中未示出,但是处理器还可以被配置为从外部设备(例如,深度镜头)接收信息。
处理器被配置为执行第一图像1910和第二图像1920之间的视角匹配(1930)。例如,处理器可以被配置为通过确定第二图像1920的哪一部分对应于第一图像1910来执行视角匹配。可以在制造拍摄设备100期间预先执行视角匹配,或者可以基于用户10的指令来执行视角匹配。
处理器被配置为检测第一图像1910中的第一对象(1940)。处理器检测第一图像1910中的第一对象的示例可以例如如以上参考图8至图10所描述的。
处理器被配置为检测第二图像1920中的第二对象(1950)。处理器检测第二图像1920中的第二对象的示例可以例如如以上参考图11所描述的。
处理器被配置为估计第二对象的运动(1960)。例如,处理器被配置为获取第二对象的运动信息。处理器被配置为确定第二对象是否接近第一图像1910的视角。例如,运动信息可以包括表示第二对象移动的方向和/或第二对象移动得多快的信息。处理器获取第二对象的运动信息并确定第二对象是否接近第一图像1910的视角的示例可以例如如以上参考图12和图13所描述的。
处理器被配置为生成通知信号(1970)。例如,处理器被配置为基于第二对象是否接近第一图像1910的视角来生成通知信号。例如,通知信号可以是与拍摄设备100输出的图像或声音相对应的信号。由处理器生成的通知信号的示例可以例如如以上参考图14和图15所描述的。
尽管在图19中未示出,但是处理器可以被配置为基于第二对象是否接近第一图像1910的视角来确定是否拍摄图片。例如,当拍摄设备100被设置为处于拍摄静止图像的模式时,处理器可以被配置为基于第二对象是否包括在第一图像1910的视角中来确定是否拍摄静止图像。处理器被配置为确定是否拍摄静止图像的示例可以例如如以上参考图17A和图17B所描述的。
图20是示出了可以控制拍摄视频的方式的示例的流程图。
参考图20,控制拍摄视频的方式的方法包括在图1至图5中所示的拍摄设备100或100a或电子设备100b中随时间进行处理的操作。因此,可以看出,即使在下面被省略,关于图1至图5中所示的拍摄设备100或100a或电子设备100b的以上描述也可以适用于图20中所示的控制拍摄视频的方式的方法。
图20的操作2030到操作2060对应于图19的操作1930到操作1960。因此,下面省略了对操作2030到操作2060的详细描述。
处理器被配置为确定是否存在第二对象的干扰(2070)。例如,第二对象的干扰可以指代例如第二对象仅包括在第二图像2020的视角中并且由于第二个对象的移动将包括在第一图像2010的视角中的情况。例如,处理器被配置为确定第二对象是否包括在第一图像2010的视角中。
当存在第二对象的干扰时,过程进行到操作2080。否则,过程进行到操作2090。
当存在第二对象的干扰时,处理器被配置为以不同速率对视频帧进行采样(2080)。例如,不同速率指代与拍摄设备100中设置的标准采样率不同的采样率。例如,当存在第二对象的干扰时,处理器可以被配置为以比标准采样率更低的速率对视频帧进行采样。
当不存在第二对象的干扰时,处理器被配置为以标准速率对视频帧进行采样(2090)。例如,标准速率可以是在制造拍摄设备100期间预设的速率,或者可以基于用户10的指令来设置。
尽管在图20中未示出,但是处理器可以被配置为生成通知信号。例如,处理器可以被配置为基于第二对象是否接近第一图像2010的视角来生成通知信号。由处理器生成的通知信号的示例可以例如如以上参考图14和图15所描述的。
根据以上参参考图1至图20进行的描述,当在对第一对象进行拍摄期间检测到第二对象的接近时,拍摄设备100可以生成通知信号。因此,用户10可以准确地拍摄对象的图像,而没有其他对象的干扰。
可以在拍摄设备100的屏幕上输出对象的实时查看图像。假设拍摄设备100的位置是固定的并且对象是移动物体,则对象的图形可能由于对象的移动而离开实时查看图像。例如,由于拍摄设备100被固定在特定位置处,因此拍摄设备100中包括的镜头的视角中只包括特定区域。因此,即使对象包括在镜头的视角中,当对象移动并离开镜头的视角时,对象的图形也可能未被显示在实时查看图像中。
当通过拍摄设备100中包括的全部镜头获取的图像被合成并输出为实时查看图像时,将用户10要检查的对象显示为实时查看图像的一小部分。例如,当拍摄设备100合成不同区域的图像并输出图像时,用户感兴趣的对象被显示为输出图像的一小部分。
下面将参考图21至图25更详细地描述拍摄设备100跟踪对象的移动路径并将对象连续地包括在实时查看图像中的方法。
图21是示出了控制拍摄设备的方法的另一示例的流程图。
参考图21,控制拍摄设备的方法包括在图1至图5中所示的拍摄设备100或100a或电子设备100b中随时间进行处理的操作。因此,可以看出,即使在下面被省略,关于图1至图5中所示的拍摄设备100或100a或电子设备100b进行的以上描述也可以适用于图21中所示的控制拍摄设备的方法。
在操作2110中,处理器被配置为通过两个或更多个镜头来获取图像。例如,两个或更多个镜头可以具有不同视角或相同视角。假设拍摄设备中包括两个镜头,则当镜头具有不同视角时,第一镜头可以具有比第二镜头更窄的视角。
拍摄设备100中包括具有不同视角的镜头的示例可以例如如以上参考图4所述,并且拍摄设备100中包括具有相同视角的镜头的示例可以例如如以上参考图5所述。
在操作2120中,处理器被配置为使用所获取的图像来检测第一对象。例如,第一对象表示包括在由拍摄设备生成的最终图像中并且用户想要拍摄的对象。
在一个示例中,处理器可以被配置为基于用户输入在第一图像中包括的对象中检测第一对象。例如,第一图像可以表示用户10想要拍摄的目标,并且可以通过具有窄视角的镜头来获取。
在另一个示例中,处理器可以被配置为检测在第一图像中包括的各个对象的图形,并且使用检测到的图形来选择第一对象。例如,处理器可以被配置为使用对象分割技术来检测第一图像中的对象的图形,并且从检测到的图形中选择第一对象。
在又一示例中,处理器可以被配置为使用预先存储的对象信息在第一图像中包括的对象中检测第一对象。例如,处理器可以被配置为从存储器中读出与先前拍摄的对象有关的信息,并且在第一图像中包括的对象中选择与从存储器读出的信息相对应的对象作为第一对象。
处理器被配置为使用所获取的图像来检测第一对象的示例可以例如如以上参考图8至图10所描述的。
在操作2130中,基于第一对象的移动,处理器被配置为选择性地输出所获取的图像或者通过合成所获取的图像而获得的图像中的任何一个。例如,假设拍摄设备100中包括两个镜头,并且第一图像和第二图像是分别通过第一镜头和第二镜头获取的。此外,假设对象从第一镜头的视角的区域移动到第二镜头的视角的区域。在该示例中,处理器被配置为在拍摄设备100的屏幕上依次输出第一图像、第一图像和第二图像的合成图像以及第二图像。
下面将参考图22至图24更详细地描述处理器被配置为控制拍摄设备100以使得第一对象连续地包括在实时查看图像中的示例。
图22A和图22B是示出了基于第一对象的移动来输出实时查看图像的示例的图。
在图22A中,示出了拍摄设备100中包括的多个镜头2211和2212。为了便于描述,在图22A中,两个镜头2211和2212被示出为具有相同视角。
尽管镜头2211和2212具有相同视角,但是镜头2211和2212在拍摄设备100中的相应位置彼此不同,因此第一镜头2211的视角所覆盖的区域可以不同于第二镜头2212的视角所覆盖的区域。例如,可以存在与第一镜头2211的视角和第二镜头2212的视角之差相对应的区域2230。当调整拍摄设备100的位置以使得第一对象2220包括在第一镜头2211的视角中时,基于第一对象2220的移动,第一对象2220可能离开第一镜头2211的视角并且进入第二镜头2212的视角。
在图22B中,示出了通过第一镜头2211获取的实时查看图像2240的示例。即使当调整拍摄设备100的位置以使得第一对象2220位于实时查看图像2240的中心时,基于第一对象2220的移动,第一对象2220的图形也可能在实时查看图像2240中消失。
图23是示出了可以根据第一对象的移动来输出实时查看图像的示例的流程图。
操作2310到操作2340对应于图21的操作2130的详细过程。
在操作2310中,处理器被配置为输出第一图像。例如,第一图像表示包括第一对象的实时查看图像。
在操作2320中,处理器被配置为获取第一对象的运动信息。例如,运动信息包括表示第一对象移动的方向和/或第一对象移动得多快的信息。处理器获取第一对象的运动信息的示例可以例如如以上参考图12和图13所描述的。
在操作2330中,当第一对象进入其中视角相互重叠的区域时,处理器被配置为将第一图像和第二图像合成在一起,并且输出合成图像。例如,第一图像表示通过拍摄设备100中包括的第一镜头获取的图像,并且第二图像表示通过拍摄设备100中包括的第二镜头获取的图像。视角相互重叠的区域表示第一镜头的视角与第二镜头的视角相互重叠的区域。例如,视角相互重叠的区域可以表示图22的区域2230。
处理器被配置为校准第一图像和第二图像以检测其中第一镜头的视角和第二镜头的视角相互重叠的区域。例如,处理器可以被配置为基于第一图像和第二图像中共同显示的对象的位置来校准第一图像和第二图像。处理器被配置为合成第一图像和第二图像的其中视角相互重叠的区域。例如,处理器可以被配置为执行混合以将第一图像和第二图像合成在一起。处理器被配置为在屏幕上输出第一图像和第二图像的合成图像。
在操作2340中,当第一对象离开其中视角相互重叠的区域时,处理器被配置为输出第二图像。
下面将参考图24更详细地描述处理器被配置为根据上面参照图23描述的方法输出图像的示例。
图24是示出了可以输出图像的示例的图。
处理器被配置为在拍摄设备100的屏幕上输出包括第一对象2450的第一图像2410。处理器被配置为获取第一对象2450的运动信息,并检查第一对象2450是否进入其中第一图像2420和第二图像2440重叠的区域2430(即,第一镜头的视角和第二镜头的视角重叠的区域)。
当第一对象2450进入区域2430时,处理器被配置为将第一图像2420中包括的区域2430和第二图像2440中包括的区域2430合成在一起。例如,处理器可以被配置为执行混合以将第一图像2420和第二图像2440合成在一起。处理器被配置为在拍摄设备100的屏幕上输出合成图像。处理器被配置为检查第一对象2450是否进入仅包括在第二图像2440中的区域。
当第一对象2450进入仅包括在第二图像2440中的区域时,处理器被配置为在拍摄设备100的屏幕上输出第二图像2440。
图25是示出了可以输出图像的另一示例的图。
在图25中,示出了通过拍摄设备100中的包括的360相机获取的图像2510的示例。例如,360相机表示具有360视角的相机。因此,在通过360相机获取的实时查看图像中,用户10想要观察的第一对象2520被显示在小区域中。
处理器被配置为检测通过360相机获取的图像2510中的第一对象2520。处理器检测图像2510中的第一对象2520的示例可以例如如以上参考图8至图10所描述的。
处理器被配置为生成仅示出第一对象2520的图像2530,并且在拍摄设备100的屏幕上输出所生成的图像2530。由于拍摄设备100能够通过360相机生成全景图像,所以即使当第一对象2520移动时,也可以生成图像2530并且在拍摄设备100的屏幕上输出图像2530。
根据以上描述,当在对第一对象进行拍摄期间检测到第二对象的接近时,拍摄设备100可以生成通知信号。因此,用户10可以准确地拍摄第一对象的图像,而没有其他对象的干扰。
此外,拍摄设备100可以跟踪第一对象的移动路径并生成实时查看图像以连续地显示第一对象。因此,用户10可以连续地观察他或她想要拍摄的第一对象的图形。
同时,上述方法可以被写成计算机可执行程序,并且可以在使用计算机可读记录介质运行该程序的通用数字计算机中实现。此外,在上述方法中使用的数据结构可以使用各种工具记录在计算机可读记录介质中。计算机可读记录介质的示例包括诸如磁存储介质(例如,ROM、RAM、USB存储器、软盘、硬盘等)和光学存储介质(例如,CD-ROM、DVD等)的存储介质。
可以通过执行计算机可读记录介质中所保持的至少一个程序中包括的指令来执行上述方法。当计算机执行所述指令时,计算机可以执行与所述指令相对应的功能。例如,指令可以包括计算机使用解释器等可执行的高级语言代码以及由编译器创建的机器语言代码。在本公开中,计算机的示例可以是处理器,并且记录介质的示例可以是存储器。
应当理解,本文所描述的示例实施例应当被认为仅是描述性的,而不是为了限制目的。对每个示例实施例中的特征或方面的描述应当典型地被看作是可用于其他示例实施例中的其他类似特征或方面。
尽管已参考附图描述了一个或多个示例实施例,但本领域普通技术人员将理解,在不脱离所附权利要求所限定的精神和范围的情况下,可以进行形式和细节上的多种改变。

Claims (15)

1.一种拍摄设备,包括:
两个或更多个镜头,所述两个或更多个镜头中的每个镜头具有不同的视角;以及
处理器,被配置为基于从所述镜头获取的图像来检测第一对象,并且基于第二对象是否接近所获取的图像中的包括所述第一对象在内的第一图像的视角来生成通知信号。
2.根据权利要求1所述的拍摄设备,其中所述第一对象包括所述拍摄设备所生成的最终图像中包括的对象。
3.根据权利要求1所述的拍摄设备,其中所述处理器被配置为选择所获取的图像中的第二图像中包括的除了所述第一对象之外的一个或多个对象作为所述第二对象。
4.根据权利要求1所述的拍摄设备,其中所述处理器被配置为检测所述第一图像中包括的各个对象的图形,并且使用检测到的图形来选择所述第一对象。
5.根据权利要求1所述的拍摄设备,其中所述处理器被配置为基于预先存储的对象信息在所述第一图像中包括的对象中检测所述第一对象。
6.根据权利要求1所述的拍摄设备,其中所述处理器被配置为基于所获取的图像中包括的第二图像来获取所述第二对象的运动信息,并且基于所述运动信息来确定所述第二对象是否接近所述第一图像的视角。
7.根据权利要求1所述的拍摄设备,其中所述处理器被配置为使用预先存储的对象信息来获取所述第二对象的运动信息,并且基于所述运动信息来确定所述第二对象是否接近所述第一图像的视角。
8.根据权利要求1所述的拍摄设备,其中所述处理器被配置为基于所获取的图像以及从外部设备接收的表示对象的信息来检测所述第一对象。
9.根据权利要求1所述的拍摄设备,其中所述处理器被配置为基于所述第二对象是否包括在所述第一图像的视角中来确定是否拍摄图像。
10.根据权利要求1所述的拍摄设备,其中所述处理器被配置为基于所述第二对象是否包括在所述第一图像的视角中来改变视频帧采样率。
11.一种控制拍摄设备的方法,所述方法包括:
通过具有不同视角的两个或更多个镜头来获取图像;
基于所获取的图像来检测第一对象;以及
基于第二对象是否接近所获取的图像中的包括所述第一对象在内的第一图像的视角来生成通知信号。
12.根据权利要求11所述的方法,其中所述第一对象包括所述拍摄设备所生成的最终图像中包括的对象。
13.根据权利要求11所述的方法,还包括:选择所获取的图像中的第二图像中包括的除了所述第一对象之外的对象中的至少一个对象作为所述第二对象。
14.根据权利要求11所述的方法,其中检测所述第一对象包括:基于接收到的输入在所述第一图像中包括的对象中检测所述第一对象。
15.一种存储程序的非暂时性计算机可读记录介质,所述程序在被执行时使得计算机执行与根据权利要求11所述的方法相对应的操作。
CN201680063785.4A 2015-11-24 2016-02-26 拍摄设备及其控制方法 Active CN108353129B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2015-0164837 2015-11-24
KR1020150164837A KR102655625B1 (ko) 2015-11-24 2015-11-24 피사체의 근접 여부에 따라 촬영 장치를 제어하는 방법 및 촬영 장치.
PCT/KR2016/001904 WO2017090833A1 (en) 2015-11-24 2016-02-26 Photographing device and method of controlling the same

Publications (2)

Publication Number Publication Date
CN108353129A true CN108353129A (zh) 2018-07-31
CN108353129B CN108353129B (zh) 2020-12-04

Family

ID=58721449

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680063785.4A Active CN108353129B (zh) 2015-11-24 2016-02-26 拍摄设备及其控制方法

Country Status (5)

Country Link
US (1) US9854161B2 (zh)
EP (1) EP3381180B1 (zh)
KR (1) KR102655625B1 (zh)
CN (1) CN108353129B (zh)
WO (1) WO2017090833A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112153291A (zh) * 2020-09-27 2020-12-29 维沃移动通信有限公司 拍照方法和电子设备
CN112702530A (zh) * 2020-12-29 2021-04-23 维沃移动通信(杭州)有限公司 算法控制方法及电子设备

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102550469B1 (ko) * 2016-05-20 2023-07-04 삼성전자주식회사 전자 장치 및 그 제어 방법
CN109196852B (zh) * 2016-11-24 2021-02-12 华为技术有限公司 拍摄构图引导方法及装置
KR102479492B1 (ko) 2018-01-08 2022-12-20 삼성전자주식회사 차량 주변의 이미지를 제공하는 전자 장치 및 방법
CN113726465B (zh) * 2020-05-26 2022-12-27 华为技术有限公司 时间戳同步方法和设备
US11949984B2 (en) 2021-03-12 2024-04-02 Samsung Electronics Co., Ltd. Electronic device that performs a driving operation of a second camera based on a determination that a tracked object is leaving the field of view of a moveable first camera having a lesser angle of view than the second camera, method for controlling the same, and recording medium of recording program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090034953A1 (en) * 2007-07-31 2009-02-05 Samsung Electronics Co., Ltd. Object-oriented photographing control method, medium, and apparatus
CN102354364A (zh) * 2011-09-21 2012-02-15 西安理工大学 一种单摄像机监控系统的立体障碍物检测方法
JP4874167B2 (ja) * 2007-05-21 2012-02-15 三洋電機株式会社 画像処理装置およびそれを搭載した撮像装置
KR20150114320A (ko) * 2014-04-01 2015-10-12 삼성전자주식회사 촬영 장치, 그 제어 방법 및 컴퓨터 판독 가능 기록 매체

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP2005020196A (ja) 2003-06-24 2005-01-20 Casio Comput Co Ltd 画像撮影装置、及び画像整理装置
JP4587166B2 (ja) * 2004-09-14 2010-11-24 キヤノン株式会社 移動体追跡システム、撮影装置及び撮影方法
JP4274233B2 (ja) * 2006-11-30 2009-06-03 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP5079549B2 (ja) * 2008-03-03 2012-11-21 パナソニック株式会社 撮像装置および撮像装置本体
JP2010081528A (ja) 2008-09-29 2010-04-08 Fujifilm Corp 画像処理装置、方法およびプログラム
US8711218B2 (en) * 2009-02-09 2014-04-29 Verint Systems, Ltd. Continuous geospatial tracking system and method
WO2011108198A1 (ja) * 2010-03-03 2011-09-09 本田技研工業株式会社 車両の周辺監視装置
KR101680684B1 (ko) * 2010-10-19 2016-11-29 삼성전자주식회사 영상 처리 방법 및 이를 적용한 영상 촬영 장치
JP2012114655A (ja) 2010-11-24 2012-06-14 Canon Inc 被写体追尾カメラシステム
US8275413B1 (en) * 2011-09-17 2012-09-25 Fraden Corp. Wireless communication device with integrated electromagnetic radiation sensors
JP5477399B2 (ja) * 2012-01-30 2014-04-23 カシオ計算機株式会社 情報処理装置、情報処理方法及びプログラム、並びに情報処理システム
US9036069B2 (en) * 2012-02-06 2015-05-19 Qualcomm Incorporated Method and apparatus for unattended image capture
JP6253311B2 (ja) 2013-08-28 2017-12-27 キヤノン株式会社 画像処理装置、画像処理方法
JP6230386B2 (ja) * 2013-11-25 2017-11-15 オリンパス株式会社 画像処理装置、画像処理方法及び画像処理プログラム
KR102149508B1 (ko) * 2013-12-30 2020-10-14 삼성전자주식회사 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 기록매체

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4874167B2 (ja) * 2007-05-21 2012-02-15 三洋電機株式会社 画像処理装置およびそれを搭載した撮像装置
US20090034953A1 (en) * 2007-07-31 2009-02-05 Samsung Electronics Co., Ltd. Object-oriented photographing control method, medium, and apparatus
CN102354364A (zh) * 2011-09-21 2012-02-15 西安理工大学 一种单摄像机监控系统的立体障碍物检测方法
KR20150114320A (ko) * 2014-04-01 2015-10-12 삼성전자주식회사 촬영 장치, 그 제어 방법 및 컴퓨터 판독 가능 기록 매체

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112153291A (zh) * 2020-09-27 2020-12-29 维沃移动通信有限公司 拍照方法和电子设备
CN112702530A (zh) * 2020-12-29 2021-04-23 维沃移动通信(杭州)有限公司 算法控制方法及电子设备

Also Published As

Publication number Publication date
EP3381180A4 (en) 2018-12-05
EP3381180B1 (en) 2023-07-05
KR20170060411A (ko) 2017-06-01
US20170150039A1 (en) 2017-05-25
WO2017090833A1 (en) 2017-06-01
US9854161B2 (en) 2017-12-26
EP3381180A1 (en) 2018-10-03
KR102655625B1 (ko) 2024-04-09
CN108353129B (zh) 2020-12-04

Similar Documents

Publication Publication Date Title
CN108353129A (zh) 拍摄设备及其控制方法
CN110572711B (zh) 视频封面生成方法、装置、计算机设备及存储介质
CN110495819B (zh) 机器人的控制方法、机器人、终端、服务器及控制系统
EP3076659A1 (en) Photographing apparatus, control method thereof, and non-transitory computer-readable recording medium
CN107833219B (zh) 图像识别方法及装置
CN107800930A (zh) 图像合成方法和支持该方法的电子设备
CN108141539A (zh) 数字拍摄装置及其操作方法
CN110865754B (zh) 信息展示方法、装置及终端
CN107636682A (zh) 图像采集装置及其操作方法
CN108206916A (zh) 用于获得平移拍摄图像的方法及支持该方法的电子装置
KR20180099026A (ko) 외부 전자 장치를 이용한 촬영 방법 및 이를 지원하는 전자 장치
CN111466112A (zh) 一种图像拍摄方法及电子设备
CN107637063A (zh) 用于基于用户的手势控制功能的方法和拍摄装置
CN110650379A (zh) 视频摘要生成方法、装置、电子设备及存储介质
CN110933468A (zh) 播放方法、装置、电子设备及介质
CN111880888B (zh) 预览封面生成方法、装置、电子设备及存储介质
CN110827195B (zh) 虚拟物品添加方法、装置、电子设备及存储介质
CN107667524A (zh) 对运动对象进行成像的方法和成像装置
CN110675473A (zh) 生成gif动态图的方法、装置、电子设备及介质
CN111241869B (zh) 物料盘点的方法、装置及计算机可读存储介质
CN110853124A (zh) 生成gif动态图的方法、装置、电子设备及介质
CN111327819A (zh) 选择图像的方法、装置、电子设备及介质
CN115437601A (zh) 图像排序方法、电子设备、程序产品及介质
CN111982293B (zh) 体温测量方法、装置、电子设备及存储介质
CN105913433A (zh) 信息推送方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant