CN117998211A - 超延时视频生成方法和装置 - Google Patents

超延时视频生成方法和装置 Download PDF

Info

Publication number
CN117998211A
CN117998211A CN202310685374.0A CN202310685374A CN117998211A CN 117998211 A CN117998211 A CN 117998211A CN 202310685374 A CN202310685374 A CN 202310685374A CN 117998211 A CN117998211 A CN 117998211A
Authority
CN
China
Prior art keywords
reference point
camera
image
processor
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310685374.0A
Other languages
English (en)
Inventor
朴昶范
李曈昱
俞炳仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN117998211A publication Critical patent/CN117998211A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

一种生成超延时视频的方法,包括:将第一图像的第一参考点与第二图像的对应的第二参考点进行比较;基于该比较,显示用于将第一参考点与第二参考点匹配的第一用户界面;以及基于第一参考点与第二参考点是否匹配,确定是否执行用于超延时视频的自动拍摄。

Description

超延时视频生成方法和装置
相关申请的交叉引用
本申请要求于2022年11月1日在韩国知识产权局递交的韩国专利申请No.10-2022-0143745的优先权,其全部公开内容通过引用合并于此以用于所有目的。
技术领域
以下描述涉及超延时视频生成方法和装置。
背景技术
超延时(hyperlapse)视频一般是通过在相机被移动时或相机正在移动的同时以固定间隔用相机捕获图像或视频的拍摄技术生成的视频。超延时视频是延时(time lapse)视频的一种形式,在此期间相机可以移动而不是保持静止。此类图像或视频可以用于生成可显示以提供延时和移动两者的视觉效果的超延时视频。例如,处理器为了生成超延时视频,可以使用拍摄目标、拍摄路径或固定点(例如,锚点)。此外,用户可以在手持捕获超延时视频/图像的相机的同时沿着路径手动移动相机。例如,在用户移动到的位置处,用户可以调整(例如,重新定向)相机以调整固定点(或拍摄目标、拍摄路径等)在相机屏幕上的定位。处理器可以基于通过关于拍摄目标/路径/点的这种重复移动和拍摄而拍摄的一系列图像或视频,来生成超延时视频。
发明内容
提供本发明内容以用简化形式介绍一些构思,这些构思将在下面的具体实施方式中进一步描述。本发明内容不意在识别所请求保护的主题的关键特征或基本特征,也不意在帮助确定所请求保护的主题的范围。
在一个通常方面,一种生成超延时视频的方法包括:将第一图像的第一参考点与第二图像的对应的第二参考点进行比较;基于该比较,显示用于将第一参考点与第二参考点匹配的第一用户界面;以及基于第一参考点与第二参考点是否匹配,确定是否执行用于该超延时视频的自动拍摄。
该方法还可以包括:自动识别图像中的候选点;以及基于选择参考点的用户输入从候选点中确定该参考点。
可以基于在图像中检测到的对象的边界框来识别候选点。
可以基于位于边界框上或边界框内来识别候选点。
可以通过跟踪第二图像中的与第一参考点相对应的点来识别第二参考点。
该方法还可以包括:基于确定第一参考点与第二参考点不匹配,显示第一用户界面;以及当第一参考点与对应的第二参考点匹配时,确定相机是否是水平的。
该方法还可以包括:基于确定第一参考点与对应的第二参考点不匹配,通过自动调整相机的摇摄、倾斜或变焦使第一参考点与第二参考点匹配。
该方法还可以包括:显示表示相机的水平状态的第二用户界面,其中,显示第二用户界面是基于该比较的。
该方法还可以包括:基于相机的水平状态来执行自动拍摄。
该方法还可以包括:响应于确定相机是水平的,执行自动拍摄;以及响应于确定相机不是水平的,显示第二用户界面。
该方法还可以包括:与参考点的确定相关联地确定相机的相机设置值;以及固定所确定的相机设置值。
确定相机设置值可以包括:基于参考点来确定帧率。
固定相机设置值可以包括:固定相机的白平衡值或曝光时间。
固定相机设置值可以包括:固定相机的感光度值或光圈值。
自动拍摄可以包括:在不具有启动拍摄的用户输入的情况下拍摄一系列图像或视频帧。
执行自动拍摄可以包括:使用自动对焦功能自动进行对焦。
在另一通常方面,一种电子设备包括:相机;一个或多个处理器;存储指令的存储器,该指令在由一个或多个处理器执行时使一个或多个处理器:将第一图像的第一参考点与第二图像的对应的第二参考点进行比较;基于比较的结果,显示用于将第一参考点与第二参考点匹配的第一用户界面;以及基于第一参考点与第二参考点是否匹配来执行自动拍摄。
该指令还可以被配置为使一个或多个处理器:确定图像中的候选点;以及基于用户选择输入从所确定的候选点中确定参考点。
该指令还可以被配置为使一个或多个处理器:响应于确定第一参考点与对应的第二参考点不匹配,显示第一用户界面。
在另一通常方面,一种在包括相机和显示器的便携式电子设备中生成超延时视频的方法,该方法包括:当便携式电子设备处于第一位置处时通过相机获取第一图像;确定第一图像中的候选点;在显示器上显示所确定的候选点;基于用户选择输入确定候选点中的一个作为第一参考点;以及当在便携式电子设备处于第二位置处时通过相机获取第二图像时:基于在第二图像中检测到的参考对象来确定第二参考点;以及响应于确定第一参考点与第二参考点匹配来执行自动拍摄。
该方法还可以包括:响应于确定第一参考点与第二参考点不匹配,在显示器上显示第一用户界面。
其他特征和方面将通过以下详细描述、附图和权利要求变得清楚明白。
附图说明
图1示出了根据一个或多个示例实施例的生成超延时视频的示例方法。
图2示出了根据一个或多个示例实施例的从候选点中确定参考点的示例方法。
图3示出了根据一个或多个示例实施例的固定相机设置值的示例方法。
图4示出了根据一个或多个示例实施例的使用点跟踪来确定第一参考点的位置与第二参考点的位置是否匹配的示例方法。
图5示出了根据一个或多个示例实施例的显示第一引导和第二引导的示例方法。
图6A至图6C示出了根据一个或多个示例实施例的识别候选点并从候选点中选择参考点的示例。
图7A和图7B示出了根据一个或多个示例实施例的第一参考点与第二参考点不匹配的示例情况。
图8示出了根据一个或多个示例实施例的显示第二引导的示例。
图9示出了根据一个或多个示例实施例的自动使第一参考点与第二参考点匹配的示例。
图10示出了根据一个或多个示例实施例的示例电子设备。
图11示出了根据一个或多个示例实施例的示例相机模块。
在整个附图和详细描述中,除非另有描述或提供,否则相同或相似的附图标记应被理解为指代相同或类似的元件、特征以及结构。附图可以不按比例绘制,并且为了清楚、说明和方便,可以扩大附图中元件的相对大小、比例和描绘。
具体实施方式
提供以下详细描述以帮助读者获得对本文描述的方法、装置和/或系统的全面理解。然而,在理解了本申请的公开内容之后,本文中描述的方法、装置和/或系统的各种改变、修改和等同物将是显而易见的。例如,本文中描述的操作顺序仅仅是示例,并且不限于在本文中阐述的那些操作顺序,而是可以在理解本申请的公开内容之后显而易见地被改变,除了必须以一定顺序进行的操作之外。此外,为了更加清晰和简洁,可以省略对在理解了本申请的公开内容之后已知的特征的描述。
本文描述的特征可以以不同形式实施,并且不应被解释为限于本文描述的示例。相反,提供本文中描述的示例仅仅是为了说明实现本文中描述的方法、装置和/或系统的许多可行方式中的一些,在理解本申请的公开内容之后这些方式将显而易见。
本文中使用的术语仅用于描述各种示例,而不用于限制本公开。除非上下文另外明确指示,否则冠词“一”、“一个”和“该”也意在包括复数形式。如本文中所使用的,术语“和/或”包括关联列出的项目中的任何一个和任何两个或更多个的任何组合。作为非限制性示例,术语“包括”、“包含”和“具有”表示存在所阐述的特征、数目、操作、构件、元件和/或其组合,但并不排除存在或添加一个或多个其他特征、数目、操作、构件、元件和/或其组合。
在整个说明书中,当组件或元件被描述为“与...连接”、“耦接到”或“连接到”另一个组件或元件时,它可以直接“与...连接”、“耦接到”或“连接到”到其他组件或元件,或者可能有一个或多个其他组件或元件介于其间。当一个组件或元件被描述为“直接与...连接”、“直接耦接到”或“直接连接到”另一个组件或元件时,在它们之间不能有其他元件介入。同样,例如,“在...之间”和“直接在...之间”以及“与...相邻”和“与...紧邻”这样的表述也可以解释为如前文所述。
尽管本文中可以使用诸如“第一”、“第二”、“第三”或“A”、“B”、(a)和(b)之类的术语来描述各种元件、组件、区域、层或部分,但是这些元件、组件、区域、层或部分不受这些术语的限制。例如,这些术语中的每一个都不用于定义对应的元件、组件、区域、层或部分的本质、顺序或序列,但仅用于将对应的元件、组件、区域、层或部分与其他元件、组件、区域、层或部分区分开。因此,在不脱离示例的教导的情况下,本文中描述的示例中提及的第一元件、组件、区域、层或部分也可以被称为第二元件、组件、区域、层或部分。
除非另有定义,本文中使用的包括技术和科学术语在内的所有术语均具有与本公开内容所属领域的普通技术人员基于对本申请公开内容的理解而通常理解的含义相同的含义。诸如在常用词典中定义的术语应被解释为其含义与在相关技术和/或本申请的公开的上下文中的含义一致,而不应被解释为理想的或过于正式的含义,除非本文明确如此定义。本文中关于示例或实施例对术语“可以”的使用(例如,关于示例或实施例可以包括或实现什么)意味着存在至少一个示例或实施例,其中包括或实现了这样的特征,但全部示例不限于此。
图1示出了根据一个或多个示例实施例的生成超延时视频的示例方法。该方法可以称为超延时视频生成方法。
根据示例实施例,为了生成超延时视频,可以采用匹配固定点的位置的方法。例如,不采用匹配固定点的位置的方法,可以假设图像已经被准确捕获而捕获后续图像。顺便提及,术语“捕获(capturing)图像和/或视频”或“捕获的(captured)图像和/或视频”在本文中可以被描述为“拍摄(shooting)图像和/或视频”或“拍摄的(shot)图像和/或视频”。进一步关于示例实施例,当固定点的位置不匹配时,可以在拍摄期间或拍摄之后执行稳定化以生成视频。然而,在这种情况下,生成的视频可能会抖动和不流畅,并且可能存在无法通过捕获后的编辑过程完全消除的拍摄错误。因此,可能降低要生成的超延时视频的质量。例如,当用一系列视频生成超延时视频时,画面抖动可能会进一步加剧,这可能会大大降低超延时视频的质量。例如,当在完全手动过程中使用一系列图像生成超延时视频时,用户可能不得不反复触摸拍摄按钮,这可能导致相机抖动并增加图像拍摄期间的用户疲劳。
根据示例实施例,为了提高生成的超延时视频的质量,处理器(例如,图10中的处理器1010)可以确定先前拍摄的图像(或帧)中的参考点与后续拍摄的图像(或帧)中的参考点是否匹配。参考点例如可以是作为用于生成超延时视频的参考的点,并且可以例如是用于生成超延时视频的位于参考对象的边界框内的点。例如,参考点可以是固定物理对象或特征的点。例如,当基于一系列图像生成超延时视频时,固定点可以是对象上的点(例如,在对象的边界框内的点),该点主要(或始终)包括在用于生成超延时视频的一系列图像中的每个图像中。例如,当基于一系列视频生成超延时视频时,固定点可以是对象上的点(例如,在对象的边界框内的点),该点主要(或始终)包括在用于生成超延时视频的一系列视频中的视频的每个帧中。
根据示例实施例,当确定参考点匹配时,处理器1010可以自动拍摄图像或视频(例如,不需要用户激活或致动拍摄按钮等)。当参考点不匹配时,处理器1010可以推迟自动拍摄,并且作为替代而显示引导(用于对点进行交互式匹配的用户界面)。处理器1010还可以显示候选参考点以增加用户便利性。此外,处理器1010可以自动跟踪用户从候选点中选择的点。处理器1010可以为用户提供用于匹配参考点的交互式引导(用户界面)(例如,通过提供关于相机/设备相对于参考点和/或水平线的位置的实时视觉反馈)。当参考点匹配并且正在被使用的相机水平时,处理器1010可以响应于确定这样的条件来自动拍摄图像或视频。这可以例如具有以下好处:减少由用户触摸引起的抖动,减少用户因重复触摸而产生的疲劳,以及缩短拍摄时间,同时提高超延时视频的质量。
在下文中,详细描述超延时视频生成方法。下面参照图1描述的操作可以以任何顺序执行。这些操作仅仅是示例,并且可以省略其中的一些操作或者可以添加其他操作。
根据示例实施例,在操作110中,处理器1010可以获得初始图像,例如通过处理器1010使用或控制相机模块(例如,图11的相机模块1180)来获得初始图像。此处描述的“获得的”图像可以用于或可以不用于生成超延时视频。此外,这里描述的“拍摄”图像的操作可以是使用通过相机获得的图像来生成超延时视频的操作。这里描述的“拍摄的”图像可以是用于生成超延时视频的图像(尽管在一些情况下拍摄的图像可以在拍摄后处理期间被丢弃)。
类似地,“获得”视频的操作可以是处理器1010从相机模块1180获取包括在视频中的一系列帧的操作。此处描述的“获得的”帧可以用于或可以不用于生成超延时视频。另外,这里描述的“拍摄”视频的操作可以是使用通过相机获得的帧来生成超延时视频的操作。此处描述的“拍摄的”帧可以是用于生成超延时视频的图像(同样,一些帧可能在后处理中被丢弃)。
上面提到的初始图像可以用于确定用于生成超延时视频的参考点。如前所述,一系列图像或视频可以用于生成超延时视频。在从一系列图像生成超延时视频的情况下,初始图像可以是从一系列图像中首先获得的图像。在从一系列视频生成超延时视频的情况下,初始图像可以是包括在第一视频中的帧。通过迭代(iterate over)所获得的图像/帧并确定先前图像/帧中的参考点与当前图像/帧中的参考点是否匹配,处理器1010可以通过在初始图像/帧之后获得的图像/帧来跟踪在初始图像/帧中确定的参考点。
在操作120中,处理器1010可以识别初始图像中的候选点。处理器1010可以识别候选点,以显示可以由用户选择成为当前图像/帧的参考点的各种点。在下文中,“图像”将指代所获得的一系列图像中的图像和所获得的视频中的帧。
在操作130中,处理器1010可以基于用户选择输入(用户为选择参考点而进行的输入)从识别的候选点中确定参考点。注意,尽管这里主要描述了单个参考点,但也存在可以使用多于一个参考点的情况(如下所述)。用户选择的参考点可以用于生成超延时视频。在另一示例中,用户可以选择两个或更多个参考点。在此示例中,所选择的参考点可以位于相同边界框内。
处理器1010可以在图像中执行对象检测并由此生成边界框。可以为每个相应的边界框确定候选点。例如,可以使用神经网络执行对象检测。处理器1010可以生成分别检测到的对象的边界框,作为对象检测的结果。对于给定边界框,处理器1010可以选择该给定边界框上或该给定边界框内的任何点作为该给定边界框的候选点。例如,处理器1010可以选择与边界框相对应的对象的特征点作为候选点(例如,具有最强的预测值或图像特征等的特征)。又例如,处理器1010可以将边界框的线的中心(或边界框的中心)确定为候选点。候选点在边界框内的上述位置仅为示例,并且示例不限于此。参照图6A描述边界框。此外,在一些情况下,边界框可以不完全包含对应的检测到的对象,并且可以选择对象的位于边界框外的点。在其他情况下,对象检测可以提供对象轮廓而不是边界框;对边界框的描述同样适用于检测到的对象的任何划定。
参照图2更详细地描述操作120和130。
在操作140中,处理器1010可以基于至少一个参考点来对相机设置值进行固定(可以固定一个以上的相机设置值)。处理器1010可以基于所确定的参考点或与所确定的参考点相关联地确定相机设置值。对相机设置值的固定可以用将相机设置值保持为在获取图像或视频时由相机使用的激活设置的任何方式来完成。
进一步关于相机设置,参照图3,在操作310中,处理器1010可以基于参考点或与参考点相关联地确定帧显示速率(例如,有效的或与帧相关联的帧捕获速率,例如,捕获帧的速率)。在操作320中,处理器1010还可以基于参考点来确定相机设置值。相机设置值可以是相机设置项的值。每个相机设置项可以是用于通过控制相机的硬件和/或软件配置来获得图像的设置项目。相机设置项可以包括帧率、白平衡、曝光时间、感光度(根据国际标准组织(ISO))和/或光圈,这里仅举一些示例。
根据示例实施例,处理器1010可以固定相机设置值。例如,当拍摄可以作为所生成的超延时视频的基础或者可以作为所生成的超延时视频的一系列图像或视频时,可能需要对相机设置值进行固定,以减少图像质量不连续(例如,白平衡突然改变)或超延时视频中的伪影(例如,抖动)的发生。当拍摄过程中获取的图像或视频随着拍摄过程中相机设置值的变化而变化时,超延时视频的质量可能会下降。因此,例如,处理器1010可以基于在初始图像中确定的参考点或与在初始图像中确定的参考点相关联地固定相机设置值。
根据示例实施例,处理器1010可以固定相机的白平衡值和/或曝光时间。例如,处理器1010可以在固定基于初始图像中的至少一个参考点确定的白平衡值和/或曝光时间之后拍摄一系列图像或视频。注意,相机设置值也可以在捕获初始图像之前获得。此外,可以在拍摄即将开始之前设置先前获取的相机设置值。值得注意的是对超延时视频可能对其敏感的(影响所捕获图像的)相机设置值的维持,而不管相机设置值是如何确定或保持的。
根据示例实施例,处理器1010可以固定相机的感光度值和/或光圈值。例如,处理器1010可以在固定例如基于初始图像中的点确定的感光度值或光圈值之后,拍摄一系列图像或视频。关于基于该点,在某些情况下,相机设置可能会因图像的不同部分而异。然而,通常,固定的相机设置值可以基于也可以不基于点本身,即,“基于点”可以基于初始图像整体或与其相关联的相机条件。
根据示例实施例,处理器1010可以固定白平衡值、曝光时间、感光度值和/或光圈值。例如,处理器1010可以在固定基于初始图像中的参考点确定的白平衡值、曝光时间、感光度值和/或光圈值之后,拍摄一系列图像或视频。
在操作340中,处理器1010还可以通过暂停(或停止)自动相机设置调整功能来固定相机设置值。自动相机设置调整功能可以在每次拍摄图像或视频时根据拍摄环境(例如,光照条件)自动改变相机设置值。当自动相机设置调整功能生效时,要包括在超延时视频中的一系列图像或视频可能会因为由此进行的调整而分别使用不同的相机设置值进行拍摄。因此,为了流畅地再现超延时视频,可以对自动相机设置确定功能进行暂停或停用等。相机设置值功能和相机设置调整功能控制不是必需的;相机设置的变化可能是可以接受的,拍摄条件可能是稳定的并且避免了调整等。
在操作150中,处理器1010可以获得新图像(例如,第二图像)。如下所述,第一图像可以是先前拍摄的图像(或帧),并且第二图像可以是在操作150中新拍摄的图像(或帧)。处理器1010可以从相机模块获得新拍摄的图像(或帧)。例如,当拍摄一系列图像来生成超延时视频时,在各个所拍摄的图像中可以存在时间序列,并且此处使用术语“第一图像”和“第二图像”来指示任意图像之间的相对时间顺序关系。
有时,处理器1010可以从相机模块获得以与拍摄第一图像的位置或姿势不同的位置或姿势拍摄的第二图像。在其他时候,处理器1010可以从相机模块获得以与拍摄第一图像相同的位置或姿势拍摄的第二图像。
为了开始参考点跟踪,处理器1010可以识别第一图像的第一参考点的位置(例如,在第一图像内的位置)。例如,为了跟踪在初始图像中确定的参考点,处理器1010可以识别第一图像的第一参考点的位置。第一参考点可以在第一图像中,并且第二参考点可以在第二图像中。
在操作160中,处理器1010可以通过对第二图像中的点执行跟踪来确定第二参考点。由此,处理器1010可以识别第二图像中的第二参考点的位置。
根据示例实施例,处理器1010可以将第一图像的第一参考点和第二图像的对应的第二参考点进行比较。第二参考点可以是由处理器1010通过在第二图像中跟踪与第一参考点相对应的点来识别的点。例如,当存在一个第一参考点时,可以通过点跟踪在第二图像中识别出与第一参考点相对应的一个第二参考点(可以使用已知的点跟踪技术,例如基于特征点提取、重复对象检测、连续增量分析等)。在另一示例中,可以有两个第二参考点。在该示例中,可以通过点跟踪在第二图像中识别分别与两个第一参考点相对应的两个第二参考点。因此,处理器1010可以将对应的第二参考点与第一参考点进行比较。
在操作170中,处理器1010可以确定第一参考点与对应的第二参考点是否匹配。参照图4描述操作170。
在操作180中,处理器1010可以确定相机是否足够水平。处理器1010可以基于感测到的相机的水平轴和阈值角度来确定相机是否足够水平。当在相机不足够水平时通过拍摄图像或视频生成超延时视频时,超延时视频中可能会显示抖动或不连贯的场景。参照图5描述操作180。
根据示例实施例,处理器1010可以基于第一参考点与对应的第二参考点之间的比较,例如在显示屏上显示用于帮助用户水平地保持相机的第二引导。参照图8描述第二引导。在一些实施例中,当相机被充分水平地保持时,处理器1010可以执行自动拍摄(例如,自动拍摄可以在确定相机水平时开始)。当相机未充分水平地保持时,处理器1010可以在屏幕上显示第二引导,并且在一些实施例中,可以暂停自动拍摄直到获得足够的水平度。
在操作190中,处理器1010可以执行自动拍摄。本文描述的自动拍摄可以是响应于条件(例如,点匹配和/或水平对齐)并且独立于与拍摄相关联的用户输入来拍摄(或捕获)一系列图像或视频。通常,为了拍摄图像或视频,处理器1010可能需要接收屏幕触摸信号或按钮输入信号。相反,即使没有用户拍摄控制输入,操作190的自动拍摄也可以拍摄图像或视频。
根据示例实施例,可以在满足(响应于)匹配参考点的条件和/或水平保持相机的条件时执行自动拍摄。
根据示例实施例,在用一系列拍摄的视频来生成超延时视频的情况下,处理器1010可以自动拍摄视频达预定时间段。例如,当满足匹配参考点的条件和/或水平保持相机的条件时,处理器1010可以自动拍摄两分钟的视频。
根据示例实施例,在用一系列拍摄的视频来生成超延时视频的情况下,处理器1010可以自动拍摄(一个或更多个)图像。例如,当满足匹配点的条件和/或水平保持相机的条件时,处理器1010可以自动拍摄200张图像。
根据示例实施例,处理器1010可以在使用自动对焦功能进行自动对焦之后执行自动拍摄。自动对焦功能例如可以是处理器1010自动对焦于对象的功能。因此,可以在每次执行自动拍摄时自动执行自动对焦功能。
根据示例实施例,在自动拍摄完成之后,处理器1 010可以再次执行操作150。要生成超延时视频,用户可以在新位置处拍摄图像或视频。在这种情况下,处理器1010可以从相机模块获得新图像(例如,第二图像)。此外,在拍摄视频的情况下,处理器1010可以从相机模块获得新的帧(例如,第二图像)。处理器1010可以通过将新拍摄的第二图像与先前图像进行比较来再次执行操作160至190。
可以基于用户选择输入或预定条件来确定是否在操作190处或操作190之后结束。例如,当用户按下结束按钮时,可以结束自动拍摄。当预定条件是要拍摄的图像数量时,可以在已经拍摄了该数量的图像时结束自动拍摄。例如,在拍摄200个图像的情况下,当200个图像全部拍摄完成后,结束自动拍摄。又例如,在拍摄2分钟视频的情况下,可以在视频拍摄达两分钟后结束自动拍摄。
在一些实施例中,可以省略操作180,并且当满足参考点匹配条件时处理器1010执行自动拍摄。处理器1010可以在自动水平化之后执行自动拍摄。在这种情况下,第二引导可以不显示在屏幕上。
本文描述的超延时视频生成方法可以容易地生成高质量的超延时视频。可以在屏幕上提供引导以使水平保持相机和匹配参考点的过程更便利,当相机被水平地保持和/或参考点匹配时自动拍摄图像或视频。可以减少当用户触摸拍摄按钮时可能发生的抖动。因此,可以拍摄抖动减少的图像或视频,并且处理器1010可以提高从中生成的超延时视频的质量。
超延时视频生成方法可以由便携式电子设备执行。便携式电子设备可以以便携式电子设备的第一位置或姿势通过包括在便携式电子设备中的相机获得第一图像。包括在便携式电子设备中的处理器1010可以从包括相机的相机模块获得第一图像。便携式电子设备可以计算第一图像中的候选点。便携式电子设备可以在便携式电子设备的显示器上显示候选点。便携式电子设备可以基于用户选择输入从候选点中确定第一参考点。
例如,当便携式电子设备以第二位置或姿势通过相机获取第二图像时,可以执行以下操作。操作可以包括操作(a)和操作(b)。操作(a):当便携式电子设备在第二位置处通过相机获得第二图像时,确定第二图像中的参考对象的边界框中的第二参考点。参考对象可以是包括在用于生成超延时视频的所有图像中的对象。操作(b):当第一参考点与第二参考点匹配时(例如,响应于确定它们匹配),通过相机执行自动拍摄。当第一参考点与第二参考点不匹配时,便携式电子设备可以在显示器上显示第一引导。便携式电子设备可以在每次在新位置处通过相机获得新图像时执行操作(a)或操作(b)。
根据示例实施例,超延时视频生成方法可以通过呈现候选点(例如,候选固定点)来允许没有经验的用户容易地拍摄高质量的超延时视频。因此,超延时视频生成方法可以帮助降低不同用户拍摄超延时视频的门槛,并且增加此类用户的数量。
超延时视频生成方法可以通过减少用户需要重复执行以使用图像生成超延时视频的任务来减轻疲劳。例如,当生成100帧的超延时视频(对应于4秒的超延时视频)时,用户可能需要为每个图像按下两次按钮(例如,自动对焦和拍摄按钮),因此,当触摸(或输入)包括用于初始设置的触摸/输入(在拍摄每张照片之前)时,可能需要执行至少200次或更多次触摸(或输入)。相比之下,超延时视频生成方法可以将用户的输入减少到三个:开始拍摄的输入、选择参考点的输入和结束的输入(在某些情况下,拍摄过程可以通过由用户改变相机/设备的方向来控制)。
根据示例实施例,当使用一系列视频生成超延时视频时,超延时视频生成方法还可以提高视频的有效帧率。例如,在拍摄视频时,以固定间隔拍摄帧的方法和在拍摄过程中或拍摄后选择帧的方法可能不包括匹配参考点的过程,因此视频可能会出现抖动。此外,在选择帧的过程中可能没有所需的帧或图像,因此要生成的超延时视频的质量可能会(例如,由于跳过的帧)下降。相比之下,本文描述的超延时视频生成方法可以在参考点匹配并且保持水平时执行自动拍摄,因此可以以高概率获得期望的帧或图像。此外,超延时视频生成方法可以最小化在后处理过程中可能发生的损失(例如,遗漏的帧)。当拍摄了抖动图像并在后处理过程中进行校正时,可能不可避免地会丢失帧区域。例如,整个帧区域的64%可能会在后处理中丢失。
图2示出了根据一个或多个示例实施例的从候选点中确定参考点的示例方法。
在操作210中,处理器1010可以获得初始图像。
在操作220中,处理器1010可以例如使用任何对象检测算法、为对象检测训练的神经网络等,识别初始图像中的对象。可以基于如参照图1描述的对象检测来执行识别图像中的对象的方法。
在操作240中,处理器1010可以基于识别的对象来计算候选点。对象检测可以为每个对象生成边界框。处理器1010可以基于每个边界框来计算候选点。例如,候选点可以在边界框的线上或边界框内。
处理器1010可以在屏幕上显示根据图像计算的候选点,作为操作240的结果。然后用户可以从显示在屏幕上的多个候选点中选择一个参考点(在一些实施例中,可以选择多于一个的参考点)。在操作250中,处理器1010可以接收为此目的的用户选择输入。该输入例如可以是对图像显示的触摸,该图像显示具有候选点的触摸响应表示。
在操作260中,存在从候选点中选择参考点的用户选择输入。处理器1010可以接收选择一个参考点的输入或选择多个参考点的输入(虽然主要描述了单个参考点的选择,但是相同的描述适用于多个参考点的选择)。
在操作261中,当接收到用户选择输入时,处理器1010可以将所选择的候选点确定或设置为参考点。
在一些实施例中,用户可以选择并不是候选点之一的参考点。在操作262中,处理器1010可以基于用户选择输入而不是多个候选点来确定参考点。在这种情况下,处理器1010可以接收用户选择输入并接收由用户选择的参考点的位置(例如,坐标)。处理器1010可以基于接收到的参考点的位置(例如,触摸输入位置)来确定参考点。
在一些情况下,在操作250中可能没有用户选择输入,处理器1010可以根据预定条件从候选点中确定参考点。预定条件可以是具有高概率的候选点被确定为参考点的条件。例如,预定条件可以是候选点更靠近(或最靠近)屏幕的中心。或者,处理器1 010可以将位于屏幕中心处的候选点确定为参考点(可以将中心点作为独立于对象检测的候选点包括在内,即,可以将中心点候选作为与检测到的对象无关的候选点包括在内)。因此,当没有用户选择输入时,处理器1010可以基于预定条件来自动确定参考点。
当已经如上所述确定参考点时,处理器1010可以执行操作140。
图3示出了根据一个或多个示例实施例的固定相机设置值的示例方法。
图3所示的操作310至340可以以任何实际顺序执行。图3所示的操作是示例;有些操作可以被省略,或者可以添加其他操作。以上结合图1提供了图3中的操作的详细描述。
图4示出了根据一个或多个示例实施例的基于点跟踪来确定第一参考点的位置与第二参考点的位置是否匹配的示例方法。
在操作410中,处理器1010可以识别第二图像中的第二参考点。
在操作420中,处理器1010可以确定第一参考点与对应的第二参考点是否匹配。处理器1010可以确定第一参考点的位置与第二参考点的位置是否匹配。在一些实施例中,位置匹配可以涉及确定这些位置在它们各自的图像内的位置方面是否足够接近。然而,此处使用的匹配不受此限制。匹配可以考虑其他信息。例如,如果使用场景建模/重建,则可以在将第二参考点与第一参考点进行比较之前将变换应用于第二参考点。匹配可以基于产生足够的超延时视频的任何条件。
在操作440中,当第一参考点与对应的第二参考点不匹配时,处理器1010可以在屏幕上显示第一引导(用户界面)。
在操作430中,当第一参考点与对应的第二参考点匹配时,处理器1010可确定相机是否保持水平。
综上所述,当存在一个参考点时,处理器1010可以确定第一参考点与第二参考点是否匹配。当第一参考点与第二参考点匹配时,在操作430中,处理器1010可以确定相机是否水平。相反,当第一参考点与第二参考点不匹配时,处理器101 0可以在操作440中在屏幕上显示第一引导。参照图7B描述第一引导。
当存在多个第一参考点时,处理器1010可以确定每个第一参考点与分别对应的第二参考点是否匹配。当第一参考点中的每一个与分别对应的第二参考点匹配时,在操作430中,处理器1010可以确定相机是否水平。相反,当第一参考点中的任何一个与第二参考点不匹配时,在操作440中,处理器1010可以为不匹配的第二参考点显示第一引导。在一些实施例中,当存在大量参考点时,即使一些参考点不匹配,处理器1010也可以进行到操作430而不显示第一引导,因为手动匹配大量参考点可能是不切实际的。
图5示出了根据一个或多个示例实施例的提供第一引导和第二引导的示例方法。
在操作510中,当第一参考点与对应的第二参考点不匹配时,处理器1010可以显示第一引导,如参照图4所描述的。
在操作520中,处理器1010可以再次确定第一参考点与对应的第二参考点是否匹配。
当第一参考点与对应的第二参考点不匹配时,处理器1010可以执行操作510,即再次在屏幕上显示第一引导。这样,处理器1010可以继续在屏幕上显示第一引导,直到第一参考点与第二参考点匹配。另外,用户可以通过查看第一引导来改变相机的位置或拍摄角度以交互地匹配参考点。例如,第一引导可以被每次更新,以反映第二参考点的改变的位置。
在操作530中,当第一参考点与对应的第二参考点匹配时,处理器1010可以显示第二引导。在操作540中,处理器1010可以确定相机是否保持水平。尽管图5示出了操作530发生在操作540之前,但是对于操作530和540的第一次迭代可以跳过操作530;即,如果在操作520以“是”完成时相机已经是水平的,则可以根本不显示第二引导。当相机没有保持水平时,处理器1010可以执行操作530。这样,处理器1010可以继续在屏幕上显示第二引导,直到相机保持水平。相机保持水平可以指示第一图像中的水平线与第二图像中的水平线匹配。确定相机是否水平可以包括一些容差。例如,操作540可以在相机的倾斜角与水平线之间的差小于角度阈值时确定相机是水平的。类似地,比较参考点位置也可以包括对应的第一参考点与第二参考点之间的阈值距离形式的容差。
处理器1010可以基于相机是否保持水平来执行自动拍摄。在操作550中,当相机保持水平时,处理器1010可以执行自动拍摄。也就是说,拍摄可以响应于确定相机是水平的而开始。
图6A至图6C示出了根据一个或多个示例实施例的识别候选点并从候选点中选择参考点的示例。
图6A至图6C显示了初始图像中的边界框610至680和候选点611至681。
图6A示出了例如在初始图像中识别候选点的示例结果。可以选择候选点作为参考点。
候选点可以位于边界框上或边界框内。例如,如图所示,候选点651可以位于边界框650的上轮廓线上,并且候选点621和623可以位于边界框620内。
多个候选点可以在一个边界框内。如图所示,候选点661、662和663可以在边界框660内。多个候选点可以是在一个边界框内检测到的特征点。如图6A中所示,特征点可以对应于位于尖顶末端处的十字。此外,一个边界框内可以存在(对应于特征点的)多个十字。在这种情况下,候选点661、662和663可以对应于边界框660。
图6B示出了选择一个参考点的示例情况。例如,处理器1010可以从选择候选点651的用户接收用户选择输入690。在此示例中,处理器1010可以将候选点651确定为一个参考点。
图6C示出了选择多个参考点的示例情况。处理器1010可以从选择位于相同边界框内的三个候选点的用户接收用户选择输入691、692和693。可以(例如,在便携式设备、相机等的显示器上)显示某种程度上对应于图6C的用户界面,即,用户界面可以包括由用户可选择的候选点图形指示覆盖的相关图像(例如,初始图像)。用户可以(例如,通过触摸输入、通过多方向按钮等)选择位于相同边界框660内的候选点661、662和663。处理器1010可以将所选择的候选点661、662和663确定为参考点。
当参考点的数量增加时,可以进一步减少图像抖动。然而,参考点彼此相距较远,在不同位置处拍摄图像或视频时可能难以匹配所有参考点(例如,由于视差)。在一些实施例中,确定参考点是否匹配(用于控制自动拍摄或显示引导)可以基于位于一个边界框内的参考点是否匹配。在这种情况下,即使在另一位置处拍摄图像或视频时用户也可以更容易地匹配多个点,同时仍然减少图像抖动。
图7A和图7B示出了根据一个或多个示例实施例的第一参考点与第二参考点不匹配的示例情况。
第一图像700和第二图像701在图7A中示出。在第一图像700上,显示第一参考点711并且还显示边界框710。例如,可以通过在宫殿入口前拍摄宫殿的图像来获得第一图像700。第二图像701可以通过改变相机位置后从宫殿入口的侧面拍摄宫殿的图像来获得。当相机的位置改变时,可以基于点跟踪在第二图像701中识别参考点。例如,可以在第二图像701中识别第二参考点730。
处理器1010可以确定第一参考点711与第二参考点730是否匹配。当第一参考点711与第二参考点730匹配时,处理器1010可以确定相机是否保持水平。
现在参照图7B描述第一参考点711与第二参考点730不匹配的示例。当第一参考点711与第二参考点730不匹配时,处理器1010可以在屏幕上显示第一引导750(即,第一用户界面)。例如,当第二参考点730需要移动到目标位置770以进行匹配时,处理器1010可以显示第一引导750。在该示例中,用户可以在查看第一引导750的同时改变相机的位置以将第二参考点730移动到目标位置770。用户可以通过第一引导750容易地将参考点匹配,并且因此可以获得避免抖动的图像或视频。第一引导可以以多种方式实施。图7B的示例是简单的箭头。在另一示例中,第一引导可以是目标位置770的表示(例如,点图形或边界框图形)。第一引导可以包括基于第一点、第二点和/或这些点之间的差异生成的图形。第一引导可以是基于第一参考点生成的用户界面,并且也可能是基于第二参考点生成的。在一些实施例中,第一引导可以是交互式“实时取景”用户界面,其中重复捕获和显示新的第二图像并且在其中重复识别第二参考点,从而在用户调整相机时向用户提供反馈,直到新的第二图像具有匹配的第二参考点。
图8示出了根据一个或多个示例实施例的在屏幕上显示第二引导的示例。
图8示出了第二引导810(即,第二用户界面)。第二引导810可以包括相机的水平轴指示符820和旋转方向指示符830。水平轴指示符820可以是基于传感器信息指示相机的当前水平旋转的参考线图形。旋转方向指示符830可以指示相机需要旋转以保持相机水平的方向和/或角度。也就是说,旋转方向指示符830可以指示并且基于相机的当前水平旋转与水平线之间的差异的方向(并且可能还有角度)。例如,水平旋转的角度越大,旋转方向指示符830可以越大。然后,用户可以在参照屏幕上显示的第二引导810的同时将相机调整为水平。第二引导810可以是交互式的。例如,显示的图像可以是相机的实时取景,并且在用户调整相机时水平轴指示符820和旋转方向指示符可以重复更新以反映相机的当前的水平旋转。
图9示出了根据一个或多个示例实施例的自动使第一参考点与第二参考点匹配的示例。
根据示例实施例,当第一参考点与对应的第二参考点不匹配时,处理器1010可以调整相机的摇摄、倾斜和/或变焦以使第一参考点与第二参考点匹配。相机可以是例如能够控制方向改变、放大和缩小的云台(PTZ)相机。摇摄是向左和向右旋转,倾斜是向上和向下旋转,并且可以通过变焦来进行放大或缩小。
根据示例实施例,处理器1010可以通过调整相机的摇摄、倾斜和/或变焦来使第一参考点与对应的第二参考点匹配。例如,当屏幕900上的第二参考点930与第一参考点不匹配时,可能需要将相机移动到目标位置950以将第二参考点930与第一参考点匹配。在该示例中,处理器1010可以在屏幕900上显示第一引导910。处理器1010可以通过调整摇摄、倾斜和/或变焦来将第一参考点与第二参考点匹配,如屏幕901中所示,而不必由用户改变相机的位置(尽管可以补偿用户移动)。处理器1 010由此可以自动匹配参考点并且允许用户更少地操纵相机,因此用户可以更方便地拍摄与超延时视频相关的图像或视频。在一些实施例中,可以不显示第一引导,或者可以显示指示正在进行自动相机调整的另一图形。在显示第一引导910的实施例中,引导可以随着PTZ相机的调整而实时更新。
图10示出了根据一个或多个示例实施例的示例电子设备。
参照图10,电子设备1000可以包括处理器1010、存储器1020和通信接口1030。存储器1020、处理器1010和通信接口1030可以通过通信总线1040彼此连接。尽管上面的描述以单数形式提及“处理器1010”,但是这样的描述是为了方便并且单个处理器1010代表一个或多个处理器。
电子设备1000可以是或者可以被包括在便携式电子设备中。便携式电子设备可以是用户可以随身携带的电子设备。便携式电子设备可以是电子设备之一,诸如超移动个人计算机(UMPC)、工作站、上网本、个人数字助理(PDA)、便携式计算机、网络平板电脑、无线电话、移动电话、智能手机、电子书、便携式多媒体播放器(PMP)、便携式游戏机、导航设备、黑匣子和数码相机。
电子设备1000还可以包括相机模块。相机模块可以拍摄图像(例如,静止图像)和/或视频(例如,运动图像)。相机模块可以包括例如一个或多个镜头、图像传感器、图像信号处理器(ISP)或闪光灯。
存储器1020可以存储在上述处理器1010的处理过程中生成的各种信息。此外,存储器1020可以存储各种数据和程序(以指令的形式)。存储器1020可以包括易失性存储器或非易失性存储器。存储器1020可以包括诸如硬盘的大容量存储介质以存储各种数据。
处理器1010可以是硬件实现的设备,其具有物理结构化的电路以执行期望的操作。期望的操作可以包括例如包含在程序中的代码或指令。作为非限制性示例,硬件实现的设备可以包括微处理器、中央处理单元(CPU)、图形处理单元(GPU)、处理器核、多核处理器、多处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)和神经网络处理单元(NPU)。
处理器101 0可以执行程序并控制电子设备1000,并且要由处理器1010执行的程序的代码可以存储在存储器1020中。
图11示出了根据一个或多个示例实施例的相机模块的示例。
参照图11,相机模块1180可以包括镜头组件1110、闪光灯1120、图像传感器1130、图像稳定器1140、存储器1150(例如,缓冲存储器)或ISP 1160。镜头组件1110可以收集从作为要被拍摄的图像的目标的物体发射的光。镜头组件1110可以包括一个或多个镜头。例如,相机模块1180可以包括多个镜头组件1110。在该示例中,相机模块1180可以被提供为例如双相机、360度相机或球形相机。镜头组件1110的一部分可以具有相同的镜头特性(例如,视角、焦距、自动对焦、f数或光学变焦),或者至少一个镜头组件1110可以具有一个或多个不同于镜头组件1110的另一部分的镜头特性。镜头组件1110可以包括例如广角镜头或远摄镜头。
闪光灯1120可以发射光以用于增强从对象(例如,目标或物体)发射或反射的光。例如,闪光灯1120可以包括一个或多个发光二极管(LED)(例如,红-绿-蓝(RGB)LED、白光LED、红外(IR)LED或紫外(UV)LED)或氙灯。图像传感器1130可以通过将从对象发射或反射并透射通过镜头组件1110的光转换成电信号,来获得与对象相对应的图像。图像传感器1130可以包括例如从具有不同特性的图像传感器(诸如RGB传感器、黑白(BW)传感器、IR传感器或UV传感器)中选择的一个图像传感器、具有相同特性的多个图像传感器、或者具有不同特性的多个图像传感器。包括在图像传感器1130中的每个图像传感器可以使用例如电荷耦合器件(CCD)传感器或互补金属氧化物半导体(CMOS)传感器来实施。
图像稳定器1140可以响应于相机模块1180或包括相机模块1180的电子设备1000的移动,沿特定方向移动包括在镜头组件1110中的至少一个镜头或图像传感器1130,或者控制图像传感器1130的操作特性(例如,读出定时等)。这可以补偿该移动对要被拍摄的图像的至少一部分负面影响。根据示例实施例,图像稳定器1140可以使用布置在相机模块1180内部或外部的陀螺仪传感器(未示出)或加速度传感器(未示出)来感测相机模块1180或电子设备1000的这种移动。图像稳定器1140可以被实现为例如光学图像稳定器。存储器1150可以至少暂时在其中存储通过图像传感器1130获得的图像的至少一部分以用于后续图像处理操作。例如,当图像的获得被快门延迟或以高速获得图像序列时,获得的原始图像(例如,拜耳模式图像或高分辨率图像)可以存储在存储器1150中,并且可以通过显示器预览与原始图像相对应的复制图像(例如,低分辨率图像)。随后,当指定条件(例如,用户输入或系统命令)被满足时,存储在存储器1150中的原始图像的至少一部分可以由ISP 1160获得和处理。根据示例实施例,存储器1150可以被配置为图10的存储器1020的至少一部分或者被配置为独立于存储器1020操作的单独存储器。
ISP 1160可以对通过图像传感器1130获得的或存储在存储器1150中的图像执行一个或多个图像处理操作。图像处理操作可以包括例如深度图生成、三维(3D)建模、全景图生成、特征点提取、图像合成或图像补偿(例如,降噪、分辨率调整、亮度调整、模糊、锐化或柔化)。附加地或备选地,ISP 1160可以控制包括在相机模块1180中的一个或多个组件(例如,图像传感器1130)。例如,ISP 1160可以控制曝光时间、读出定时等。由ISP 1160处理的图像可以被存储回存储器1150以供进一步处理,或者被提供给相机模块1180的外部组件(例如,图10的存储器1020和处理器1010)。根据示例实施例,ISP 1160可以被配置为处理器(例如,处理器1010)的至少一部分或者被配置为独立于处理器操作的单独处理器。例如,当ISP 1160被配置为与处理器分离的处理器时,由ISP 1160处理的一个或多个图像可以由显示器按原样显示,或者在由单独的处理器执行附加图像处理之后按照改变后的形式显示。
根据示例实施例,电子设备1000可以包括具有不同特性或功能的多个相机模块1180。在这种情况下,例如,至少一个相机模块1180可以是广角相机,并且至少另一相机模块1180可以是长焦相机。类似地,至少一个相机模块1180可以是前置相机,并且至少另一相机模块1180可以是后置相机。
本文关于图1至图11描述的计算装置、电子设备、处理器、存储器、图像传感器、显示器、信息输出系统和硬件、存储设备和其他装置、设备、单元、模块和组件由硬件组件实现或代表硬件组件。在适当的情况下可以用于执行本申请中所描述的操作的硬件组件的示例包括控制器、传感器、生成器、驱动器、存储器、比较器、算术逻辑单元、加法器、减法器、乘法器、除法器、积分器、以及被配置为执行本申请所述的操作的任何其他电子组件。在其他示例中,执行本申请中所描述的操作的一个或多个硬件组件由计算硬件(例如,由一个或多个处理器或计算机)实现。处理器或计算机可以由一个或多个处理元件(例如,逻辑门阵列、控制器和算术逻辑单元、数字信号处理器、微计算机、可编程逻辑控制器、现场可编程门阵列、可编程逻辑阵列、微处理器、或被配置为以定义的方式响应并执行指令以实现期望的结果的任何其他设备或设备的组合)来实现。在一个示例中,处理器或计算机包括(或连接到)存储由处理器或计算机执行的指令或软件的一个或多个存储器。由处理器或计算机实现的硬件组件可以执行指令或软件,例如,操作系统(OS)和在OS上运行的一个或多个软件应用,以执行本申请中描述的操作。硬件组件还可以响应于指令或软件的执行,访问、操纵、处理、创建和存储数据。为了简洁起见,在本申请中描述的示例的描述中可以使用单数术语“处理器”或“计算机”,但是在其他示例中可以使用多个处理器或计算机,或者处理器或计算机可以包括多个处理元件、或多种类型的处理元件、或两者兼有。例如,单个硬件组件或者两个或更多个硬件组件可以由单个处理器、或两个或更多个处理器、或者处理器和控制器来实现。一个或多个硬件组件可以由一个或多个处理器、或处理器和控制器实现,并且一个或多个其他硬件组件可以由一个或多个其他处理器、或另一处理器和另一控制器实现。一个或多个处理器、或者处理器和控制器可以实现单个硬件组件、或者两个或更多个硬件组件。硬件组件可以具有不同的处理配置中的任一种或多种,所述处理配置的示例包括单处理器、独立处理器、并行处理器、单指令单数据(SISD)多处理、单指令多数据(SIMD)多处理、多指令单数据(MISD)多处理、和多指令多数据(MIMD)多处理。
执行本申请描述的操作的图1至图11中示出的方法由计算硬件执行,例如,由按照如上描述实现的、执行指令或软件以执行本申请所述的操作(通过所述方法实现的操作)的一个或多个处理器或计算机来执行。例如,单个操作或者两个或更多个操作可以由单个处理器、或者两个或更多个处理器、或者处理器和控制器执行。一个或多个操作可以由一个或多个处理器或者处理器和控制器执行,并且一个或多个其他操作可以由一个或多个其它处理器或者另一处理器和另一控制器执行。一个或多个处理器或者处理器和控制器可以执行单个操作或者两个或更多个操作。
用于控制计算硬件(例如,一个或多个处理器或计算机)以实现硬件组件并执行如上所述的方法的指令或软件可以被编写为计算机程序、代码段、指令或其任何组合,用于单独或共同指示或配置一个或多个处理器或计算机以作为机器或专用计算机操作从而执行由上述硬件组件和方法执行的操作。在一个示例中,指令或软件包括由一个或多个处理器或计算机直接执行的机器代码,诸如由编译器生成的机器代码。在另一示例中,指令或软件包括由一个或多个处理器或计算机使用解释器执行的更高级的代码。可以基于附图中所示出的框图和流程图以及本文中的对应的描述(其公开了用于执行由硬件组件执行的操作和如上所述的方法的算法),使用任何编程语言,编写指令或软件。
用于控制计算硬件(例如,一个或多个处理器或计算机)实现硬件组件并执行如上所述的方法的指令或软件以及任何相关联的数据、数据文件和数据结构可以被记录、存储或固定在一个或多个非暂时性计算机可读存储介质中或其上。非暂时性计算机可读存储介质的示例包括:只读存储器(ROM)、随机存取可编程只读存储器(PROM)、电可擦除可编程只读存储器(EEPROM)、随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、闪存、非易失性存储器、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、D VD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、蓝光或光盘存储设备、硬盘驱动器(HDD)、固态驱动器(SSD)、闪存、卡类型的存储器(比如,多媒体卡或微型卡(例如,安全数字(SD)或极限数字(XD)))、磁带、软盘、磁光数据存储设备、光学数据存储设备、硬盘、固态盘、以及被如下配置的任何其它设备:以非暂时性方式存储指令或软件以及任何相关联的数据、数据文件和数据结构,并且向一个或多个处理器或计算机提供指令或软件以及任何相关联的数据、数据文件和数据结构,使得一个或多个处理器或计算机可以执行该指令。在一个示例中,指令或软件以及任何相关联的数据、数据文件和数据结构分布在联网的计算机系统上,使得一个或多个处理器或计算机以分布方式存储、访问和执行所述指令和软件以及任何相关联的数据、数据文件和数据结构。
尽管本公开包括特定示例,但是在理解了本申请的公开内容之后将显而易见的是,在不脱离权利要求及其等同物的精神和范围的情况下,可以对这些示例进行形式和细节上的各种改变。本文描述的示例应仅被认为是描述性的,而不是为了限制的目的。每个示例中的特征或方面的描述被认为适用于其他示例中的类似特征或方面。如果所描述的技术以不同的顺序执行和/或如果所描述的系统、架构、设备或电路中的组件以不同的方式组合和/或被其他组件或其等同物替换或补充,则可以实现合适的结果。
因此,除上述公开内容外,本公开内容的范围还可以由权利要求及其等同物定义,在权利要求及其等同物范围内的所有变化均应理解为包含在本公开内容中。

Claims (21)

1.一种生成超延时视频的方法,所述方法包括:
将第一图像的第一参考点与第二图像的对应的第二参考点进行比较;
基于所述比较,显示用于将所述第一参考点与所述第二参考点匹配的第一用户界面;以及
基于所述第一参考点与所述第二参考点是否匹配,确定是否执行用于所述超延时视频的自动拍摄。
2.根据权利要求1所述的方法,还包括:
自动识别图像中的候选点;以及
基于选择参考点的用户输入从所述候选点中确定所述参考点。
3.根据权利要求2所述的方法,其中,基于在所述图像中检测到的对象的边界框来识别所述候选点。
4.根据权利要求2所述的方法,其中,基于位于边界框上或边界框内来识别所述候选点。
5.根据权利要求1所述的方法,其中,通过跟踪所述第二图像中的与所述第一参考点相对应的点来识别所述第二参考点。
6.根据权利要求1所述的方法,还包括:
基于确定所述第一参考点与所述第二参考点不匹配,显示所述第一用户界面;以及
当所述第一参考点与所述对应的第二参考点匹配时,确定相机是否是水平的。
7.根据权利要求1所述的方法,还包括:
基于确定所述第一参考点与所述对应的第二参考点不匹配,通过自动调整相机的摇摄、倾斜或变焦使所述第一参考点与所述第二参考点匹配。
8.根据权利要求1所述的方法,还包括:
显示表示相机的水平状态的第二用户界面,其中,显示所述第二用户界面是基于所述比较的。
9.根据权利要求8所述的方法,还包括:
基于所述相机的所述水平状态来执行所述自动拍摄。
10.根据权利要求8所述的方法,还包括:
响应于确定所述相机是水平的,执行所述自动拍摄;以及
响应于确定所述相机不是水平的,显示所述第二用户界面。
11.根据权利要求2所述的方法,还包括:
与所述参考点的确定相关联地确定相机的相机设置值;以及
固定所确定的相机设置值。
12.根据权利要求11所述的方法,其中,确定所述相机设置值包括:基于所述参考点来确定帧率。
13.根据权利要求11所述的方法,其中,固定所述相机设置值包括:固定所述相机的白平衡值或曝光时间。
14.根据权利要求11所述的方法,其中,固定所述相机设置值包括:固定所述相机的感光度值或光圈值。
15.根据权利要求1所述的方法,其中,所述自动拍摄包括:在不具有启动拍摄的用户输入的情况下拍摄一系列图像或视频帧。
16.根据权利要求1所述的方法,其中,执行所述自动拍摄包括:使用自动对焦功能自动进行对焦。
17.一种电子设备,包括:
相机;
一个或多个处理器;
存储指令的存储设备,所述指令被配置为在由所述一个或多个处理器执行时使所述一个或多个处理器:
将第一图像的第一参考点与第二图像的对应的第二参考点进行比较;
基于所述比较的结果,显示用于将所述第一参考点与所述第二参考点匹配的第一用户界面;以及
基于所述第一参考点与所述第二参考点是否匹配来执行自动拍摄。
18.根据权利要求17所述的电子设备,其中,所述指令还被配置为使所述一个或多个处理器:
确定图像中的候选点;以及
基于用户选择输入从所确定的候选点中确定参考点。
19.根据权利要求17所述的电子设备,其中,所述指令还被配置为使所述一个或多个处理器:
响应于确定所述第一参考点与所述对应的第二参考点不匹配,显示所述第一用户界面。
20.一种在包括相机和显示器的便携式电子设备中生成超延时视频的方法,所述方法包括:
当所述便携式电子设备处于第一位置处时通过所述相机获取第一图像;
确定所述第一图像中的候选点;
在所述显示器上显示所确定的候选点;
基于用户选择输入确定所述候选点中的一个作为第一参考点;以及
当在所述便携式电子设备处于第二位置处时通过所述相机获取第二图像时:基于在所述第二图像中检测到的参考对象来确定第二参考点;以及
响应于确定所述第一参考点与所述第二参考点匹配来执行自动拍摄。
21.根据权利要求20所述的方法,还包括:
响应于确定所述第一参考点与所述第二参考点不匹配,在所述显示器上显示第一用户界面。
CN202310685374.0A 2022-11-01 2023-06-09 超延时视频生成方法和装置 Pending CN117998211A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220143745A KR20240062469A (ko) 2022-11-01 2022-11-01 하이퍼랩스 동영상 생성 방법 및 장치
KR10-2022-0143745 2022-11-01

Publications (1)

Publication Number Publication Date
CN117998211A true CN117998211A (zh) 2024-05-07

Family

ID=87553832

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310685374.0A Pending CN117998211A (zh) 2022-11-01 2023-06-09 超延时视频生成方法和装置

Country Status (4)

Country Link
US (1) US20240147053A1 (zh)
EP (1) EP4366323A1 (zh)
KR (1) KR20240062469A (zh)
CN (1) CN117998211A (zh)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160295129A1 (en) * 2015-03-30 2016-10-06 Futurewei Technologies, Inc. System and method for creating time-lapse videos

Also Published As

Publication number Publication date
EP4366323A1 (en) 2024-05-08
KR20240062469A (ko) 2024-05-10
US20240147053A1 (en) 2024-05-02

Similar Documents

Publication Publication Date Title
CN107087107B (zh) 基于双摄像头的图像处理装置及方法
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
CN109565551B (zh) 对齐于参考帧合成图像
CN107409166B (zh) 摇摄镜头的自动生成
US10257502B2 (en) Methods and apparatus for controlling light field capture
CN109544620B (zh) 图像处理方法和装置、计算机可读存储介质和电子设备
KR101953813B1 (ko) 통합 메모리 및 프로세서를 갖는 스마트 이미지 센서
KR20210089166A (ko) 신경망을 사용한 밝은 반점 제거
US11736792B2 (en) Electronic device including plurality of cameras, and operation method therefor
CN110536057A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
US8922627B2 (en) Image processing device, image processing method and imaging device
CN109194877A (zh) 图像补偿方法和装置、计算机可读存储介质和电子设备
EP3163346B1 (en) Autofocusing a macro object by an imaging device
JP2020053774A (ja) 撮像装置および画像記録方法
CN110490196A (zh) 主体检测方法和装置、电子设备、计算机可读存储介质
KR20160111757A (ko) 영상 촬영 장치 및 이의 촬영 방법
JP2004133919A (ja) 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体
JP6483661B2 (ja) 撮像制御装置、撮像制御方法およびプログラム
CN115623313A (zh) 图像处理方法、图像处理装置、电子设备、存储介质
CN117998211A (zh) 超延时视频生成方法和装置
JP6157238B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN116097308A (zh) 自动摄影构图推荐
KR101774913B1 (ko) 전처리를 이용한 영상 디스플레이 방법 및 장치
JP2005216191A (ja) ステレオ画像処理装置およびステレオ画像処理方法
JP2014057261A (ja) 画像生成装置、画像生成方法、撮像装置、および撮像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication