CN105531988A - 从连拍照片捕获集合中自动选择保存者图像 - Google Patents
从连拍照片捕获集合中自动选择保存者图像 Download PDFInfo
- Publication number
- CN105531988A CN105531988A CN201480049340.1A CN201480049340A CN105531988A CN 105531988 A CN105531988 A CN 105531988A CN 201480049340 A CN201480049340 A CN 201480049340A CN 105531988 A CN105531988 A CN 105531988A
- Authority
- CN
- China
- Prior art keywords
- image
- images
- face
- instruction
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/147—Scene change detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明描述了用于改进从共同捕获的图像集中自动选择保存者图像的系统和方法。可使用图像类型识别和图像质量度量的组合来将集合中的一个或多个图像识别为保存者图像。可使用图像类型识别来将所捕获的图像分类为例如三个或更多个类别。类别可包括肖像、动作或“其他”。根据所识别的类别,可以不同方式来分析图像以识别保存者图像。对于肖像图像,可使用操作来识别最佳面部集合。对于动作图像,可将集合划分成部分,使得从每个部分选择的保存者图像讲述动作的经过。对于“其他”类别,可分析图像,使得对于所识别的感兴趣区域具有较高质量度量的那些图像被选择。
Description
背景技术
本公开整体涉及数字摄影领域。更具体地但非限制性地,本公开涉及用于从在连拍照片捕获模式期间拍摄的一连串图像中选择图像的技术。如本文所用,连拍照片捕获模式通常是指允许用户在短时间内捕获多张照片的相机设置。这多张照片通常是在用户进行选择并按一次按钮之后自动拍摄的,并且它们通常是以特定速率被捕获。速率例如可以是每秒10张照片。
通常,用户出于特定原因而利用这种模式。一种此类原因可能是为了捕获动作拍摄,诸如儿童跳入游泳池中或吹灭生日蜡烛。在此类情况下,用户可能希望以记录事件的顺序(即在具体事件之前、期间或之后)的多张照片来捕获事件。然而,由于事件发生的速率很快,所以通过独立按钮按压来手动地捕获准确期望瞬间可能非常困难。使用连拍捕获模式允许用户在短时间内捕获多张照片,因此提高所拍摄的照片中有准确期望瞬间的照片的可能性。在此类动作照片连拍捕获中,常常在照片被拍摄之后,用户可决定保存若干张照片,例如以示出事件之前、期间、和之后。
用户决定利用连拍捕获模式的另一个可能的原因是为了拍摄多个人的肖像照片。这可能在用户正在拍摄团体照片并且希望使照片中的所有人微笑、不眨眼、并且以无遮挡的视线看着相机时发生。
还可能的是,在场景中没有特定动作或人,但用户希望能够从多张照片中挑选以便找到某个美景中的最佳照片。捕获喷泉和瀑布的照片是与此类似的情形的一些实力。
虽然连拍捕获模式对于动作场景、多人场景、或为了提供从多个照片捕获中选取最佳照片捕获的选项可能是非常有用的,但通常并不经常使用,因为其往往很快占满存储器存储空间。此外,用户不得不查看连拍期间拍摄的多张照片来选择一张或多张保存者照片,这可能是费时且枯燥的任务。
发明内容
在一个实施例中提供了一种用于接收和保持图像集合中的图像序列的方法。该方法包括检测图像序列中的图像中的每个图像是否包含面部或者场景是否包含动作。使用该检测,这个集合中的图像然后可被分类。在一个实施例中,如果检测到一个或多个图像主要包含面部,则这些图像可被分类为肖像。在一些实施例中,如果检测到场景包含动作,则这些图像可被分类为动作图像。然后为所获取的图像中的每个所获取的图像确定至少一个质量度量值。质量度量值可包括例如图像的锐度值。在其它实施例中,质量度量值可包括模糊度度量。在确定质量度量值并且对图像分类之后,从图像集合中选择一个或多个图像作为保存者图像。在一个实施例中,基于所述分类和至少一个质量度量值来选择保存者图像。在进行选择之后,一个或多个保存者图像可被呈现给用户。
在另一个实施例中,一种用于从图像的连拍捕获集合中预选择保存者图像的方法包括确定图像集合中的所检测到的面部是否正在微笑或眨眼。在一个实施例中,还可计算每个面部的锐度值。在另一个实施例中,为了确定场景是否包含动作,可由图像构建特征向量并将其在分类器中使用。在一些实施例中,如果图像被分类为动作,则图像序列可被划分成两个或更多个部分,并且可从每个部分中选择一个保存者图像。
在另外一个实施例中,如果没有检测到图像集合主要包含面部或者如果在场景中没有检测到动作,则图像可被分类为“其他”。在一些具体实施中,从所接收的图像的序列中选择一个或多个保存者图像包括识别图像中的感兴趣区域以及基于所述感兴趣区域的至少一个质量度量值来从图像序列中选择一个或多个保存者图像。识别感兴趣区域可包括将图像序列中的每两个图像相对于彼此配准、将所配准的图像彼此进行比较、以及识别所配准的图像中的其中所配准的图像之间的差值大于指定阈值的区域。
附图说明
图1以流程图形式示出了根据一个实施例的图像连拍捕获操作。
图2以流程图形式示出了根据一个实施例的图像处理操作。
图3以流程图形式示出了根据另一实施例的连拍集合分类操作。
图4以流程图形式示出了根据一个实施例的针对肖像的保存者图像选择操作。
图5以流程图形式示出了根据一个实施例的针对动作连拍的保存者图像选择操作。
图6以流程图形式示出了根据一个实施例的保存者图像选择操作。
图7以框图形式示出了根据一个实施例的多功能电子设备。
具体实施方式
本公开涉及用于从以连拍照片捕获模式拍摄的多个图像中自动预选择一个或多个图像作为保存者图像的系统、方法、和计算机可读介质。在一个实施例中,可使用一种新颖的方法来确定拍摄者使用连拍捕获模式的原因。这例如可通过分析图像以确定图像是否主要包含面部或者图像是否跟踪场景中的某个动作来实现。基于所确定的原因,连拍可被分类为动作、肖像或其他。
在对连拍进行分类之后,该方法可分析所捕获的图像集合。根据所选择的类别,该方法可使用不同标准来从图像集合中预选择一个或多个图像作为保存者图像。对于肖像连拍,该方法可选择具有最多微笑、非眨眼的面部的一个图像。对于动作连拍,该操作可将图像集合划分成各自涵盖动作的不同阶段的部分,并从每个部分中选择一个保存者图像。对于被分类为其他的连拍,该方法可识别图像集合中的感兴趣区域,并选择对于所识别的感兴趣区域具有较高质量度量的保存者图像。
在一个实施例中,用于预选择最佳的一个或多个图像的技术可利用在正常图像处理期间进行的某些计算,从而不需要大量的后期处理时间。这意味着为了预选择一个或多个保存者图像而进行的计算可能并不会被用户察觉,因此几乎在图像被捕获后立即允许用户访问预选择的图像。在一个实施例中,在图像处理期间进行的计算和为了预选择保存者图像而进行的计算不影响连拍捕获帧速率。因此不仅用户没有感受到图像捕获与预选择的保存者图像的呈现之间有任何明显的能察觉到的延迟,而且还不影响正常连拍捕获帧速率。
在以下描述中,为了解释的目的,阐述了很多具体细节,以便提供对发明构思的彻底理解。作为该描述的一部分,本公开的附图中的一些附图以框图形式表示结构和设备,以避免模糊本发明。为了清晰起见,不对实际具体实施的所有特征进行描述。此外,本公开中所使用的语言主要是为了可读性和指导性的目的而被选择,并且可能没有被选择用于描绘或界定本发明的主题,从而为了确定此类发明主题有必要诉诸于权利要求。在本公开中提到“一个实施例”(“oneembodiment”或“anembodiment”)意指被包括在本发明的至少一个实施例中的结合该实施例所述的特定特征、结构或特性,并且多次提到“一个实施例”(“oneembodiment”或“anembodiment”)不应被理解为必然地全部参考相同的实施例。
应当理解,在任何实际具体实施的开发中(如在任何开发项目中那样),必须要作出许多决策以实现开发者的特定目标(例如,符合与系统和商务相关的约束),并且这些目标在不同具体实施之间可能各不相同。还应当理解,此类开发工作可能是复杂并且耗时的,但尽管如此,对于在受益于本公开而设计和实施图像处理系统的那些普通技术人员而言,这仍然是他们的日常工作。
从连拍捕获模式期间拍摄的图像集合中预选择保存者图像的一种新颖方法是首先捕获和处理图像。参考图1,在根据这种方法的一个实施例中,操作100在连拍捕获操作被启动时开始(框105)。在一个实施例中,这可通过将相机模式设置为连拍捕获并按下图像捕获按钮来实现。在启动连拍捕获模式后,相机可开始拍摄多张照片(框110)并接收所拍摄的每张照片的图像数据(框115)。
如本文所使用的,术语“相机”是指包括或结合数字图像捕获功能的任何电子设备。例如,这包括独立相机(例如,数字SLR相机和“点击式”相机)以及具有嵌入式相机能力的其他电子设备。该后一种类型的实例包括但不限于移动电话、平板电脑和笔记本计算机系统以及数字媒体播放器设备。
这些照片通常是在短时间内以特定速率拍摄的。连拍拍摄的照片的数量在不同实施例中可不同。在一个实施例中,用户可按下并保持图像捕获按钮直到完成拍摄照片。在此类实施例中,所拍摄的照片的数量可能根据图像捕获速率而不同。捕获速率可例如为每秒6张、8张或10张照片。在一个实施例中,用户可能够选择捕获速率。还可能存在在每次连拍捕获期间可拍摄的照片的最大数量。例如,最大数量可为999。其他数量也是可能的。在一个实施例中,用户可具有从可用选项范围中选择拍摄照片的数量的能力。例如,用户可能够在100张、200张或500张照片之间进行选择。在一个实施例中,可使用专用图像缓冲存储器来保持所捕获的图像。在另一个实施例中,可使用通用存储器。
在接收每张照片的图像数据时,数据可在其被接收时被处理(框120)。在一个实施例中,这是实时进行的,使得用户不会察觉到捕获图像和查看图像之间有任何明显的延迟。通常,只有有限量的时间可供处理图像使用。例如,在连拍捕获期间以每秒10个图像的速率捕获10个图像的实施例中,可有100毫秒可用于接收并处理每个图像并进行分析以预选择保存者图像。大多数处理时间通常是被需要用于编码、存储图像、以及在一个实施例中维持用于显示连拍捕获进度的交互式用户界面。因此,可用于执行分析以预选择保存者图像的时间可能非常有限。在一个实施例中,实时数据收集和处理占可用时间总量的不超过35%-55%。对于以每秒10个图像的速率捕获的连拍,这意味着35毫秒-55毫秒用于数据收集、处理和分析。本说明书中所述的实施例通常能够满足这些时间约束。
参见图2,在处理操作120(图1的框120)中所接收的每个图像可开始于将图像划分成较小区域(例如区块、块片或片断)(框200),以使对图像执行的多个计算的处理更快且更高效。在一个实施例中,区块为32×32。在另一个实施例中,区块为16×16。其他变型也是可能的。作为另外一种选择,图像整体被选择作为一个区域。在一个实施例中,为了使处理更高效,图像也可被缩小,如本领域中熟知的那样。
在已将图像分成较小区块之后,可根据图像内容和/或运动传感器数据(例如陀螺仪和加速度计传感器)来处理这些区块以确定图像质量度量。这些技术可单独使用,也可结合在一起使用,这具体取决于具体使用情形和/或系统资源。在一种具体实施例中,在正常照明条件期间可使用来自相机AF和/或AE系统的输出来生成质量度量,而在低光条件期间可使用相机的一个或多个运动传感器。质量度量可直接与每个图像相关联(例如与作为元数据的图像一起存储),或者间接与每个图像相关联(例如通过单独的索引文件或数据库文件)。
在一个实施例中,处理图像并确定质量度量的第一步骤可涉及在UV色彩空间中创建图像的颜色直方图(框205)。在一个实施例中,颜色直方图可以是其中U值作为一个维度而V值作为另一维度的二维直方图。图像可被划分成具有作为第i区域的维度的Ui和Vi的多个区域。例如在一个实施例中,U1可包含0至7之间的任何U值。如果发现颜色落在Ui和Vi内,则可递增对应于(Ui,Vi)的“图格”。图格的尺寸可以是一致的,或者它们可被调节,使得其中颜色组合更常见的区域由更多图格表示。这可使图格中计数的分布提供更多信息。这例如意味着,由于中心附近的颜色更常见,所以可通过使区域小(例如在每个维度中具有更少的颜色)来将更多图格放置在中心附近。远离中心,可通过在每个维度中具有更多颜色来使区域更大。这个过程可被称为区块中心加权图格。在已创建颜色直方图之后,可计算表征图像锐度的质量量度(框210)。可例如从相机的自动对焦(AF)和/或自动曝光(AE)系统获取或确定锐度量度。在一个实施例中,可通过计算相邻像素差值之和来确定锐度量度。其他确定锐度的方法也是可能的。为了本公开的目的,判定图像越锐利,其对应的等级(例如质量度量值)越高。
在确定一个或多个锐度量度之后,可针对每个区块计算小波变换(框215)以压缩图像,从而使进一步的计算更高效。在一个实施例中,小波变换可以是哈尔变换(Haartransform)。计算哈尔小波变换在本领域中是熟知的,因此在这里不进行讨论。在计算小波变换之后,可推导图像中存在的模糊量(框220)。在一个实施例中,从所计算的小波变换推导模糊量。其他方法也是可能的。在标题为“ReferenceFrameSelectionforStillImageStabilization”的美国专利申请13/911,873中讨论了一种用于确定在图像中存在的模糊量的方法,该美国专利申请全文以引用方式并入本文。
在一个实施例中,在已计算存在于图像中的模糊量之后,确定图像是否太模糊而不能使用(框225)。这在一个实施例中通过将存在于图像中的模糊量与预定阈值进行比较来实现。如果存在于图像中的模糊量高于预定阈值,或者在一些实施例中如果另一所计算的质量量度低于另一阈值,则可确定图像太模糊。阈值可以是不变的或预先确定的(例如在相机启动期间从程序存储器获取)或者是动态的(例如基于图像统计来确定)。在一个实施例中,如果图像的质量量度中的一个或多个质量量度明显小于图像集合的最大质量度量值,则可认为图像太模糊而不能使用。在另一具体实施中,如果图像的质量度量小于图像集合的最大质量度量值乘以一个比率,则可认为图像太模糊而不能使用(例如介于0.6与0.9之间的比率)。
不管以何种方法来确定模糊度,如果确定图像太模糊(框225的“是”分支),则图像可被丢弃或以其他方式被排除在进一步考虑之外,并且可进行检查以确定是否至少一个或多个所接收的图像还要被处理(框260)。如果图像并非太模糊而不能使用(框225的“否”分支),则可针对图像计算两个一维标签(框230)。标签可以是图像的竖直投影和水平投影的函数。在一个实施例中,标签是像素值的竖直和与水平和。
在一些具体实施中,处理图像中的下一步骤可以是确定图像是否包含面部。面部识别技术是本领域熟知的,因此在本说明书中不进行讨论。使用面部识别算法,操作可检测在图像中是否有面部(框235)。如果在图像中没有检测到面部(框235的“否”分支),则图像可被保持(框255),之后可进行检查以确定是否已接收集合中的所有图像(框260),并且如果是,则前进到图3的框305,以对图像集合进行分类。然而如果还有至少一个图像要被接收(框260的“是”分支),则操作可获取下一个图像,并前进到框200以处理下一个图像。
如果通过面部识别算法检测到一个或多个面部(框235的“是”分支),则操作可前进到框240,以确定每个面部的尺寸和位置。每个面部的位置可以是指图像上构成面部的像素的区块,并且尺寸可以是指区块的尺寸。对于所检测到的每个面部,操作还可确定面部是否正在微笑以及眼睛是睁开的还是正在眨眼(框245)。一旦已执行面部检测和分析,便可针对图像中检测到的每个面部计算锐度值(框250)。如上所述,存在多种已知过程来计算图像锐度值。使用这些已知过程中的一个已知过程,操作可在被检测为代表面部的每个像素区块上方计算独立锐度值。在计算面部锐度值之后,操作前进到框255以将图像与其处理数据一起保持,并前进到框260以确定图像集合中是否具有更多图像要处理。如果有更多图像,则操作返回到框200以针对下一个图像重复该过程。然而如果图像集合中没有其他图像,则操作前进到图3的框305以对图像集合进行分类。
在一些实施例中,在已接收和处理所有图像之后,在继续对图像集合进行分类之前,可确定最锐利图像(即根据框210来识别)与所捕获的每个其他图像的锐度度量值之间的比率。比率小于某个指定值的那些图像可由于不相干而被排除在进一步考虑之外。即,只有比率值大于指定阈值的那些图像才会被考虑用于预选择保存者图像。本领域中的普通技术人员将认识到,所选择的阈值可取决于任务或目标,并且在不同具体实施中可各不相同。这样做便消除低质量的并且不可能被选为保存者的图像。消除不需要的图像可提高效率并加快处理时间。在其它实施例中,可将图像彼此进行比较以确定是否有彼此太相似的图像。如果找到两个此类图像,则可从集合中消除一个图像。这也可导致效率提高。
用于对连拍中捕获的图像集合进行分类的操作300开始于确定图像是否主要包含面部(框305)。这在一个实施例中可通过分析在处理操作120期间收集的数据来实现。如果在操作120期间检测到面部,则操作还计算图像中每个面部的尺寸,如上文中参考图3所述的。在一个实施例中,对于每个图像,可将图像中的面部的尺寸加在一起,以计算那个图像的总面部尺寸。然后可将总面部尺寸与图像的总尺寸进行比较。如果总面部尺寸相对于图像的总尺寸高于某个阈值,则操作可确定那个特定图像主要包含面部。如果总面部尺寸低于该阈值,则操作可判定图像并非主要包含面部。在一个实施例中,阈值是75%,使得如果总面部尺寸小于总图像尺寸的75%,则认为图像并非主要包含面部。应该指出的是,其他阈值也是可能的。也可使用其他方法来确定集合中的图像是否主要包含面部。
在一个实施例中,如果图像集合中大多数图像主要包含面部,则操作300可将图像集合分类为肖像集合(框310)。在其它实施例中,如果集合中的50%或更多的图像主要包含面部,则集合被分类为肖像。其他配置也是可能的。当连拍被分类为肖像时,操作前进到图4(操作400)中的框405,以预选择肖像图像集合中的保存者图像。
如果确定图像集合并非主要包含面部(框305的“否”分支),则可在图像中识别感兴趣区域。这在一个实施例中可通过首先将每对图像相对于彼此配准来实现(框315)。存在多种熟知的方法来将图像相对于彼此配准。通过引用并入本文中的标题为“ImageRegistrationMethodsforStillImageStabilization”的美国专利申请13/911,793来描述一些此类方法。
在一个实施例中,可通过将在处理图像期间计算的两个标签(参见图2,框230)对齐来执行配准。在这两个图像已配准之后,将所配准的图像相互进行比较以确定其中它们之间存在大的差值的图像区域(框320)。所配准的图像之间的差值可被称为配准误差。在通过对齐竖直标签和水平标签来进行配准的实施例中,可通过检查所配准的竖直标签和所配准的水平标签之间的差值来进行比较。如果在这些数之间有大的差值,则可能在图像的那个区域中存在运动对象(即局部运动)。这通常是因为图像的背景决定性地影响了图像中的像素的数量。因此,配准可能是将一个图像的背景与另一个图像的背景对齐,从而在所配准的图像中的背景之间通常没有显著的差值。然而,当例如由于前景对象的运动而存在局部运动时,图像之间的差值可能较大。因此,将图像彼此配准并将所配准的图像彼此进行比较可识别图像之间的局部运动。包含局部运动的区域可被识别为感兴趣区域(框325)。例如,在使用竖直标签和水平标签的实施例中,如果竖直标签显示两个图像在其x列(x1和x2)之间具有大的差值并且水平标签在其y行(y1和y2)之间具有大的差值,则感兴趣区域可被识别为(x1,y1)和(x2,y2)。
在一个实施例中,可将感兴趣区域选为图像中的配准误差(即两个所配准的图像之间的差值)大于指定阈值的区域。应当理解,其他识别感兴趣区域的过程也是可能的。如果没有能够识别出局部运动(即所配准的图像之间的差值小),则可将整个图像识别为感兴趣区域。
一旦确定配准误差并识别感兴趣区域,便可由在处理图像期间到目前为止计算的多个数据值来构建特征向量(框330)。每个值可被视为特征,它们在被组合在一起时形成被称为特征向量的值的向量。在一个实施例中,用于形成特征向量的值中的一个值可以是所计算的颜色直方图。颜色直方图显示图像彼此之间相似或不同的程度。因此,如果颜色直方图显示图像太不同,则可能场景包含某种动作。可在形成特征向量中使用的其他值中的一个其他值是配准误差以绝对值形式的大小或者相对于彼此的大小。可使用的其他值是连拍开始和结束时图像之间的Y通道的L1误差以及图像对之间配准平移的欧几里德范数(Euclideannorm)的平均值(其可以是相机运动的合理代理)。也可使用其他类型的值来构建特征向量。
一旦构建了特征向量,来自特征向量的信息便可被输入到分类器(框340)诸如支持向量机(SVM)、人工神经网络(ANN)或贝叶斯分类器,以确定图像集合中所捕获的场景是否包含动作。在一个实施例中,在自动化使用之前,利用已手动分类的一组训练特征向量来训练分类器。分类器然后可返回用于指示图像是否包含动作的二元判定(框345)。如果该判定指示图像包含动作,则可将连拍分类为动作连拍(框350),并且操作可前进到操作500(图5)的框505以预选择动作图像集合中的保存者图像。如果分类器判定指示图像不包含(足够的)动作,则可将集合分类为其他(框355),并且操作可前进到图6中的操作600的框605以确定被分类为其他的集合中的一个或多个最佳图像。
参考图4,在一个实施例中,用于预选择被分类为肖像集合的图像中的保存者图像的操作400开始于针对集合中的每个图像中的每个面部计算锐度得分(框405)。如上所述,每个面部的锐度值通常在针对每个图像的处理操作120期间计算。通过对那些锐度值归一化,可为每个面部计算锐度得分。通过在整个图像集合上作为一个对象跟踪每个面部,在集合中的所有图像上对锐度值归一化。这可通过首先在集合中的所有图像上针对每个面部计算平均锐度值来实现。在一个实施例中,平均锐度值可以是在集合中的所有图像上方的对特定面部的眼睛所计算的图像梯度之和。其他获取平均锐度值的方式也是可能的。例如,集合中的图像中的每个图像中的面部的锐度值可被平均化以获取平均锐度值。一旦计算了每个面部的平均锐度值,便可将每个图像中的面部的锐度值除以该面部的平均锐度值,以获取相应面部的锐度得分。
一旦已针对每个面部计算了锐度得分,便针对面部计算总得分(框410)。总得分可通过分析在处理图像期间所收集的数据的各种类别来计算。可针对每个数据类别分配特定的得分范围。例如,可针对微笑面部和为未眨眼面部分配得分。在一个实施例中,每个数据类别具有可用作用于该类别的得分选项的数字范围。越高的得分可表示质量越好的图像。例如,用于指示面部正在微笑的数据可得到得分10,而非微笑面部可得到得分零。未眨眼的面部也可得到得分10,而眨眼的面部可得到得分零。所计算的锐度得分是对于总得分可考虑的另一类别。可影响总得分的其他数据类别包括面部的位置(例如面部是否靠近图像的边缘)以及面部占据的图像区域的位置。例如,靠近图像边缘可得到较低得分,而更靠近中央可得到较高得分。在一个实施例中,可使用摄影构图规则诸如三分法来建立关于面部应当位于何处的偏好。三分法是本领域中熟知的。在被加在一起以计算面部的总得分之前,这些类别中的每个类别的得分可被分配、然后被归一化。一旦已计算了图像中的所有面部的总得分,便可将总面部得分加在一起以得到图像的得分(框415)。
然后可对每个图像得分应用乘法因子(框420)。乘法因子可被选择为使得其对于具有面部的图像使图像得分更高。这便得到对于具有面部的图像的内置偏好。因此,如果在集合中存在不包含任何面部的图像,则这些图像被选为保存者图像的可能性较低。这对于被分类为肖像的图像集合是有利的,因为没有面部的图像不应被选为此类集合的保存者。一旦已对所有图像得分应用了乘法因子,具有最高得分的图像便可被选为连拍的保存者图像(框425),并且如此可被呈现给用户(框430)。
当在图像集合中没有检测到面部时,可将集合分类为动作或其他类型的集合。对于被分类为动作集合的集合,可将多个图像选为保存者图像。这在动作集合中通常是可取的,因为用户可能想要用图像来讲述动作的经过。为此,在连拍中捕获的图像集合可被划分成多个部分,并且可从每个部分中选择保存者图像。连拍的每个部分可包含与场景中特定的动作序列相关的图像。例如,如果所捕获的连拍是儿童从跳板跳入游泳池中,则第一部分可包括儿童站在板上的照片,第二部分可包括儿童在空中的照片,第三部分可包括儿童在水中的照片。在一个实施例中,存在图像集合可被划分成的部分的最大数量。例如在包含十个图像的图像集合中,最大数量可为三。最大数量可在图像捕获设备中预先设置,或者其可以是用户可选择的任选设置。
参考图5,在一个实施例中,用于预选择动作集合中的保存者图像的操作500开始于计算图像集合中的每对图像之间的距离(框505)。在一个实施例中,所测量的距离可以是在处理操作120期间计算的二维颜色直方图的巴特查里亚距离(Bhattacharyyadistance)。然后可在聚类模型中使用所计算的距离,以将图像集合划分成不同部分。各种聚类模型可用于在该方法中使用。它们包括连通模型诸如层次聚类(例如单链、全链)、质心模型(例如K均值算法)、穷举搜索、和场景改变检测算法。这些聚类模型和算法是本领域中熟知的,因此在这里没有详细描述。
在一个实施例中,场景改变检测操作可首先被用于将图像集合聚类为不同部分(框510)。如果该操作的结果可能接受的(框515的“是”分支),则使用它们。然而,如果结果不可接受,则可使用穷举搜索操作(框520)。穷举搜索操作通常检查可将集合划分成预先确定数量的部分的所有方式。操作然后尝试优化部分内的图像之间的平均距离与不同部分的图像之间的平均距离的比率。基于优化该比率的结果,可将图像集合划分成不同部分。
一旦集合已被划分成不同部分,便可从每个部分中预选择图像作为保存者(框525)。这在一个实施例中是通过比较一个部分中所有图像的图像质量度量并选择具有最高和/或最佳质量度量的图像来实现的。例如,可检查在处理操作120期间计算的锐度和模糊度量度,以选择最锐利和/或最不模糊的图像。实际上,多个图像可能具有相同、或几乎相同的质量度量值。在此类情形中,可选择每个部分中的具有最高质量度量值的第一个图像。在另一个实施例中,可选择部分中的最后一个此类图像。在另外一个实施例中,可选择具有最高质量度量值的那些图像中最靠近图像部分中央的那个图像。在另一个实施例中,如果有N个图像具有最高质量度量值(例如彼此在指定的值范围内),则可选择这N个图像中的任意一个图像。
在一个实施例中,可根据图6中操作600的方法来选择每个部分的保存者图像。一旦已针对所划分的每个部分选择了保存者,便可将它们呈现给用户来继续查看和选择(框530)。这样,多个图像被预选择为保存者图像以显示动作图像集合中的动作场景的各个阶段。
重新参考图3,如果连拍未被分类为肖像或动作,则可将其分类为其他。其他是一个宽泛的类别,其涵盖不能确定用户为何使用连拍捕获模式的情况。可能不可能针对最佳面部或针对动作检查在此类连拍中捕获的图像,但仍然有可能选择集合中的一个或多个高质量图像作为保存者图像。一种此类方法涉及通过将图像的感兴趣区域相互比较来识别最佳图像。如上所述,在分类操作300期间识别感兴趣区域(框325)。
为了将图像中的感兴趣区域彼此正确地进行比较,可首先将区域扩展为涵盖图像的与感兴趣区域重叠的所有区块(框620)。区块可对应于先前针对其计算质量度量值的操作120的处理区块,使得可针对图像集合中的每个图像中的感兴趣区域检查那些度量(框625)。质量度量在一个实施例中可包括锐度量度和模糊度度量。在检查集合中的所有图像的感兴趣区域的质量度量之后,操作可基于所检查的各种质量度量来针对每个图像分配得分(框630)。得分可基于每个质量度量的数字范围来分配,并且加在一起以得到每个图像的总得分。然后可基于总图像得分来选择保存者图像(框635)。这在一个实施例中导致选择对于感兴趣区域具有最佳质量度量的图像作为保存者图像。然后可将保存者图像呈现给用户以用于进行查看和选择(框640)。
参考图7,其示出了根据一个实施例的示例性电子装置700的简化框图。电子设备700例如可以是移动电话、个人媒体设备、便携式相机、或平板电脑、笔记本或台式计算机系统。如图所示,电子设备700可包括处理器705、显示器710、用户接口715、图形硬件720、设备传感器725(例如,接近传感器/环境光传感器、加速度计和/或陀螺仪)、麦克风730、一个或多个音频编解码器735、一个或多个扬声器740、通信电路745、图像捕获电路或单元750、一个或多个视频编解码器755、存储器760、存储装置765和通信总线770。
处理器705可执行必要的指令以实施或控制由设备700所执行的多种功能的操作(诸如根据图1至图6的对图像的捕获和/或处理)。处理器705可例如驱动显示器710并可从用户界面715接收用户输入。用户接口715可呈现多种形式,诸如按钮、小键盘、转盘、点击式转盘、键盘、显示屏、和/或触摸屏。用户接口715例如可以是用户可用于选择何时捕获图像的管道。处理器705可以是片上系统诸如存在于移动设备中的那些片上系统,并且可包括一个或多个专用图形处理单元(GPU)。处理器705可基于精简指令集计算机(RISC)架构或复杂指令集计算机(CISC)架构或任何其他合适的架构,并且可包括一个或多个处理内核。图形硬件720可以是用于处理图形和/或辅助处理器705执行计算任务的专用计算硬件。在一个实施例中,图形硬件720可包括一个或多个可编程图形处理单元(GPU)。
图像捕获电路750可捕获可被处理以生成图像的静止图像和视频图像,并且根据本公开可包括用于执行本文所述的一些或多个动作的专门硬件。图像捕获电路750的输出可至少部分地由视频编解码器755和/或处理器705和/或图形硬件720、和/或专用图像处理单元(未示出)处理(或进一步处理)。由此,所捕获的图像可被存储在存储器760和/或存储装置765中。存储器760可包括由处理器705、图形硬件720、和图像捕获电路750用来执行设备功能的一个或多个不同类型的介质。例如,存储器760可包括存储器高速缓存、只读存储器(ROM)、和/或随机存取存储器(RAM)。存储装置765可存储媒体(例如,音频文件、图像文件和视频文件)、计算机程序指令或软件、偏好信息、设备配置文件信息以及任何其他合适的数据。存储装置765可包括一个或多个非暂态存储介质,该一个或多个非暂态存储介质包括例如磁盘(固定盘、软盘和可移除盘)和磁带、光学介质(诸如CD-ROM和数字视频光盘(DVD))、以及半导体存储设备(诸如电可编程只读存储器(EPROM)和电可擦除可编程只读存储器(EEPROM))。存储器760和存储装置765可用于保持被组织成一个或多个模块并以任何所需的计算机编程语言编写的计算机程序指令或代码。在例如由处理器705执行时,此类计算机程序代码可实现本文所述的方法中的一种或多种方法。
应当理解,以上描述旨在是示例性的而非限制性的。已给出材料以使得本领域的任何技术人员能够作出并使用受权利要求保护的发明构思,并且所述材料是在特定实施例的上下文中提供的,其变型形式对于本领域的技术人员而言将是显而易见的(例如,所公开的实施例中的一些实施例可彼此结合使用)。例如,尽管已在处理原始图像或未处理图像的上下文中描述了图1-图6,但这不是必要的。可将根据本公开的操作应用于所捕获的图像的已处理的版本(例如,边缘图)或所捕获的图像的二次抽样版本(例如缩略图图像)。此外,所述操作中的一些操作可使其各个步骤以与本文给出的不同的次序执行或者结合本文给出的其他步骤来执行。该第一差异的一个实例可以是在保持图像中的一个或多个图像(例如框255)之后执行根据框120的动作。后一种差异的一个实例可以是在所有图像被捕获之后或者在捕获了多余一个但少于全部图像之后,在每个图像被捕获(如图2所隐含表示的)时例如根据操作120来确定质量度量。更一般地,如果有硬件支持,则可并行执行结合图1-图6所述的一些操作。
鉴于以上实例,因此应当参考所附权利要求连同此权利要求被赋予的等同形式的完整范围来确定本发明的范围。在所附权利要求中,术语“包括(including)”和“其中(inwhich)”被用作相应术语“包括(comprising)”和“其中(wherein)”的通俗的英语等同形式。
Claims (20)
1.一种非暂态程序存储设备,所述非暂态程序存储设备可由可编程控制设备读取并且包括存储在其上的使得一个或多个可编程控制设备执行以下操作的指令:
获取场景的图像的时间序列;
检测所述图像是否主要包含面部或者所述场景是否包含动作;
基于所述检测来对所述图像分类;
针对所获取的图像中的每个所获取的图像,确定至少一个质量度量值;
从图像序列中选择一个或多个图像作为保存者图像,其中至少部分地基于所述分类和所述至少一个质量度量值来进行所述选择;以及
将所述一个或多个保存者图像保持在存储器中。
2.根据权利要求1所述的非暂态程序存储设备,其中用于使得所述一个或多个可编程控制设备进行确定的所述指令包括用于使得所述一个或多个可编程控制设备针对所获取的图像中的每个所获取的图像基于所述图像的至少一部分来确定值的指令,其中所述值指示所述图像的锐度。
3.根据权利要求2所述的非暂态程序存储设备,其中用于指示图像的锐度的所述值基于来自自动对焦系统和自动曝光系统中的至少一者的输出。
4.根据权利要求1所述的非暂态程序存储设备,其中用于使得所述一个或多个可编程控制设备进行确定的所述指令包括用于使得所述一个或多个可编程控制设备针对所获取的图像中的每个所获取的图像来确定模糊值的指令。
5.根据权利要求1所述的非暂态程序存储设备,其中用于使得所述一个或多个可编程控制设备进行分类的所述指令包括用于使得所述一个或多个可编程控制设备在图像序列中的一个或多个图像主要包含面部时将所述图像分类为肖像的指令。
6.根据权利要求1所述的非暂态程序存储设备,其中用于使得所述一个或多个可编程控制设备进行检测的所述指令进一步包括用于在检测到至少一个面部时使得所述一个或多个可编程控制设备确定所检测到的面部中的每个所检测到的面部是否正在微笑的指令。
7.根据权利要求1所述的非暂态程序存储设备,其中用于使得所述一个或多个可编程控制设备进行分类的所述指令包括用于使得所述一个或多个可编程控制设备在检测到所述场景包含动作的情况下将所述图像分类为动作的指令。
8.根据权利要求7所述的非暂态程序存储设备,其中当所述图像被分类为动作时,用于使得所述一个或多个处理器选择一个或多个图像的所述指令包括用于使得所述一个或多个可编程控制设备执行以下操作的指令:
将图像序列划分成两个或更多个部分;以及
基于所述至少一个质量度量值来从每个部分中选择保存者图像。
9.根据权利要求1所述的非暂态程序存储设备,其中用于使得所述一个或多个处理器选择一个或多个图像的所述指令包括用于使得所述一个或多个可编程控制设备执行以下操作的指令:
识别所述图像中的感兴趣区域;
针对每个感兴趣区域获取至少一个质量度量;以及
至少基于所述感兴趣区域的一个或多个质量度量值来从图像序列中选择一个或多个图像。
10.一种数字图像捕获设备,包括:
存储器;
显示器,所述显示器通信地耦接至所述存储器;和
一个或多个处理器,所述一个或多个处理器通信地耦接至所述存储器和所述显示器并被配置为执行被存储在所述存储器中的指令,所述指令包括:
获取场景的图像的时间序列;
检测图像序列中的所述图像中的每个图像是否包含面部或者所述场景是否包含动作;
基于所述检测来对所述图像分类;
针对所获取的图像中的每个所获取的图像,确定至少一个质量度量值;
从图像序列中选择一个或多个图像作为保存者图像,其中至少部分地基于所述分类和所述至少一个质量度量值来进行所述选择;以及
将所述一个或多个保存者图像保持在所述存储器中。
11.根据权利要求10所述的系统,其中检测图像序列中的所述图像中的每个图像是否包含包括由所述图像中的每个图像来构建特征向量以及将所述特征向量应用于分类器。
12.根据权利要求10所述的系统,其中分类包括在没有检测到所述图像包含面部的情况下并且在没有检测到所述场景包含动作的情况下将所述图像分类为其他。
13.根据权利要求12所述的系统,其中当所述图像被分类为其他时,从图像序列中选择一个或多个图像作为保存者图像包括:
识别所述图像中的感兴趣区域;
将所述感兴趣区域扩展为包括与所述感兴趣区域重叠的一个或多个区块;
基于所扩展的所述感兴趣区域的至少一个质量度量值来从图像序列中选择一个或多个图像。
14.根据权利要求13所述的系统,其中识别感兴趣区域包括:
将图像序列中每两个图像相对于彼此配准;
将所配准的图像彼此进行比较;以及
识别所配准的图像中的其中所配准的图像之间的差值大于指定阈值的区域。
15.一种方法,包括:
获取场景的图像的时间序列;
检测图像序列中的所述图像中的每个图像是否包含面部或者所述场景是否包含动作;
基于所述检测来对所述图像分类;
针对所获取的图像中的每个所获取的图像,确定至少一个质量度量值;
从图像序列中选择一个或多个图像作为保存者图像,其中至少部分地基于所述分类和所述至少一个质量度量值来进行所述选择;以及
将所述一个或多个保存者图像保持在存储器中。
16.根据权利要求15所述的方法,其中基于所述检测来对所述图像分类包括当图像序列中的一个或多个图像主要包含面部时将所述图像分类为肖像。
17.根据权利要求15所述的方法,其中检测图像序列中的每个图像是否包含面部包括确定所检测到的面部中的每个所检测到的面部是否正在眨眼。
18.根据权利要求16所述的方法,还包括针对每个所检测到的面部来确定面部锐度值。
19.根据权利要求15所述的方法,其中从图像序列中选择一个或多个图像作为保存者图像包括:
识别所述图像中的感兴趣区域;
将所述感兴趣区域扩展为包括与所述感兴趣区域重叠的一个或多个区块;以及
至少基于所扩展的感兴趣区域的一个或多个质量度量值来从图像序列中选择一个或多个图像。
20.根据权利要求15所述的方法,其中基于所述检测对所述图像分类包括在检测到所述场景包含动作的情况下将所述图像分类为动作。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/021,857 US20150071547A1 (en) | 2013-09-09 | 2013-09-09 | Automated Selection Of Keeper Images From A Burst Photo Captured Set |
US14/021,857 | 2013-09-09 | ||
PCT/US2014/052965 WO2015034725A1 (en) | 2013-09-09 | 2014-08-27 | Automated selection of keeper images from a burst photo captured set |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105531988A true CN105531988A (zh) | 2016-04-27 |
Family
ID=51570846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480049340.1A Pending CN105531988A (zh) | 2013-09-09 | 2014-08-27 | 从连拍照片捕获集合中自动选择保存者图像 |
Country Status (6)
Country | Link |
---|---|
US (2) | US20150071547A1 (zh) |
EP (1) | EP3044947B1 (zh) |
KR (1) | KR101731771B1 (zh) |
CN (1) | CN105531988A (zh) |
AU (2) | AU2014315547A1 (zh) |
WO (1) | WO2015034725A1 (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106303234A (zh) * | 2016-08-11 | 2017-01-04 | 广东小天才科技有限公司 | 拍照处理方法及装置 |
CN107509024A (zh) * | 2017-07-25 | 2017-12-22 | 维沃移动通信有限公司 | 一种拍照处理方法及移动终端 |
CN107562860A (zh) * | 2017-08-29 | 2018-01-09 | 维沃移动通信有限公司 | 一种照片选取方法及移动终端 |
CN108540726A (zh) * | 2018-05-15 | 2018-09-14 | Oppo广东移动通信有限公司 | 连拍图像的处理方法、装置、存储介质及终端 |
CN109902189A (zh) * | 2018-11-30 | 2019-06-18 | 华为技术有限公司 | 一种图片选择方法及相关设备 |
CN110889320A (zh) * | 2018-09-11 | 2020-03-17 | 苹果公司 | 眼周面部识别切换 |
US10713517B2 (en) | 2018-09-30 | 2020-07-14 | Himax Technologies Limited | Region of interest recognition |
CN112425156A (zh) * | 2019-01-31 | 2021-02-26 | 华为技术有限公司 | 一种基于连拍选择图像的方法及电子设备 |
CN112449099A (zh) * | 2019-08-30 | 2021-03-05 | 华为技术有限公司 | 一种图像处理方法、电子设备及云服务器 |
WO2021078276A1 (zh) * | 2019-10-25 | 2021-04-29 | Tcl科技集团股份有限公司 | 连拍照片获取方法、智能终端及存储介质 |
Families Citing this family (98)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
WO2013169846A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying additional information in response to a user contact |
JP6182207B2 (ja) | 2012-05-09 | 2017-08-16 | アップル インコーポレイテッド | ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
EP3594797A1 (en) | 2012-05-09 | 2020-01-15 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
CN108052264B (zh) | 2012-05-09 | 2021-04-27 | 苹果公司 | 用于移动和放置用户界面对象的设备、方法和图形用户界面 |
WO2013169875A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
KR101956082B1 (ko) | 2012-05-09 | 2019-03-11 | 애플 인크. | 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
WO2013169870A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for transitioning between display states in response to gesture |
US9185387B2 (en) | 2012-07-03 | 2015-11-10 | Gopro, Inc. | Image blur based on 3D depth information |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
CN105144057B (zh) | 2012-12-29 | 2019-05-17 | 苹果公司 | 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面 |
JP6097843B2 (ja) | 2012-12-29 | 2017-03-15 | アップル インコーポレイテッド | コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース |
EP3435220B1 (en) | 2012-12-29 | 2020-09-16 | Apple Inc. | Device, method and graphical user interface for transitioning between touch input to display output relationships |
CN109375853A (zh) | 2012-12-29 | 2019-02-22 | 苹果公司 | 对用户界面分级结构导航的设备、方法和图形用户界面 |
KR20170081744A (ko) | 2012-12-29 | 2017-07-12 | 애플 인크. | 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
US9307112B2 (en) * | 2013-05-31 | 2016-04-05 | Apple Inc. | Identifying dominant and non-dominant images in a burst mode capture |
US9685194B2 (en) | 2014-07-23 | 2017-06-20 | Gopro, Inc. | Voice-based video tagging |
US20160026874A1 (en) | 2014-07-23 | 2016-01-28 | Gopro, Inc. | Activity identification in video |
US9734870B2 (en) | 2015-01-05 | 2017-08-15 | Gopro, Inc. | Media identifier generation for camera-captured media |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US10038836B2 (en) * | 2015-03-17 | 2018-07-31 | Mediatek Inc. | Automatic image capture during preview and image recommendation |
JP6501569B2 (ja) * | 2015-03-18 | 2019-04-17 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US9785305B2 (en) | 2015-03-19 | 2017-10-10 | Apple Inc. | Touch input cursor manipulation |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US10067653B2 (en) | 2015-04-01 | 2018-09-04 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
WO2016182607A1 (en) * | 2015-05-14 | 2016-11-17 | Sri International | Selecting optimal image from mobile device captures |
US10582125B1 (en) * | 2015-06-01 | 2020-03-03 | Amazon Technologies, Inc. | Panoramic image generation from video |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9674426B2 (en) | 2015-06-07 | 2017-06-06 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
KR102336448B1 (ko) * | 2015-06-10 | 2021-12-07 | 삼성전자주식회사 | 사진 추출 전자 장치 및 방법 |
CN105007412A (zh) * | 2015-07-02 | 2015-10-28 | 成都亿邻通科技有限公司 | 移动终端的照片存储方法 |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US20170086790A1 (en) * | 2015-09-29 | 2017-03-30 | General Electric Company | Method and system for enhanced visualization and selection of a representative ultrasound image by automatically detecting b lines and scoring images of an ultrasound scan |
US9639560B1 (en) | 2015-10-22 | 2017-05-02 | Gopro, Inc. | Systems and methods that effectuate transmission of workflow between computing platforms |
FR3043233B1 (fr) * | 2015-10-30 | 2018-04-06 | Merry Pixel | Procede de selection automatique d'images depuis un dispositif mobile |
CN105654463A (zh) * | 2015-11-06 | 2016-06-08 | 乐视移动智能信息技术(北京)有限公司 | 应用于连拍过程中的图像处理方法和装置 |
CN105654470B (zh) * | 2015-12-24 | 2018-12-11 | 小米科技有限责任公司 | 图像选取方法、装置及系统 |
US10732809B2 (en) | 2015-12-30 | 2020-08-04 | Google Llc | Systems and methods for selective retention and editing of images captured by mobile image capture device |
US10225511B1 (en) | 2015-12-30 | 2019-03-05 | Google Llc | Low power framework for controlling image sensor mode in a mobile image capture device |
US9787862B1 (en) * | 2016-01-19 | 2017-10-10 | Gopro, Inc. | Apparatus and methods for generating content proxy |
US10078644B1 (en) | 2016-01-19 | 2018-09-18 | Gopro, Inc. | Apparatus and methods for manipulating multicamera content using content proxy |
US9871994B1 (en) | 2016-01-19 | 2018-01-16 | Gopro, Inc. | Apparatus and methods for providing content context using session metadata |
US10129464B1 (en) | 2016-02-18 | 2018-11-13 | Gopro, Inc. | User interface for creating composite images |
US9972066B1 (en) | 2016-03-16 | 2018-05-15 | Gopro, Inc. | Systems and methods for providing variable image projection for spherical visual content |
US10402938B1 (en) | 2016-03-31 | 2019-09-03 | Gopro, Inc. | Systems and methods for modifying image distortion (curvature) for viewing distance in post capture |
US9838730B1 (en) | 2016-04-07 | 2017-12-05 | Gopro, Inc. | Systems and methods for audio track selection in video editing |
US10229719B1 (en) | 2016-05-09 | 2019-03-12 | Gopro, Inc. | Systems and methods for generating highlights for a video |
US9953679B1 (en) | 2016-05-24 | 2018-04-24 | Gopro, Inc. | Systems and methods for generating a time lapse video |
US10402677B2 (en) | 2016-06-10 | 2019-09-03 | Apple Inc. | Hierarchical sharpness evaluation |
US9922682B1 (en) | 2016-06-15 | 2018-03-20 | Gopro, Inc. | Systems and methods for organizing video files |
US9967515B1 (en) | 2016-06-15 | 2018-05-08 | Gopro, Inc. | Systems and methods for bidirectional speed ramping |
US9973647B2 (en) | 2016-06-17 | 2018-05-15 | Microsoft Technology Licensing, Llc. | Suggesting image files for deletion based on image file parameters |
US10045120B2 (en) | 2016-06-20 | 2018-08-07 | Gopro, Inc. | Associating audio with three-dimensional objects in videos |
US10671895B2 (en) | 2016-06-30 | 2020-06-02 | Microsoft Technology Licensing, Llc | Automated selection of subjectively best image frames from burst captured image sequences |
US10395119B1 (en) | 2016-08-10 | 2019-08-27 | Gopro, Inc. | Systems and methods for determining activities performed during video capture |
US10127246B2 (en) | 2016-08-16 | 2018-11-13 | Microsoft Technology Licensing, Llc | Automatic grouping based handling of similar photos |
US9953224B1 (en) | 2016-08-23 | 2018-04-24 | Gopro, Inc. | Systems and methods for generating a video summary |
US10282632B1 (en) | 2016-09-21 | 2019-05-07 | Gopro, Inc. | Systems and methods for determining a sample frame order for analyzing a video |
US10268898B1 (en) | 2016-09-21 | 2019-04-23 | Gopro, Inc. | Systems and methods for determining a sample frame order for analyzing a video via segments |
US10397415B1 (en) | 2016-09-30 | 2019-08-27 | Gopro, Inc. | Systems and methods for automatically transferring audiovisual content |
US10044972B1 (en) | 2016-09-30 | 2018-08-07 | Gopro, Inc. | Systems and methods for automatically transferring audiovisual content |
US11106988B2 (en) | 2016-10-06 | 2021-08-31 | Gopro, Inc. | Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle |
US10002641B1 (en) | 2016-10-17 | 2018-06-19 | Gopro, Inc. | Systems and methods for determining highlight segment sets |
US9916863B1 (en) | 2017-02-24 | 2018-03-13 | Gopro, Inc. | Systems and methods for editing videos based on shakiness measures |
US10339443B1 (en) | 2017-02-24 | 2019-07-02 | Gopro, Inc. | Systems and methods for processing convolutional neural network operations using textures |
CN108629791B (zh) * | 2017-03-17 | 2020-08-18 | 北京旷视科技有限公司 | 行人跟踪方法和装置及跨摄像头行人跟踪方法和装置 |
EP3606084A4 (en) * | 2017-03-28 | 2020-02-05 | Samsung Electronics Co., Ltd. | METHOD FOR TRANSMITTING DATA RELATING TO A THREE-DIMENSIONAL IMAGE |
US10360663B1 (en) | 2017-04-07 | 2019-07-23 | Gopro, Inc. | Systems and methods to create a dynamic blur effect in visual content |
US10395122B1 (en) | 2017-05-12 | 2019-08-27 | Gopro, Inc. | Systems and methods for identifying moments in videos |
US10614114B1 (en) | 2017-07-10 | 2020-04-07 | Gopro, Inc. | Systems and methods for creating compilations based on hierarchical clustering |
US10402698B1 (en) | 2017-07-10 | 2019-09-03 | Gopro, Inc. | Systems and methods for identifying interesting moments within videos |
US11839515B2 (en) * | 2017-08-21 | 2023-12-12 | Koninklijke Philips N.V. | Detection, presentation and reporting of B-lines in lung ultrasound |
US10521705B2 (en) * | 2017-11-14 | 2019-12-31 | Adobe Inc. | Automatically selecting images using multicontext aware ratings |
KR20190069231A (ko) * | 2017-12-11 | 2019-06-19 | 삼성전자주식회사 | 웨어러블 디스플레이 장치 및 그 제어 방법 |
CN108198177A (zh) * | 2017-12-29 | 2018-06-22 | 广东欧珀移动通信有限公司 | 图像获取方法、装置、终端及存储介质 |
US10474903B2 (en) * | 2018-01-25 | 2019-11-12 | Adobe Inc. | Video segmentation using predictive models trained to provide aesthetic scores |
CN108629338B (zh) * | 2018-06-14 | 2021-10-19 | 五邑大学 | 一种基于lbp和卷积神经网络的人脸美丽预测方法 |
CN111226226A (zh) * | 2018-06-29 | 2020-06-02 | 杭州眼云智家科技有限公司 | 基于运动的对象检测方法及其对象检测装置和电子设备 |
US11836597B2 (en) * | 2018-08-09 | 2023-12-05 | Nvidia Corporation | Detecting visual artifacts in image sequences using a neural network model |
EP4047923A4 (en) | 2020-12-22 | 2022-11-23 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE COMPRISING A CAMERA AND THEIR METHOD |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070074115A1 (en) * | 2005-09-23 | 2007-03-29 | Microsoft Corporation | Automatic capturing and editing of a video |
US20070182861A1 (en) * | 2006-02-03 | 2007-08-09 | Jiebo Luo | Analyzing camera captured video for key frames |
US20080037869A1 (en) * | 2006-07-13 | 2008-02-14 | Hui Zhou | Method and Apparatus for Determining Motion in Images |
US20100020224A1 (en) * | 2008-07-24 | 2010-01-28 | Canon Kabushiki Kaisha | Method for selecting desirable images from among a plurality of images and apparatus thereof |
US20100277609A1 (en) * | 2008-01-17 | 2010-11-04 | Nikon Corporation | Electronic camera |
CN102209196A (zh) * | 2010-03-30 | 2011-10-05 | 株式会社尼康 | 图像处理装置及图像评价方法 |
US20120106925A1 (en) * | 2010-10-29 | 2012-05-03 | International Business Machines Corporation | Automatic static video summarization |
CN102685386A (zh) * | 2011-03-10 | 2012-09-19 | 三洋电机株式会社 | 图像再生控制装置 |
US20120281969A1 (en) * | 2011-05-03 | 2012-11-08 | Wei Jiang | Video summarization using audio and visual cues |
Family Cites Families (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5657402A (en) | 1991-11-01 | 1997-08-12 | Massachusetts Institute Of Technology | Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method |
US5646521A (en) | 1995-08-01 | 1997-07-08 | Schlumberger Technologies, Inc. | Analog channel for mixed-signal-VLSI tester |
US6552744B2 (en) | 1997-09-26 | 2003-04-22 | Roxio, Inc. | Virtual reality camera |
JP2002524930A (ja) | 1998-08-28 | 2002-08-06 | サーノフ コーポレイション | 画像を電子的に拡張する方法および装置 |
US6271847B1 (en) | 1998-09-25 | 2001-08-07 | Microsoft Corporation | Inverse texture mapping using weighted pyramid blending and view-dependent weight maps |
US6549643B1 (en) | 1999-11-30 | 2003-04-15 | Siemens Corporate Research, Inc. | System and method for selecting key-frames of video data |
US6301440B1 (en) * | 2000-04-13 | 2001-10-09 | International Business Machines Corp. | System and method for automatically setting image acquisition controls |
US7130864B2 (en) | 2001-10-31 | 2006-10-31 | Hewlett-Packard Development Company, L.P. | Method and system for accessing a collection of images in a database |
KR100556732B1 (ko) | 2001-12-29 | 2006-03-10 | 엘지전자 주식회사 | 동영상 확대영역 추적방법 |
JP3889650B2 (ja) | 2002-03-28 | 2007-03-07 | 三洋電機株式会社 | 画像処理方法、画像処理装置、コンピュータプログラム、及び記録媒体 |
US7639741B1 (en) | 2002-12-06 | 2009-12-29 | Altera Corporation | Temporal filtering using object motion estimation |
CN1251145C (zh) | 2003-11-27 | 2006-04-12 | 上海交通大学 | 综合边缘和纹理信息的金字塔图像融合方法 |
AU2004311841B2 (en) * | 2003-12-24 | 2008-10-09 | Walker Digital, Llc | Method and apparatus for automatically capturing and managing images |
US20050228849A1 (en) * | 2004-03-24 | 2005-10-13 | Tong Zhang | Intelligent key-frame extraction from a video |
JP4504322B2 (ja) * | 2005-03-03 | 2010-07-14 | 富士フイルム株式会社 | 画像抽出装置、画像抽出方法、及び画像抽出プログラム |
AU2006244201B2 (en) | 2005-05-09 | 2012-09-06 | Lockheed Martin Corporation | Continuous extended range image processing |
US7760956B2 (en) | 2005-05-12 | 2010-07-20 | Hewlett-Packard Development Company, L.P. | System and method for producing a page using frames of a video stream |
US7839429B2 (en) | 2005-05-26 | 2010-11-23 | Hewlett-Packard Development Company, L.P. | In-camera panorama stitching method and apparatus |
US7424218B2 (en) | 2005-07-28 | 2008-09-09 | Microsoft Corporation | Real-time preview for panoramic images |
US8018999B2 (en) | 2005-12-05 | 2011-09-13 | Arcsoft, Inc. | Algorithm description on non-motion blur image generation project |
US7688379B2 (en) * | 2005-12-09 | 2010-03-30 | Hewlett-Packard Development Company, L.P. | Selecting quality images from multiple captured images |
CA2636858C (en) | 2006-01-27 | 2015-11-24 | Imax Corporation | Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality |
JP4620607B2 (ja) | 2006-02-24 | 2011-01-26 | 株式会社モルフォ | 画像処理装置 |
JP5084167B2 (ja) | 2006-03-31 | 2012-11-28 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
US7742083B2 (en) | 2006-04-13 | 2010-06-22 | Eastman Kodak Company | In-camera dud image management |
US8379154B2 (en) * | 2006-05-12 | 2013-02-19 | Tong Zhang | Key-frame extraction from video |
US20080170126A1 (en) | 2006-05-12 | 2008-07-17 | Nokia Corporation | Method and system for image stabilization |
US7602418B2 (en) | 2006-10-11 | 2009-10-13 | Eastman Kodak Company | Digital image with reduced object motion blur |
US7796872B2 (en) | 2007-01-05 | 2010-09-14 | Invensense, Inc. | Method and apparatus for producing a sharp image from a handheld device containing a gyroscope |
EP1972893A1 (en) | 2007-03-21 | 2008-09-24 | Universiteit Gent | System and method for position determination |
US7856120B2 (en) | 2007-03-30 | 2010-12-21 | Mitsubishi Electric Research Laboratories, Inc. | Jointly registering images while tracking moving objects with moving cameras |
JP4678603B2 (ja) | 2007-04-20 | 2011-04-27 | 富士フイルム株式会社 | 撮像装置及び撮像方法 |
TWI355615B (en) | 2007-05-11 | 2012-01-01 | Ind Tech Res Inst | Moving object detection apparatus and method by us |
KR101023946B1 (ko) | 2007-11-02 | 2011-03-28 | 주식회사 코아로직 | 객체 추적을 이용한 디지털 영상의 손떨림 보정 장치 및방법 |
US8411938B2 (en) | 2007-11-29 | 2013-04-02 | Sri International | Multi-scale multi-camera adaptive fusion with contrast normalization |
US20090161982A1 (en) | 2007-12-19 | 2009-06-25 | Nokia Corporation | Restoring images |
KR101060488B1 (ko) * | 2008-04-21 | 2011-08-30 | 주식회사 코아로직 | 최적 영상 선택 방법 및 장치 |
JP4661922B2 (ja) | 2008-09-03 | 2011-03-30 | ソニー株式会社 | 画像処理装置、撮像装置、固体撮像素子、画像処理方法およびプログラム |
KR101438237B1 (ko) * | 2008-09-04 | 2014-09-04 | 삼성전자주식회사 | 카메라 모듈을 구비한 이동통신 단말기에서의 촬영방법 및 촬영장치 |
US8570386B2 (en) | 2008-12-31 | 2013-10-29 | Stmicroelectronics S.R.L. | Method of merging images and relative method of generating an output image of enhanced quality |
US8515171B2 (en) | 2009-01-09 | 2013-08-20 | Rochester Institute Of Technology | Methods for adaptive and progressive gradient-based multi-resolution color image segmentation and systems thereof |
US8515182B2 (en) | 2009-02-11 | 2013-08-20 | Ecole De Technologie Superieure | Method and system for determining a quality measure for an image using multi-level decomposition of images |
WO2010093745A1 (en) | 2009-02-12 | 2010-08-19 | Dolby Laboratories Licensing Corporation | Quality evaluation of sequences of images |
WO2010123923A1 (en) | 2009-04-23 | 2010-10-28 | Zoran Corporation | Multiple exposure high dynamic range image capture |
KR101616874B1 (ko) | 2009-09-23 | 2016-05-02 | 삼성전자주식회사 | 다중 영상 합성 방법 및 그 장치 |
JP5397481B2 (ja) * | 2009-12-18 | 2014-01-22 | 富士通株式会社 | 画像選別装置及び画像選別方法 |
JP4998630B2 (ja) | 2010-03-30 | 2012-08-15 | 株式会社ニコン | 画像処理装置、および画像評価プログラム |
US8488010B2 (en) | 2010-09-21 | 2013-07-16 | Hewlett-Packard Development Company, L.P. | Generating a stabilized video sequence based on motion sensor data |
US8774528B2 (en) * | 2010-09-24 | 2014-07-08 | Kodak Alaris Inc. | Method of selecting important digital images |
JP5652649B2 (ja) | 2010-10-07 | 2015-01-14 | 株式会社リコー | 画像処理装置、画像処理方法および画像処理プログラム |
CN101984463A (zh) | 2010-11-02 | 2011-03-09 | 中兴通讯股份有限公司 | 全景图合成方法及装置 |
US8648959B2 (en) | 2010-11-11 | 2014-02-11 | DigitalOptics Corporation Europe Limited | Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing |
US8532421B2 (en) | 2010-11-12 | 2013-09-10 | Adobe Systems Incorporated | Methods and apparatus for de-blurring images using lucky frames |
US9147260B2 (en) | 2010-12-20 | 2015-09-29 | International Business Machines Corporation | Detection and tracking of moving objects |
US8861836B2 (en) | 2011-01-14 | 2014-10-14 | Sony Corporation | Methods and systems for 2D to 3D conversion from a portrait image |
US8379934B2 (en) | 2011-02-04 | 2013-02-19 | Eastman Kodak Company | Estimating subject motion between image frames |
US8384787B2 (en) | 2011-02-24 | 2013-02-26 | Eastman Kodak Company | Method for providing a stabilized video sequence |
EP2521091B1 (en) | 2011-05-03 | 2016-04-20 | ST-Ericsson SA | Estimation of motion blur in a picture |
US8983206B2 (en) | 2011-05-04 | 2015-03-17 | Ecole de Techbologie Superieure | Method and system for increasing robustness of visual quality metrics using spatial shifting |
US20120293607A1 (en) | 2011-05-17 | 2012-11-22 | Apple Inc. | Panorama Processing |
KR101784176B1 (ko) | 2011-05-25 | 2017-10-12 | 삼성전자주식회사 | 영상 촬영 장치 및 그 제어방법 |
US9007428B2 (en) | 2011-06-01 | 2015-04-14 | Apple Inc. | Motion-based image stitching |
KR101699919B1 (ko) | 2011-07-28 | 2017-01-26 | 삼성전자주식회사 | 다중 노출 퓨전 기반에서 고스트 흐림을 제거한 hdr 영상 생성 장치 및 방법 |
US8913140B2 (en) | 2011-08-15 | 2014-12-16 | Apple Inc. | Rolling shutter reduction based on motion sensors |
US9305240B2 (en) | 2011-12-07 | 2016-04-05 | Google Technology Holdings LLC | Motion aligned distance calculations for image comparisons |
KR101906827B1 (ko) * | 2012-04-10 | 2018-12-05 | 삼성전자주식회사 | 연속 사진 촬영 장치 및 방법 |
US8860825B2 (en) | 2012-09-12 | 2014-10-14 | Google Inc. | Methods and systems for removal of rolling shutter effects |
US9262684B2 (en) | 2013-06-06 | 2016-02-16 | Apple Inc. | Methods of image fusion for image stabilization |
US9373054B2 (en) | 2014-09-02 | 2016-06-21 | Kodak Alaris Inc. | Method for selecting frames from video sequences based on incremental improvement |
-
2013
- 2013-09-09 US US14/021,857 patent/US20150071547A1/en not_active Abandoned
-
2014
- 2014-08-27 WO PCT/US2014/052965 patent/WO2015034725A1/en active Application Filing
- 2014-08-27 CN CN201480049340.1A patent/CN105531988A/zh active Pending
- 2014-08-27 KR KR1020167006182A patent/KR101731771B1/ko active IP Right Grant
- 2014-08-27 EP EP14767189.5A patent/EP3044947B1/en active Active
- 2014-08-27 AU AU2014315547A patent/AU2014315547A1/en not_active Abandoned
-
2016
- 2016-09-15 US US15/266,460 patent/US10523894B2/en not_active Expired - Fee Related
-
2017
- 2017-11-15 AU AU2017261537A patent/AU2017261537B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070074115A1 (en) * | 2005-09-23 | 2007-03-29 | Microsoft Corporation | Automatic capturing and editing of a video |
US20070182861A1 (en) * | 2006-02-03 | 2007-08-09 | Jiebo Luo | Analyzing camera captured video for key frames |
US20080037869A1 (en) * | 2006-07-13 | 2008-02-14 | Hui Zhou | Method and Apparatus for Determining Motion in Images |
US20100277609A1 (en) * | 2008-01-17 | 2010-11-04 | Nikon Corporation | Electronic camera |
US20100020224A1 (en) * | 2008-07-24 | 2010-01-28 | Canon Kabushiki Kaisha | Method for selecting desirable images from among a plurality of images and apparatus thereof |
CN102209196A (zh) * | 2010-03-30 | 2011-10-05 | 株式会社尼康 | 图像处理装置及图像评价方法 |
US20120106925A1 (en) * | 2010-10-29 | 2012-05-03 | International Business Machines Corporation | Automatic static video summarization |
CN102685386A (zh) * | 2011-03-10 | 2012-09-19 | 三洋电机株式会社 | 图像再生控制装置 |
US20120281969A1 (en) * | 2011-05-03 | 2012-11-08 | Wei Jiang | Video summarization using audio and visual cues |
Non-Patent Citations (4)
Title |
---|
MILAN SONKA等: "《图像处理、分析与机器视觉 中文版》", 30 September 2003 * |
中国图象图形协会: "《第十五届全国图象图形学学术会议论文集》", 31 December 2010 * |
赵坚勇: "《应用电视技术》", 31 December 2013 * |
黄天云: "《视频流量分析与QoS管理》", 31 March 2013 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106303234A (zh) * | 2016-08-11 | 2017-01-04 | 广东小天才科技有限公司 | 拍照处理方法及装置 |
CN107509024A (zh) * | 2017-07-25 | 2017-12-22 | 维沃移动通信有限公司 | 一种拍照处理方法及移动终端 |
CN107562860A (zh) * | 2017-08-29 | 2018-01-09 | 维沃移动通信有限公司 | 一种照片选取方法及移动终端 |
CN107562860B (zh) * | 2017-08-29 | 2019-06-07 | 维沃移动通信有限公司 | 一种照片选取方法及移动终端 |
CN108540726A (zh) * | 2018-05-15 | 2018-09-14 | Oppo广东移动通信有限公司 | 连拍图像的处理方法、装置、存储介质及终端 |
CN108540726B (zh) * | 2018-05-15 | 2020-05-05 | Oppo广东移动通信有限公司 | 连拍图像的处理方法、装置、存储介质及终端 |
CN110889320B (zh) * | 2018-09-11 | 2023-11-03 | 苹果公司 | 眼周面部识别切换 |
CN110889320A (zh) * | 2018-09-11 | 2020-03-17 | 苹果公司 | 眼周面部识别切换 |
US10713517B2 (en) | 2018-09-30 | 2020-07-14 | Himax Technologies Limited | Region of interest recognition |
TWI699993B (zh) * | 2018-09-30 | 2020-07-21 | 奇景光電股份有限公司 | 辨識感興趣的區域 |
US11758285B2 (en) | 2018-11-30 | 2023-09-12 | Huawei Technologies Co., Ltd. | Picture selection method and related device |
CN109902189A (zh) * | 2018-11-30 | 2019-06-18 | 华为技术有限公司 | 一种图片选择方法及相关设备 |
CN112425156A (zh) * | 2019-01-31 | 2021-02-26 | 华为技术有限公司 | 一种基于连拍选择图像的方法及电子设备 |
CN112425156B (zh) * | 2019-01-31 | 2022-03-11 | 华为技术有限公司 | 一种基于连拍选择图像的方法及电子设备 |
CN112449099A (zh) * | 2019-08-30 | 2021-03-05 | 华为技术有限公司 | 一种图像处理方法、电子设备及云服务器 |
CN112449099B (zh) * | 2019-08-30 | 2022-08-19 | 华为技术有限公司 | 一种图像处理方法、电子设备及云服务器 |
WO2021078276A1 (zh) * | 2019-10-25 | 2021-04-29 | Tcl科技集团股份有限公司 | 连拍照片获取方法、智能终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20160040711A (ko) | 2016-04-14 |
KR101731771B1 (ko) | 2017-04-28 |
WO2015034725A1 (en) | 2015-03-12 |
US20170006251A1 (en) | 2017-01-05 |
US20150071547A1 (en) | 2015-03-12 |
EP3044947B1 (en) | 2020-09-23 |
EP3044947A1 (en) | 2016-07-20 |
AU2014315547A1 (en) | 2016-03-17 |
AU2017261537A1 (en) | 2017-12-07 |
US10523894B2 (en) | 2019-12-31 |
AU2017261537B2 (en) | 2019-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105531988A (zh) | 从连拍照片捕获集合中自动选择保存者图像 | |
US11847826B2 (en) | System and method for providing dominant scene classification by semantic segmentation | |
CN108229369B (zh) | 图像拍摄方法、装置、存储介质及电子设备 | |
US9251439B2 (en) | Image sharpness classification system | |
US9652694B2 (en) | Object detection method, object detection device, and image pickup device | |
US9619708B2 (en) | Method of detecting a main subject in an image | |
US9613258B2 (en) | Image quality assessment | |
US8805112B2 (en) | Image sharpness classification system | |
Sun et al. | Photo assessment based on computational visual attention model | |
CN110807759B (zh) | 照片质量的评价方法及装置、电子设备、可读存储介质 | |
US9477138B2 (en) | Autofocus | |
CN106375674A (zh) | 寻找和使用与相邻静态图像相关的视频部分的方法和装置 | |
CN107358141B (zh) | 数据识别的方法及装置 | |
CN109492576A (zh) | 图像识别方法、装置及电子设备 | |
CN111279684A (zh) | 拍摄控制方法及电子装置 | |
CN114066877A (zh) | 图像筛选方法及装置、电子设备和存储介质 | |
JP5552946B2 (ja) | 顔画像サンプル採取装置、顔画像サンプル採取方法、プログラム | |
WO2020217369A1 (ja) | オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体 | |
Souza et al. | Generating an Album with the Best Media Using Computer Vision | |
CN117241130A (zh) | 动态影像的处理方法、电子装置及其连接的终端装置 | |
Utasi et al. | Recognizing human actions by using spatio-temporal motion descriptors | |
CN111428554A (zh) | 对视频的可视对象插入进行分类 | |
Pavlovska et al. | Content-Based Annotation of User Generated Videos on a Mobile Platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160427 |
|
RJ01 | Rejection of invention patent application after publication |