CN109584160A - 图像捕获和排序 - Google Patents
图像捕获和排序 Download PDFInfo
- Publication number
- CN109584160A CN109584160A CN201811307030.1A CN201811307030A CN109584160A CN 109584160 A CN109584160 A CN 109584160A CN 201811307030 A CN201811307030 A CN 201811307030A CN 109584160 A CN109584160 A CN 109584160A
- Authority
- CN
- China
- Prior art keywords
- image
- area
- storehouse
- panorama
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 14
- 230000007704 transition Effects 0.000 claims description 4
- 230000008707 rearrangement Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 7
- 238000003860 storage Methods 0.000 description 18
- 230000000007 visual effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 238000009966 trimming Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000033228 biological regulation Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000008439 repair process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
提供了用于针对全景接合而排序图像和/或用于提供用于图像捕获的焦点指示符的一个或者多个技术和/或系统。例如,可以被接合在一起以创建场景的全景的一个或者多个图像可以按照一个或者多个排序偏好而被存储在图像堆栈内,所述排序偏好诸如手动捕获的图像相比于自动捕获的图像被存储在图像堆栈的第一/较高优先级区域内什么地方。在图像堆栈内的一个或者多个图像可以按照接合次序进行接合以创建全景,诸如使用用于全景的前景的第一区域中的图像。并且,相机的当前位置可以被跟踪并且与场景焦点比较以生成焦点指示符来协助捕获场景的新图像/当前图像。
Description
本申请是申请日为2014年3月12日、申请号为201480015275.0、发明名称为“图像捕获和排序”的中国专利申请的分案申请。
背景技术
许多用户可以使用诸如数字相机、平板电脑、移动设备、智能电话等等的各种设备来创建图像数据。例如,用户可以在休假的同时使用移动电话来捕获沙滩的图像。用户可以将图像上载到图像共享网站,并且可以与其他用户共享图像。在图像数据的示例中,一个或者多个图像可以接合在一起,以创建由一个或者多个图像描绘的场景的全景。如果一个或者多个图像以任意次序接合在一起,则全景可能会包括接缝线(例如,由图像捕获期间在场景内移动的对象产生,并且因此在不同图像中处于不同位置)或者其他不期望的效果。如果从具有未对齐焦点的视角捕获了一个或者多个图像,则例如视差误差可能在全景中出现。
发明内容
提供本发明来以简化的形式介绍概念的选择,这些概念将在下文在具体实施方式中进一步描述。本发明不意图标识所要求保护的主题的关键因素或者必要特征,其也不意图用来限制所要求保护的主题的范围。
除了其他东西之外,本文提供了用于针对全景接合排序图像和/或用于提供用于图像捕获的焦点指示符的一个或者多个系统和/或技术。
在一些针对全景接合而排序图像的实施例中,保持包括可以被接合在一起来生成全景的一个或者多个图像的图像堆栈。例如,用户可能已经捕获了从各种视角描绘整修的地下室的八幅图像。这八幅图像和/或随后捕获的整修的地下室的图像可以按照图像堆栈内的特定排序来保持,并且可以用于生成整修的地下室的全景。图像堆栈可以被分割成一个或者多个区域。在一个示例中,区域可以对应于图像堆栈内的单个位置(例如,第一区域对应于图像堆栈的顶部位置,第二区域对应于图像堆栈的底部位置,并且一个或者多个附加区域对应于在顶部位置和底部位置之间的位置)。在另一个示例中,区域可以对应于图像堆栈内的多个位置(例如,第一区域对应于图像堆栈的第一半(例如,顶部四幅图像),并且第二区域对应于图像堆栈的第二半(例如,底部四幅图像))。
第一排序偏好可以与图像堆栈的第一区域(例如,图像堆栈的顶部位置)相关联;第二排序偏好可以与图像堆栈的第二区域(例如,图像堆栈的非顶部位置)相关联;和/或其他排序偏好可以与图像堆栈的其他区域相关联。在将当前图像加入到图像堆栈的示例中,第一排序偏好对应于手动捕获的图像准则,并且第二排序偏好对应于自动捕获的图像准则。如果当前图像是手动捕获的图像(例如,用户手动捕获整修的地下室的新图像),则基于第一排序偏好将当前图像加入到图像堆栈的第一区域(例如,图像堆栈的顶部位置)。如果当前图像是自动捕获的图像(例如,相机自动捕获整修的地下室的图像),则基于第二排序偏好将当前图像加入到图像堆栈的第二区域(例如,图像堆栈的非顶部位置)。可以领会的是,第一排序偏好、第二排序偏好和/或其他排序偏好可以对应于其他类型的偏好,诸如时间准则(例如,将最近捕获的图像加入到第一区域,而将之前捕获的图像加入到第二区域)。以这种方式,图像堆栈可以通过排序在图像堆栈内的图像而被保持。
在生成全景期间,在图像堆栈内的一个或者多个图像可以按照接合次序被接合。在一个示例中,接合次序规定第一区域相对于第二区域具有接合优先级。接合次序可以例如将第一区域与前景倾向(bias)相关联,并且将第二区域与背景倾向相关联。例如,具有相对较高优先级的图像(诸如相对较新的图像或者手动捕获的图像)可以用来接合前景,而具有相对较低的优先级的图像(诸如相对较旧或者自动捕获的图像)可以用来接合背景。然而,将领会的是,前景倾向和/或背景倾向不一定隐含对于前景和/或背景的硬排序。相反,前景倾向可以例如隐含图像将可见(例如,在前景中或者在其他地方)的增大的概率,并且背景倾向可以例如隐含图像将可见(例如,在背景中或者在其他地方)的减小的概率。可以领会的是,接合次序可以对应于其他排序优先级或者全景部分。
在提供用于图像捕获的焦点指示符的一些实施例中,可以跟踪相机的当前位置(例如,独立的相机、与计算设备相关联的相机等等)。例如,可以在相机用来捕获描绘场景的一个或者多个图像(例如,整修的地下室的一个或者多个图像)的同时实时地跟踪相机的位置数据和/或定向数据。一个或者多个图像可以用来生成场景的可视化表示,诸如旋转电影(spin movie)、全景、非全景可视化表示等等。焦点指示符可以通过相机提供,以帮助用户捕获场景的当前图像(例如,描绘尚未被一个或者多个之前捕获的图像所描绘的整修的地下室的一部分的当前图像;从场景的焦点捕获的当前图像;等等)。例如,相机的当前位置可以与由一个或者多个之前捕获的图像所描绘的场景的焦点相比较。基于比较,可以生成焦点指示符。可以在场景的当前图像的捕获期间提供焦点指示符。例如,视觉指示符(例如,在点/离点指示符、目标图标等等)可以通过相机来显示,以指示用户可以从其捕获当前图像的视角(例如,与相机位置/定向相关联)。以这种方式,可以帮助用户捕获用来创建场景的可视化表示的一个或者多个图像(例如,以使得当前图像从对应于一个或者多个之前捕获的图像的焦点的焦点处被捕获)。
为了完成前述和相关目的,以下描述和附图阐述了某些说明性方面和实现方式。这些仅仅指示可以采用一个或者多个方面的各种方式中的几种。当结合附图考虑时,根据以下具体实施方式,本公开的其他方面、优点和新颖特征将变得清楚明白。
附图说明
图1是图示出针对全景接合而排序图像的示范性方法的流程图。
图2是图示出用于针对全景接合而排序图像的示范性系统的组件方框图。
图3是图示出用于针对全景接合而排序图像的示范性系统的组件方框图。
图4是图示出用于针对全景接合而排序图像的示范性系统的组件方框图。
图5是图示出用于在针对全景接合用于重新排序图像堆栈内的图像的示范性系统的组件方框图。
图6是图示出提供用于图像捕获的焦点指示符的示范性方法的流程图。
图7是图示出用于提供用于图像捕获的焦点指示符的示范性系统的组件方框图。
图8是图示出用于提供用于图像捕获的焦点指示符和/或焦点调整建议的示范性系统的组件方框图。
图9是其中可包括被配置成体现本文阐述的规定中的一个或者多个的处理器可执行指令的示范性计算设备可读介质的图示。
图10图示了其中可以实现本文阐述的规定中的一个或者多个的示范性计算环境。
具体实施方式
现在参考附图描述所要求保护的主题,在附图中,相同的附图标记一般用来自始至终指代相同的元素。在以下描述中,出于解释的目的,阐述了众多特定细节以便提供对所要求保护的主题的理解。然而可能明显的是,可以在不具有这些具体细节的情况下实践所要求保护的主题。在其他实例中,以方框图的形式来图示结构和设备,以便促进描述所要求保护的主题。
通过图1的示范性方法100图示针对全景接合而排序图像的实施例。在102,方法开始。在104,包括可被接合在一起以生成全景的一个或者多个图像的图像堆栈被保持(例如,图2的图像堆栈210)。例如,一个或者多个图像可以从各种视角描绘厨房整修工程的场景。一个或者多个图像可以被接合在一起以创建描绘厨房整修工程的全景(例如,用户可以基于在全景中的多维导航而在视觉上探索厨房整修工程)。一个或者多个图像和/或随后捕获的图像的排序可以被保持在图像堆栈内。以这种方式,图像堆栈内的图像可以按照用以生成全景的接合次序而被高效地接合在一起(例如,相对更重要的图像可以用来诸如在全景的前景中表示全景的相对显著的特征)。
在一个示例中,当前图像可以基于一个或者多个排序偏好而被加入到图像堆栈中。在106,响应于当前图像对应于第一排序偏好,将当前图像加入到图像堆栈的第一区域。在其中第一排序偏好对应于按时间准则的较后者的一个示例中,基于具有相对较新的时间戳(例如,图3的示例300)的当前图像,将当前图像加入到图像堆栈的顶部位置。在其中第一排序偏好对应于手动捕获图像准则的另一示例中,基于已经被用户手动捕获的当前图像(例如,图4的示例400),将当前图像加入到图像堆栈的第一半。在108,响应于当前图像对应于第二排序偏好,将当前图像加入到图像堆栈的第二区域。在其中第二排序偏好对应于按时间准则的较早者的一个示例中,基于具有相对较旧的时间戳的当前图像(例如,图3的示例300),将当前图像加入到图像堆栈的底部位置。在其中第二排序偏好对应于自动捕获图像的另一示例中,基于已经被相机设备自动捕获的当前图像(例如,图4的示例400),将当前图像加入到图像堆栈的第二半。可以领会的是,可以规定其他排序偏好和/或可以针对图像堆栈指定其他区域。
在一个示例中,在图像堆栈内的一个或者多个图像可以基于修改图像堆栈内的图像位置的输入而被重新排序。例如,用户可以捕获了描绘厨房整修工程的相对重要部分的图像(例如,描绘新岛式厨房的图像)。然而,基于该图像对应于将图像放置在图像堆栈中具有相对较低的接合优先级的区域中的排序偏好(例如,该图像可能是被自动捕获的),该图像可能具有相对低的接合优先级。因此,用户可以指示要将图像移动到具有相对较高接合优先级的区域中(例如,用户可以向图像指派相对高的评分;用户可以在图像堆栈用户界面内拖放图像;用户可以将图像指定为对该用户是重要的;等等)。因此,图像可以在图像堆栈内重新定位。在一个示例中,重新定位图像可能导致另一图像从一个区域被重新指派到另一区域(例如,第一图像可能被从第一区域重新指派到第二区域;第二图像可能被从第二区域重新指派到第一区域或者第三区域;等等)。
在110,在图像堆栈中的一个或者多个图像按照接合次序来接合以生成全景。接合次序可以规定第一区域相对于第二区域具有接合优先级。在一个示例中,在第一区域内的一个或者多个图像可以在第二区域内的一个或者多个图像之前被接合。在另一示例中,在第一区域内的一个或者多个图像用来将全景的前景接合在一起,而在第二区域内的一个或者多个图像用来将全景的背景接合在一起。以这种方式,可以通过按照接合次序接合来自图像堆栈的一个或者多个图像而生成全景。在112,方法结束。
图2图示了被配置用于针对全景接合而排序图像的系统200的示例。系统200包括图像堆栈组件204和/或接合组件216。图像堆栈组件204被配置成保持图像堆栈210,图像堆栈210包括可以由接合组件216接合在一起以生成由一个或者多个图像描绘的场景的全景220的一个或者多个图像。例如,图像堆栈组件204被配置成基于一个或者多个排序偏好(诸如第一排序偏好206、第二排序偏好208和/或未图示的其他排序偏好)来将一组图像202存储在图像堆栈210内。在一个示例中,第一排序偏好206对应于按时间准则的较早者,使得具有相对较旧的时间戳的一个或者多个当前图像可以被加入到图像堆栈210的、具有相对较高接合优先级的第一区域212(例如,图像(A)、图像(B)、图像(C)和图像(D)相比于图像(E)、图像(F)、图像(G)和图像(H)具有相对较旧的时间戳)。第二排序偏好208对应于按时间准则的较后者,使得具有相对较新的时间戳的一个或者多个当前图像可以被加入到图像堆栈210的、具有相对较低接合优先级的第二区域214(例如,图像(E)、图像(F)、图像(G)和图像(H)相比于图像(A)、图像(B)、图像(C)和图像(D)具有相对较新的时间戳)。以这种方式,这组图像202可以基于一个或者多个排序偏好而被存储在图像堆栈210的一个或者多个区域内。
将领会的是,如本文所提供的,可以在图像堆栈内包括多于仅两个区域(或者仅仅是单个区域)和/或可以在不同区域中包括不同数目的图像(诸如第一区域中的第一数目个图像和第二区域中的不同的第二数目个图像)。可以存在各种排序偏好,其中排序偏好可以关于图像堆栈中的一个或者多个区域和/或一个或者多个图像。排序偏好可以考虑到相对于彼此的优先级等等而被加权,使得图像在图像堆栈中的位置可以是例如多个排序偏好的函数。手动捕获的图像例如可以相对于第二非手动捕获的图像而被放置在第一、顶部、按优先级排序等等的区域,即便例如非手动捕获的图像比手动捕获的图像被更新近地捕获。
接合组件216被配置成按照接合次序218来接合图像堆栈210内的一个或者多个图像以生成全景220。在一个示例中,接合次序218可以规定在第一区域212内的图像要在第二区域214内的图像之前被接合。在另一示例中,接合次序218可以规定在第一区域212内的图像要被接合用于全景220的相对显著的特征(例如,前景倾向),并且在第二区域214内的图像要被接合用于全景220的相对不那么显著的特征(例如,背景倾向)。以这种方式,可以通过基于接合次序218来接合图像堆栈210内的一个或者多个图像而生成全景220。
图3图示了被配置用于针对全景接合而排序图像的系统300的示例。系统300包括图像堆栈组件304和/或接合组件316。图像堆栈组件304被配置成保持包括一个或者多个图像的图像堆栈310,所述一个或者多个图像可以由接合组件316接合在一起以生成由该一个或者多个图像描绘的场景的全景320。例如,图像堆栈组件304被配置成基于一个或者多个排序偏好(诸如第一排序偏好306、第二排序偏好308和/或未图示的其他排序偏好)而将一组图像302存储在图像堆栈310内。在一个示例中,第一排序偏好306对应于按时间准则的较后者,使得具有相对较新的时间戳的当前图像可以被加入到图像堆栈310的、具有相对较高的接合优先级的第一区域312(例如,图像(H)相比于图像堆栈310内的其他图像具有相对新近的时间戳)。第二排序偏好308对应于按时间准则的较早者,使得具有相对较旧的时间戳的当前图像可以被加入到图像堆栈310的、具有相对较低的接合优先级的第二区域314(例如,图像(A)相比于图像堆栈310内的其他图像具有相对较旧的时间戳)。以这种方式,这组图像302可以基于一个或者多个排序偏好而被存储在图像堆栈310的一个或者多个区域内,诸如其他区域322内。
接合组件316被配置成按照接合次序318来接合图像堆栈310内的一个或者多个图像以生成全景320。在一个示例中,接合次序318可以规定在第一区域312内的图像要被首先接合,在其他区域322内的图像要在第一区域312内的图像之后被接合,并且在第二区域314内的图像要在其他区域322内的图像之后被接合。在另一示例中,接合次序318可以规定在第一区域312内的图像要被接合用于全景320的相对显著的特征(例如,前景倾向),在第二区域314内的图像要被接合用于全景的相对不那么显著的特征(例如,背景倾向),并且在其他区域222内的图像可以被接合用于全景320的任何特征。以这种方式,全景320可以基于在接合次序318的基础上接合图像堆栈310内的一个或者多个图像而被生成。
图4图示了被配置用于针对全景接合而排序图像的系统400的示例。系统400包括图像堆栈组件404和/或接合组件416。图像堆栈组件404被配置成保持包括一个或者多个图像的图像堆栈410,所述一个或者多个图像要由接合组件416接合在一起以生成由该一个或者多个图像描绘的场景的全景。例如,图像堆栈组件404被配置成基于一个或者多个排序偏好(诸如第一排序偏好406、第二排序偏好408和/或未图示的其他排序偏好)而将一组图像402存储在图像堆栈410内。在一个示例中,第一排序偏好406对应于手动捕获图像准则,使得被手动捕获的一个或者多个当前图像可以被加入到图像堆栈410的、具有相对较高的接合优先级的第一区域412(例如,图像(L)、图像(M)和图像(N)可以由用户手动捕获)。第二排序偏好408对应于自动捕获图像准则,使得被自动捕获的一个或者多个当前图像可以被加入到图像堆栈410的、具有相对较低的接合优先级的第二区域414(例如,图像(O)、图像(P)、图像(Q)和图像(R)可以被相机自动捕获)。以这种方式,这组图像402可以基于一个或者多个排序偏好而被存储在图像堆栈410的一个或者多个区域内。
接合组件416被配置成按照接合次序418来接合图像堆栈410内的一个或者多个图像以生成全景420。在一个示例中,接合次序418可以规定在第一区域412内的图像要在第二区域414内的图像之前被接合。在另一示例中,接合次序418可以规定在第一区域412内的图像要被接合用于全景420的相对显著的特征(例如,前景倾向),并且在第二区域414内的图像要被接合用于全景420的相对不那么显著的特征(例如,背景倾向)。以这种方式,全景420可以基于在接合次序418的基础上接合图像堆栈410内的一个或者多个图像而被生成。
图5图示了被配置用于针对全景接合而重新排序图像堆栈内的图像的系统500的示例。系统500可以包括图像堆栈组件510。图像堆栈组件510可以被配置成保持包括一个或者多个图像的图像堆栈(例如,在进行重新排序之前的图像堆栈502a和/或在进行重新排序之后的图像堆栈502b),所述一个或者多个图像可以按照接合次序进行接合以生成全景。图像堆栈可包括第一区域504和第二区域506。在第一区域内504内的一个或者多个图像可以具有比第二区域506内的一个或者多个图像相对更高的接合优先级。图像堆栈组件510可以被配置成保持图像堆栈内的图像次序。例如,图像堆栈组件510可以基于被手动捕获的图像(L)、图像(M)和图像(N)而将这样的图像存储在图像堆栈502a的第一区域504内。图像堆栈组件510可以基于被自动捕获的图像(O)、图像(P)、图像(Q)和图像(R)而将这样的图像存储在图像堆栈502a的第二区域506内。
图像堆栈组件510可以被配置成基于指示图像堆栈502内的图像位置要被修改的输入而重新排序图像堆栈502a内的一个或者多个图像,得到图像堆栈502b。例如,用户可以指示图像(M)是被用户手动拍摄的相对不重要的图像。该指示可以被解释为指示在图像堆栈502a内的图像(M)508a的位置要被修改的输入。响应于该输入,图像堆栈组件510可以将图像(M)508a从第一区域504重新指派到第二区域506作为图像堆栈502b的图像(M)508b,因为第二区域506具有比第一区域504相对较低的接合优先级。以这种方式,图像(M)508b可以被重新指派给图像堆栈502b的第二区域506。可以领会的是,图像堆栈502a和图像堆栈502b是同一图像堆栈,但是描绘在重新定位图像(M)之前和之后的时间堆栈。
提供用于图像捕获的焦点指示符的实施例由图6的示范性方法600图示。在一个示例中,相机可以用来捕获场景的一个或者多个图像(例如,描绘出整修的厨房的图像),其可以用来生成场景的可视化表示(例如,旋转电影、全景、非全景可视化表示和/或其他可视化表示)。因为可以使用多于一个图像来生成可视化表示,所以可以提供对于图像捕获的指导(例如,可以向用户提供指示符,其可以指示可以从其捕获下一图像的视角,以使得场景由用来生成场景的可视化表示的图像充分地表示或者“看到”,否则,可视化表示可能是不完整的,因为丢失了图像信息)。在602,方法开始。在604,跟踪相机的当前位置(例如,独立的相机或者集成到另一计算设备(诸如平板电脑或者移动设备)中的相机)。例如,可以跟踪相机的位置数据和/或定向数据以确定当前位置(例如,从一个或者多个之前捕获图像中导出的数据;从GPS中导出的数据、从陀螺仪或者其他位置跟踪设备中导出的数据;等等)。
在606,可以将当前位置与从一个或者多个之前捕获图像中导出的场景焦点相比较,以生成焦点指示符。场景焦点可以从场景的一个或者多个之前捕获的图像的各个焦点导出。如果相机的当前位置指示相机正在从对应于场景焦点的视角观看场景,则焦点指示符可以指示相机处于捕获当前图像的正确位置。然而,如果相机的当前位置指示着相机没有正在从对应于场景焦点的视角观看场景,则焦点指示符可以指示相机要被重新定位到对应于场景焦点的新视角,以使得当前图像可以从新视角来捕获。
在608,可以在捕获场景的当前图像期间提供焦点指示符。在一个示例中,响应于当前位置对应于焦点,焦点指示符并不通过相机显示,因为相机处于正确位置。在另一示例中,响应于当前位置对应于焦点,通过相机来显示焦点指示符以向用户指示相机处于正确位置。在另一示例中,响应于当前位置不对应于焦点,显示焦点指示符来指示要将相机从当前位置移动到对应于焦点的新位置(例如,可以显示在点/离点指示符;可以被显示冷/热指示符;可以被显示诸如指示移动相机方向的箭头之类的焦点调整建议;和/或可以提供过多的其他指示符以帮助用户重新定位相机)。以这种方式,当前图像和一个或者多个之前捕获的图像可以基于场景焦点而被接合,以生成场景的可视化表示。在一些实施例中,用户可能期望停止捕获用于可视化表示的图像,并且开始捕获用于新的可视化表示的图像。可以提供全景转变指示符来帮助用户重新定位相机,以便转变成捕获用于新的可视化表示的图像。全景转变指示符可以指示所建议的相机移动来发起对于新的可视化表示的图像捕获。在610,方法结束。
图7图示了被配置用于提供用于图像捕获的焦点指示符716的系统700的示例。系统700可以与用来捕获描绘场景(例如,包括树、太阳、云、建筑物等等的户外空间)的一个或者多个图像的相机702相关联。系统700可以包括相机位置组件708。相机位置组件708可以访问场景的一个或者多个之前捕获的图像712(例如,从面向北的视角描绘场景的第一之前捕获图像、从面向东南的视角描绘场景的第二之前捕获图像、描绘场景的地面视图的第三之前捕获的图像、描绘场景的天空视图的第四之前捕获的图像,等等)。
在一个示例中,一个或者多个之前捕获的图像712可能并不从面向西的视角描绘场景,并且因此用户可以试图使用相机702从面向西的视角捕获场景的当前图像。相机位置组件708可以指导用户捕获当前图像,以使得当前图像从对应于场景焦点710的焦点被捕获,所述场景焦点710是从一个或者多个之前捕获图像712的焦点导出的。特别地,相机位置组件708跟踪相机702的当前位置706。相机位置组件708可以将当前位置706与场景焦点710进行比较以生成焦点指示符716。相机位置组件708可以被配置成提供714焦点指示符716和/或当前相机位置指示符704,其可以帮助用户重新定位相机702以使得相机702的当前位置对应于场景焦点710(例如,使得当前相机位置指示符704与焦点指示符716对齐)。在一个示例中,可以基于重新定位相机702而修改(例如,增大尺寸、减小尺寸、被显示、被隐藏等等)焦点指示符716(例如,焦点指示符716可以随着相机的当前位置具有与场景焦点710的增大的对应性而增大(或者减小)尺寸;焦点指示符716可以随着相机702的当前位置具有与场景焦点710的减小的对应性而减小(或者增大)尺寸;焦点指示符716可以在相机702的当前位置对应于在阈值对应性内的场景焦点710时被隐藏;等等)。
图8图示了被配置用于提供焦点指示符816和/或用于图像捕获的焦点调整建议818的系统800的示例。系统800可以与用来捕获描绘场景的一个或者多个图像的相机802相关联。系统800可以包括相机位置组件808。相机位置组件808可以访问场景的一个或者多个之前捕获的图像812。相机位置组件808可以指导用户从对应于场景810的焦点的视角捕获场景的当前图像。例如,相机位置组件808可以将相机802的当前位置806与场景810的焦点比较。相机位置组件808可以被配置成提供814焦点指示符816、焦点调整建议818和/或当前相机位置指示符804。焦点调整建议818(例如,箭头、差异图像和/或其他用户界面指示符)可以帮助用户重新定位相机802,以使得相机802的当前位置对应于场景810的焦点(例如,使得当前相机位置指示符804与焦点指示符816对齐)。
又另一个实施例牵涉到包括被配置成实现本文提出的技术中的一种或者多种技术的处理器可执行指令的计算机可读介质。以这些方式设计的计算机可读介质或者计算机可读设备的示例实施例在图9中图示出,其中实现方式900包括在其上编码计算机可读数据906的计算机可读介质908,诸如CD-R、DVD-R、闪速驱动器、硬盘驱动器的盘等等。这种计算机可读数据906(诸如包括零或者一中至少一个的二进制数据)进而包括被配置成按照本文阐述的原理中的一个或者多个来操作的一组计算机指令904。在一些实施例中,处理器可执行计算机指令904被配置成执行方法902,诸如例如图1的示范性方法100中的至少一些和/或图6的示范性方法600中的至少一些。在一些实施例中,处理器可执行指令904被配置成实现系统,诸如例如图2的示范性系统200中的至少一些、图3的示范性系统300中的至少一些、图4的示范性系统400中的至少一些、图5的示范性系统500中的至少一些、图7的示范性系统700中的至少一些、和/或图8的示范性系统800中的至少一些。许多这样的计算机可读介质由本领域普通技术人员来设计,所述计算机可读介质被配置成按照本文提出的技术来操作。
如在本申请中使用的,术语“组件”、“模块”、“系统”、“接口”等等一般意图指代计算机有关的实体,其或是硬件、硬件和软件的组合、软件、或是执行中的软件。例如,组件包括在处理器上运行的进程、处理器、对象、可执行文件、执行的线程、程序和/或计算机。以举例说明的方式,在控制器上运行的应用和控制器两者都可以是组件。一个或者多个组件驻留于进程和/或执行的线程内,并且组件可以位于一台计算机上和/或分布在两台或更多台计算机之间。
此外,所要求保护的主题可以使用用以生产软件、固件、硬件或者其任何组合的标准编程和/或工程技术来控制计算机实现所公开的主题而被实现为方法、装置或者制品。如本文使用的术语“制品”意图涵盖可从任何计算机可读设备、载体或者介质中访问的计算机程序。当然,可以对本配置做出许多修改而不偏离所要求保护的主题的范围或者精神。
图10和以下讨论提供了用以实现本文阐述的规定中的一个或者多个的实施例的适当的计算环境的简明、一般的描述。图10的操作环境仅仅是适当的操作环境的一个示例,并且不意图暗示关于操作环境的使用范围或功能的任何限制。示例计算设备包括但不限于个人计算机、服务器计算机、手持式或者膝上型设备、移动设备(诸如移动电话、个人数字助理(PDA)、媒体播放器等等)、多处理器系统、消费者电子装置、微型计算机、大型计算机、包括以上系统或者设备中的任一个的分布式计算环境等等。
一般地,实施例是在由一个或者多个计算设备执行的“计算机可读指令”的一般上下文中描述的。计算机可读指令经由计算机可读介质而分布,如下面将讨论的。计算机可读指令被实现为执行特定任务或者实现特定抽象数据类型的程序模块,诸如函数、对象、应用编程接口(API)、数据结构等等。典型地,计算机可读指令的功能被组合或者按期望分布在各种环境中。
图10图示出包括计算设备1012的系统1000的示例,计算设备1012被配置成实现本文提供的一个或者多个实施例。在一个配置中,计算设备1012包括至少一个处理单元1016和存储器1018。在一些实施例中,取决于计算设备的确切配置和类型,存储器1018可以是易失性的(诸如RAM)、非易失性的(诸如ROM、闪速存储器等等)或者两者某种组合。这个配置在图10中由虚线1014图示。
在其他实施例中,设备1012包括附加特征和/或功能。例如,设备1012还包括附加存储装置(诸如可移动存储装置和/或不可移动存储装置),包括但不限于磁存储装置、光学存储装置等等。这样的附加存储装置在图10中由存储装置1020图示。在一些实施例中,用来实现本文提供的一个或者多个实施例的计算机可读指令在存储装置1020中。存储装置1020还存储其他计算机可读指令来实现操作系统、应用程序等等。计算机可读指令被装载在存储器1018中以用于由例如处理单元1016执行。
如本文使用的术语“计算机可读介质”包括计算机存储介质。计算机存储介质包括以用于存储信息(诸如计算机可读指令或者其他数据)的任何方法或者技术而实现的易失性和非易失性、可移动和不可移动介质。存储器1018和存储装置1020是计算机存储介质的示例。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪速存储器或者其他存储器技术、CD-ROM、数字多用盘(DVD)或者其他光学存储装置、盒式磁带、磁带、磁盘存储装置或者其他磁存储设备、或者可以用来存储期望的信息并且可以由设备1012访问的任何其他介质。任何这样的计算机存储介质可以是设备1012的一部分。
术语“计算机可读介质”可以包括通信介质。通信介质典型地体现“已调制数据信号”(诸如载波或者其他传输机制)中的计算机可读指令或者其他数据,并且包括任何信息递送介质。术语“已调制数据信号”包括使其特性中的一个或者多个以对信号中的信息编码这样的方式被设定或者改变的信号。
设备1012包括(多个)输入设备1024,诸如键盘、鼠标、笔、话音输入设备、触摸输入设备、红外相机、视频输入设备和/或任何其他输入设备。诸如一个或者多个显示器、扬声器、打印机或任何其他输出设备的(多个)输出设备1022也被包括在设备1012中。(多个)输入设备1024和(多个)输出设备1022经由有线连接、无线连接或者其任何组合连接到设备1012。在一些实施例中,来自另一计算设备的输入设备或者输出设备被用作用于计算设备1012的(多个)输入设备1024或者(多个)输出设备1022。设备1012还包括用以促进与一个或者多个其他设备进行通信的(多个)通信连接1026。
虽然已经以特定于结构特征和/或方法动作的语言描述了本主题,但是将理解的是,所附权利要求的主题不必限于上文描述的特定特征或者动作。相反,上文描述的特定特征和动作是作为实现所述权利要求的示例形式而被公开的。
本文提供了实施例的各种操作。描述操作中的一些或者全部的次序不应被解读为隐含这些操作必须依赖于次序。得益于本描述的本领域技术人员将领会供替换的排序。进一步地,将理解的是,不是所有操作都必须在本文提供的每个实施例中呈现。
将领会的是,为了简要的目的并且便于理解,本文描绘的层、特征、元件等等用相对于彼此的特定尺度(诸如例如结构尺度和/或定向)进行图示,并且在一些实施例中,这些层、特征、元件等等的实际尺度显著不同于本文所图示的尺度。
进一步地,除非以其他方式规定,否则“第一”、“第二”等等不意图隐含时间方面、空间方面、排序等等。相反,这样的术语仅仅被用作用于特征、元件、项目等等的标识符、名称等等。例如,第一对象和第二对象一般对应于对象A和对象B或者两个不同的或者两个相同的对象、或者同一对象。
而且,“示范性”在本文中用来意指充当示例、实例或者举例说明等等,并且不一定是有利的。如在本申请中使用的,“或者”意图意指包含性的“或者”而不是排他性的“或者”。另外,如在本申请中使用的“一”或者“一个”一般地被解读为意指“一个或者多个”,除非以其他方式规定或者从上下文中清楚其针对单数形式。并且,A和B中的至少一个和/或之类一般意指A或者B,或者A和B两者。此外,就“包括”、“具有”、“有”、“带有”或者其变体用于具体实施方式或者权利要求中的程度而言,这样的术语意图是以类似于术语“包括”的方式而是包含性的。
并且,虽然已经关于一个或者多个实现方式示出并且描述了本公开,但是基于对本说明书和附图的阅读和理解,本领域技术人员将想到等同的更改和修改。本公开包括所有这样的修改和更改,并且仅仅由以下权利要求的范围限制。
Claims (20)
1.一种用于针对全景接合而排序图像的方法,包括:
保持包括一个或者多个图像的图像堆栈,所述一个或者多个图像要被接合在一起以生成全景,所述保持包括:
响应于当前图像对应于第一排序偏好,将所述当前图像加入到所述图像堆栈的第一区域;以及
响应于所述当前图像对应于第二排序偏好,将所述当前图像加入到所述图像堆栈的所述第二区域;以及
按照接合次序来接合所述图像堆栈中的所述一个或者多个图像以生成所述全景,所述接合次序规定所述第一区域相对于所述第二区域具有接合优先级。
2.根据权利要求1所述的方法,所述第一排序偏好对应于手动捕获的图像,并且所述第二排序偏好对应于自动捕获的图像。
3.根据权利要求1所述的方法,所述第一排序偏好对应于第一时间准则,并且所述第二排序偏好对应于第二时间准则。
4.根据权利要求所述1的方法,所述接合次序将所述第一区域与前景倾向相关联并且将所述第二区域与背景倾向相关联。
5.根据权利要求所述1的方法,包括:
响应于接收到用于修改图像在所述图像堆栈内的位置的输入,基于所述输入来重新排序所述图像堆栈内的一个或者多个图像。
6.根据权利要求5所述的方法,所述重新排序包括以下操作中的至少一个操作:
将第一图像从所述第一区域重新指派到所述第二区域;或者
将第二图像从所述第二区域重新指派到所述第一区域。
7.一种用于提供用于图像捕获的焦点指示符的方法,包括:
跟踪相机的当前位置;
将所述当前位置与由一个或者多个之前捕获的图像所描绘的场景的焦点进行比较,以生成焦点指示符;以及
在所述场景的当前图像的捕获期间提供所述焦点指示符。
8.根据权利要求7所述的方法,所述跟踪当前位置包括以下操作中的至少一个操作:
跟踪所述相机的位置数据;或者
跟踪所述相机的定向数据。
9.根据权利要求7所述的方法,包括:
基于所述一个或者多个之前捕获的图像的各个焦点来确定所述场景的所述焦点。
10.根据权利要求7所述的方法,包括:
基于所述焦点来将所述当前图像与所述一个或者多个之前捕获的图像进行接合以生成全景。
11.根据权利要求7所述的方法,包括:
使用所述当前图像和所述一个或者多个之前捕获的图像来生成旋转电影或非全景可视化表示中的一者。
12.根据权利要求7所述的方法,所述提供所述焦点指示符包括:
通过所述相机显示焦点调整建议。
13.根据权利要求7所述的方法,所述提供所述焦点指示符包括:
响应于所述当前位置对应于所述焦点,不显示所述焦点指示符;以及
响应于所述当前位置不对应于所述焦点,显示所述焦点指示符。
14.根据权利要求7所述的方法,包括:
提供全景转变指示符,所述全景转变指示符指示建议的相机移动以发起对于新的全景的图像捕获。
15.一种用于针对全景接合而排序图像的系统,包括:
图像堆栈组件,其被配置成:
保持包括一个或者多个图像的图像堆栈,所述一个或者多个图像要被接合在一起以生成全景,所述保持包括:
响应于当前图像对应于第一排序偏好,将所述当前图像加入到所述图像堆栈的第一区域;以及
响应于所述当前图像对应于第二排序偏好,将所述当前图像加入到所述图像堆栈的第二区域;以及
接合组件,其被配置成:
按照接合次序接合所述图像堆栈中的所述一个或者多个图像以生成所述全景,所述接合次序规定所述第一区域相对于所述第二区域具有接合优先级。
16.根据权利要求15所述的系统,包括:
相机位置组件,其被配置成:
跟踪相机的当前位置;
将所述当前位置与由所述图像堆栈内的一个或者多个之前捕获的图像所描绘的场景的焦点相比较,以生成焦点指示符;以及
在所述场景的所述当前图像的捕获期间提供所述焦点指示符。
17.根据权利要求15的系统,所述接合次序将所述第一区域与前景倾向相关联并且将所述第二区域与背景倾向相关联。
18.根据权利要求15所述的系统,所述图像堆栈组件被配置成:
响应于接收到用于修改图像在所述图像堆栈内的位置的输入,基于所述输入来重新排序所述图像堆栈内的一个或者多个图像。
19.根据权利要求18所述的系统,所述图像堆栈组件被配置成进行以下操作中的至少一个操作:
将第一图像从所述第一区域重新指派到所述第二区域;或者
将第二图像从所述第二区域重新指派到所述第一区域。
20.根据权利要求16所述的系统,所述接合组件被配置成:
基于所述焦点来接合所述图像堆栈中的所述一个或者多个图像以生成所述全景。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811307030.1A CN109584160B (zh) | 2013-03-14 | 2014-03-12 | 图像捕获和排序 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/826,091 | 2013-03-14 | ||
US13/826,091 US9712746B2 (en) | 2013-03-14 | 2013-03-14 | Image capture and ordering |
CN201811307030.1A CN109584160B (zh) | 2013-03-14 | 2014-03-12 | 图像捕获和排序 |
PCT/US2014/023915 WO2014159493A1 (en) | 2013-03-14 | 2014-03-12 | Image capture and ordering |
CN201480015275.0A CN105359184B (zh) | 2013-03-14 | 2014-03-12 | 图像捕获和排序 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480015275.0A Division CN105359184B (zh) | 2013-03-14 | 2014-03-12 | 图像捕获和排序 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109584160A true CN109584160A (zh) | 2019-04-05 |
CN109584160B CN109584160B (zh) | 2023-08-22 |
Family
ID=50439503
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811307030.1A Active CN109584160B (zh) | 2013-03-14 | 2014-03-12 | 图像捕获和排序 |
CN201480015275.0A Active CN105359184B (zh) | 2013-03-14 | 2014-03-12 | 图像捕获和排序 |
CN201811307028.4A Active CN109584159B (zh) | 2013-03-14 | 2014-03-12 | 图像捕获和排序 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480015275.0A Active CN105359184B (zh) | 2013-03-14 | 2014-03-12 | 图像捕获和排序 |
CN201811307028.4A Active CN109584159B (zh) | 2013-03-14 | 2014-03-12 | 图像捕获和排序 |
Country Status (6)
Country | Link |
---|---|
US (3) | US9712746B2 (zh) |
EP (1) | EP2973388B1 (zh) |
CN (3) | CN109584160B (zh) |
ES (1) | ES2734375T3 (zh) |
HK (1) | HK1215321A1 (zh) |
WO (1) | WO2014159493A1 (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11690558B2 (en) * | 2011-01-21 | 2023-07-04 | The Trustees Of Dartmouth College | Surgical navigation with stereovision and associated methods |
US10568535B2 (en) * | 2008-05-22 | 2020-02-25 | The Trustees Of Dartmouth College | Surgical navigation with stereovision and associated methods |
US20140378843A1 (en) | 2012-01-20 | 2014-12-25 | The Trustees Of Dartmouth College | Method And Apparatus For Quantitative Hyperspectral Fluorescence And Reflectance Imaging For Surgical Guidance |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US9305371B2 (en) | 2013-03-14 | 2016-04-05 | Uber Technologies, Inc. | Translated view navigation for visualizations |
US9712746B2 (en) | 2013-03-14 | 2017-07-18 | Microsoft Technology Licensing, Llc | Image capture and ordering |
US20150058782A1 (en) * | 2013-08-21 | 2015-02-26 | Intel Corporation | System and method for creating and interacting with a surface display |
US20150106735A1 (en) * | 2013-10-16 | 2015-04-16 | Kobo Incorporated | System and method for a graphical user interface operable for user taste configuration |
US10332089B1 (en) * | 2015-03-31 | 2019-06-25 | Amazon Technologies, Inc. | Data synchronization system |
US10325390B2 (en) * | 2016-03-31 | 2019-06-18 | Qualcomm Incorporated | Geometric work scheduling with dynamic and probabilistic work trimming |
US11176504B2 (en) * | 2016-04-22 | 2021-11-16 | International Business Machines Corporation | Identifying changes in health and status of assets from continuous image feeds in near real time |
WO2017193372A1 (zh) * | 2016-05-13 | 2017-11-16 | 深圳市赛亿科技开发有限公司 | 一种实现全景图像拼接的方法及系统 |
CN106952227A (zh) * | 2017-03-09 | 2017-07-14 | 重庆信科设计有限公司 | 一种航拍序列图像自动排序的方法 |
CN109427085B (zh) * | 2017-08-29 | 2022-10-18 | 阿里巴巴集团控股有限公司 | 一种图像数据的处理、渲染方法、服务器及客户端 |
CN107689030A (zh) * | 2017-09-18 | 2018-02-13 | 上海联影医疗科技有限公司 | 一种图像处理的方法及装置 |
US10944907B2 (en) * | 2017-12-13 | 2021-03-09 | Qualcomm Incorporated | Generating an image using automatic mode settings while in manual mode |
US10628698B1 (en) * | 2019-07-02 | 2020-04-21 | Grundium Oy | Method for image stitching |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1936568A2 (en) * | 2006-12-20 | 2008-06-25 | Mitsubishi Electric Information Technology Centre Europe B.V. | Multiple image registration apparatus and method |
CN101589613A (zh) * | 2006-12-13 | 2009-11-25 | 奥多比公司 | 用于基于层的全景图调整和编辑的方法和装置 |
US20100194852A1 (en) * | 2009-02-04 | 2010-08-05 | Altek Corporation | Automatic capturing method of a panoramic image for a digital camera |
US20110234750A1 (en) * | 2010-03-24 | 2011-09-29 | Jimmy Kwok Lap Lai | Capturing Two or More Images to Form a Panoramic Image |
CN102348065A (zh) * | 2010-07-30 | 2012-02-08 | 三星电子株式会社 | 用于拍摄全景图像的方法和装置 |
US20120249957A1 (en) * | 2011-03-31 | 2012-10-04 | Nidek Co., Ltd. | Ophthalmic photographing apparatus |
Family Cites Families (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL119831A (en) | 1996-12-15 | 2002-12-01 | Cognitens Ltd | A device and method for three-dimensional reconstruction of the surface geometry of an object |
EP0954828B1 (en) | 1997-01-30 | 2004-10-27 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Generalized panoramic mosaic |
US6222555B1 (en) | 1997-06-18 | 2001-04-24 | Christofferson Enterprises, Llc | Method for automatically smoothing object level of detail transitions for regular objects in a computer graphics display system |
US6044181A (en) | 1997-08-01 | 2000-03-28 | Microsoft Corporation | Focal length estimation method and apparatus for construction of panoramic mosaic images |
JP3947290B2 (ja) * | 1998-01-19 | 2007-07-18 | オリンパス株式会社 | 画像合成処理装置および画像合成処理プログラムを記録した記録媒体 |
US6246412B1 (en) | 1998-06-18 | 2001-06-12 | Microsoft Corporation | Interactive construction and refinement of 3D models from multiple panoramic images |
US6271855B1 (en) | 1998-06-18 | 2001-08-07 | Microsoft Corporation | Interactive construction of 3D models from panoramic images employing hard and soft constraint characterization and decomposing techniques |
US6084592A (en) | 1998-06-18 | 2000-07-04 | Microsoft Corporation | Interactive construction of 3D models from panoramic images |
US6359617B1 (en) | 1998-09-25 | 2002-03-19 | Apple Computer, Inc. | Blending arbitrary overlaying images into panoramas |
AU4336300A (en) | 1999-04-08 | 2000-10-23 | Internet Pictures Corporation | Virtual theater |
US6639596B1 (en) | 1999-09-20 | 2003-10-28 | Microsoft Corporation | Stereo reconstruction from multiperspective panoramas |
ES2411096T3 (es) | 1999-10-27 | 2013-07-04 | Novartis Vaccines And Diagnostics, Inc. | Activación de linfocitos T específicos contra el VHC |
US6885392B1 (en) | 1999-12-31 | 2005-04-26 | Stmicroelectronics, Inc. | Perspective correction for preview area of panoramic digital camera |
US6456323B1 (en) | 1999-12-31 | 2002-09-24 | Stmicroelectronics, Inc. | Color correction estimation for panoramic digital camera |
US6771304B1 (en) | 1999-12-31 | 2004-08-03 | Stmicroelectronics, Inc. | Perspective correction device for panoramic digital camera |
US6788333B1 (en) | 2000-07-07 | 2004-09-07 | Microsoft Corporation | Panoramic video |
US7095905B1 (en) | 2000-09-08 | 2006-08-22 | Adobe Systems Incorporated | Merging images to form a panoramic image |
US20040104935A1 (en) | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
US6905218B2 (en) | 2001-04-12 | 2005-06-14 | Luc Courchesne | Panoramic and horizontally immersive image display system and method |
US7010158B2 (en) | 2001-11-13 | 2006-03-07 | Eastman Kodak Company | Method and apparatus for three-dimensional scene modeling and reconstruction |
US6762769B2 (en) | 2002-01-23 | 2004-07-13 | Microsoft Corporation | System and method for real-time texture synthesis using patch-based sampling |
DE10205305A1 (de) | 2002-02-08 | 2003-08-28 | Infineon Technologies Ag | Taktsteuerung von Sendesignal-Verarbeitungseinrichtungen in Mobilfunk-Endeinrichtungen |
US20040189849A1 (en) | 2003-03-31 | 2004-09-30 | Hofer Gregory V. | Panoramic sequence guide |
JP4616841B2 (ja) | 2003-11-13 | 2011-01-19 | 本田技研工業株式会社 | 距離、局所線形構造およびアフィン対称を用いた画像クラスタリング |
EP2408193A3 (en) * | 2004-04-16 | 2014-01-15 | James A. Aman | Visible and non-visible light sensing camera for videoing and object tracking |
US8751156B2 (en) | 2004-06-30 | 2014-06-10 | HERE North America LLC | Method of operating a navigation system using images |
CA2587644C (en) | 2004-11-12 | 2015-01-13 | Mok3, Inc. | Method for inter-scene transitions |
US7580952B2 (en) | 2005-02-28 | 2009-08-25 | Microsoft Corporation | Automatic digital image grouping using criteria based on image metadata and spatial information |
US7683948B2 (en) | 2005-03-31 | 2010-03-23 | Freescale Semiconductor, Inc. | System and method for bad pixel replacement in image processing |
US7565029B2 (en) | 2005-07-08 | 2009-07-21 | Seiko Epson Corporation | Method for determining camera position from two-dimensional images that form a panorama |
US20070236514A1 (en) | 2006-03-29 | 2007-10-11 | Bracco Imaging Spa | Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation |
US7860343B2 (en) * | 2006-04-10 | 2010-12-28 | Nokia Corporation | Constructing image panorama using frame selection |
US8026929B2 (en) | 2006-06-26 | 2011-09-27 | University Of Southern California | Seamlessly overlaying 2D images in 3D model |
KR100796849B1 (ko) | 2006-09-04 | 2008-01-22 | 삼성전자주식회사 | 휴대 단말기용 파노라마 모자이크 사진 촬영 방법 |
CA2669409C (en) | 2006-11-13 | 2019-09-17 | Everyscape, Inc. | Method for scripting inter-scene transitions |
US8200039B2 (en) | 2007-04-05 | 2012-06-12 | Adobe Systems Incorporated | Laying out multiple images |
US7936915B2 (en) | 2007-05-29 | 2011-05-03 | Microsoft Corporation | Focal length estimation for panoramic stitching |
EP2158576A1 (en) | 2007-06-08 | 2010-03-03 | Tele Atlas B.V. | Method of and apparatus for producing a multi-viewpoint panorama |
CN100448271C (zh) * | 2007-08-10 | 2008-12-31 | 浙江大学 | 基于全景图拼接的视频编辑方法 |
US9123159B2 (en) | 2007-11-30 | 2015-09-01 | Microsoft Technology Licensing, Llc | Interactive geo-positioning of imagery |
US8350850B2 (en) | 2008-03-31 | 2013-01-08 | Microsoft Corporation | Using photo collections for three dimensional modeling |
KR101665034B1 (ko) | 2008-08-22 | 2016-10-24 | 구글 인코포레이티드 | 이동 장치 상의 삼차원 환경에서의 네비게이션 |
JP2010073002A (ja) * | 2008-09-19 | 2010-04-02 | Hoya Corp | 画像処理装置およびカメラ |
US8250476B2 (en) | 2008-12-04 | 2012-08-21 | International Business Machines Corporation | Asynchronous immersive communications in a virtual universe |
US8933925B2 (en) | 2009-06-15 | 2015-01-13 | Microsoft Corporation | Piecewise planar reconstruction of three-dimensional scenes |
US20120019614A1 (en) | 2009-12-11 | 2012-01-26 | Tessera Technologies Ireland Limited | Variable Stereo Base for (3D) Panorama Creation on Handheld Device |
CN101872113B (zh) | 2010-06-07 | 2014-03-19 | 中兴通讯股份有限公司 | 一种全景照片的拍摄方法及设备 |
US8837811B2 (en) | 2010-06-17 | 2014-09-16 | Microsoft Corporation | Multi-stage linear structure from motion |
JP5574423B2 (ja) * | 2010-09-24 | 2014-08-20 | カシオ計算機株式会社 | 撮像装置、表示制御方法及びプログラム |
JP5269026B2 (ja) * | 2010-09-29 | 2013-08-21 | 日立建機株式会社 | 作業機械の周囲監視装置 |
US8705892B2 (en) | 2010-10-26 | 2014-04-22 | 3Ditize Sl | Generating three-dimensional virtual tours from two-dimensional images |
WO2012071445A2 (en) | 2010-11-24 | 2012-05-31 | Google Inc. | Guided navigation through geo-located panoramas |
JP5214826B2 (ja) * | 2010-12-24 | 2013-06-19 | 富士フイルム株式会社 | 立体パノラマ画像作成装置、立体パノラマ画像作成方法及び立体パノラマ画像作成プログラム並びに立体パノラマ画像再生装置、立体パノラマ画像再生方法及び立体パノラマ画像再生プログラム、記録媒体 |
CN102750274B (zh) | 2011-01-04 | 2014-12-10 | 张越峰 | 一种初具人类思维的现场智能引导服务系统及方法 |
US9632677B2 (en) | 2011-03-02 | 2017-04-25 | The Boeing Company | System and method for navigating a 3-D environment using a multi-input interface |
US8620095B2 (en) | 2011-03-15 | 2013-12-31 | Microsoft Corporation | Performing structure from motion for unordered images of a scene with multiple object instances |
WO2012131151A1 (en) * | 2011-03-28 | 2012-10-04 | Nokia Corporation | Methods and apparatuses for generating a panoramic image |
US11284846B2 (en) | 2011-05-12 | 2022-03-29 | The John Hopkins University | Method for localization and identification of structures in projection images |
US20120300020A1 (en) | 2011-05-27 | 2012-11-29 | Qualcomm Incorporated | Real-time self-localization from panoramic images |
US8675049B2 (en) | 2011-06-09 | 2014-03-18 | Microsoft Corporation | Navigation model to render centered objects using images |
US8928729B2 (en) | 2011-09-09 | 2015-01-06 | Disney Enterprises, Inc. | Systems and methods for converting video |
US8787700B1 (en) | 2011-11-30 | 2014-07-22 | Google Inc. | Automatic pose estimation from uncalibrated unordered spherical panoramas |
US9270885B2 (en) | 2012-10-26 | 2016-02-23 | Google Inc. | Method, system, and computer program product for gamifying the process of obtaining panoramic images |
US9214138B2 (en) | 2012-12-28 | 2015-12-15 | Microsoft Technology Licensing, Llc | Redundant pixel mitigation |
US9135742B2 (en) | 2012-12-28 | 2015-09-15 | Microsoft Technology Licensing, Llc | View direction determination |
US20140184596A1 (en) | 2012-12-28 | 2014-07-03 | Microsoft Corporation | Image based rendering |
US20140267600A1 (en) | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Synth packet for interactive view navigation of a scene |
US9305371B2 (en) | 2013-03-14 | 2016-04-05 | Uber Technologies, Inc. | Translated view navigation for visualizations |
US9712746B2 (en) | 2013-03-14 | 2017-07-18 | Microsoft Technology Licensing, Llc | Image capture and ordering |
US20140267587A1 (en) | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Panorama packet |
-
2013
- 2013-03-14 US US13/826,091 patent/US9712746B2/en active Active
-
2014
- 2014-03-12 CN CN201811307030.1A patent/CN109584160B/zh active Active
- 2014-03-12 CN CN201480015275.0A patent/CN105359184B/zh active Active
- 2014-03-12 EP EP14715498.3A patent/EP2973388B1/en active Active
- 2014-03-12 ES ES14715498T patent/ES2734375T3/es active Active
- 2014-03-12 CN CN201811307028.4A patent/CN109584159B/zh active Active
- 2014-03-12 WO PCT/US2014/023915 patent/WO2014159493A1/en active Application Filing
-
2016
- 2016-03-22 HK HK16103317.2A patent/HK1215321A1/zh unknown
-
2017
- 2017-05-24 US US15/603,568 patent/US9973697B2/en active Active
-
2018
- 2018-03-28 US US15/939,220 patent/US10951819B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101589613A (zh) * | 2006-12-13 | 2009-11-25 | 奥多比公司 | 用于基于层的全景图调整和编辑的方法和装置 |
EP1936568A2 (en) * | 2006-12-20 | 2008-06-25 | Mitsubishi Electric Information Technology Centre Europe B.V. | Multiple image registration apparatus and method |
US20100194852A1 (en) * | 2009-02-04 | 2010-08-05 | Altek Corporation | Automatic capturing method of a panoramic image for a digital camera |
US20110234750A1 (en) * | 2010-03-24 | 2011-09-29 | Jimmy Kwok Lap Lai | Capturing Two or More Images to Form a Panoramic Image |
CN102348065A (zh) * | 2010-07-30 | 2012-02-08 | 三星电子株式会社 | 用于拍摄全景图像的方法和装置 |
US20120249957A1 (en) * | 2011-03-31 | 2012-10-04 | Nidek Co., Ltd. | Ophthalmic photographing apparatus |
Non-Patent Citations (1)
Title |
---|
ASEEM AGARWALA: "Panoramic Video Textures", 《ACM》 * |
Also Published As
Publication number | Publication date |
---|---|
CN105359184B (zh) | 2018-12-04 |
CN109584160B (zh) | 2023-08-22 |
CN105359184A (zh) | 2016-02-24 |
US10951819B2 (en) | 2021-03-16 |
HK1215321A1 (zh) | 2016-08-19 |
CN109584159A (zh) | 2019-04-05 |
US9712746B2 (en) | 2017-07-18 |
EP2973388B1 (en) | 2019-04-24 |
US20140267588A1 (en) | 2014-09-18 |
EP2973388A1 (en) | 2016-01-20 |
WO2014159493A1 (en) | 2014-10-02 |
US20180220072A1 (en) | 2018-08-02 |
US9973697B2 (en) | 2018-05-15 |
US20170257565A1 (en) | 2017-09-07 |
CN109584159B (zh) | 2022-12-20 |
ES2734375T3 (es) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105359184B (zh) | 图像捕获和排序 | |
US9154761B2 (en) | Content-based video segmentation | |
US8645867B2 (en) | Modifying time associated with digital media items | |
US9324179B2 (en) | Controlling a virtual camera | |
US9304651B2 (en) | Method of real-time incremental zooming | |
KR101865425B1 (ko) | 조절가능한 점진적인 이동 장치 거리뷰 | |
US11317028B2 (en) | Capture and display device | |
US20130135315A1 (en) | Method, system and software program for shooting and editing a film comprising at least one image of a 3d computer-generated animation | |
CN109309779A (zh) | 利用多个光学图像稳定相机的移动变焦 | |
US20130097552A1 (en) | Constructing an animation timeline via direct manipulation | |
CN104969263B (zh) | 用于生成动画的运动序列的方法、系统及计算机可读记录介质 | |
EP2579216A1 (en) | Animation authoring system and method for authoring animation | |
US9167290B2 (en) | City scene video sharing on digital maps | |
TW200839647A (en) | In-scene editing of image sequences | |
US10789726B2 (en) | Methods and systems for film previsualization | |
US20140267600A1 (en) | Synth packet for interactive view navigation of a scene | |
EP4268200A1 (en) | Image data annotation system | |
US11765333B1 (en) | Systems and methods for improved transitions in immersive media | |
US20140372916A1 (en) | Fixed header control for grouped grid panel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |