CN106603901A - 用于场景匹配的方法和装置 - Google Patents

用于场景匹配的方法和装置 Download PDF

Info

Publication number
CN106603901A
CN106603901A CN201510662482.1A CN201510662482A CN106603901A CN 106603901 A CN106603901 A CN 106603901A CN 201510662482 A CN201510662482 A CN 201510662482A CN 106603901 A CN106603901 A CN 106603901A
Authority
CN
China
Prior art keywords
camera
target
attitude
image
axle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510662482.1A
Other languages
English (en)
Inventor
冯云
田野
王文东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Nokia Technologies Oy
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Priority to CN201510662482.1A priority Critical patent/CN106603901A/zh
Publication of CN106603901A publication Critical patent/CN106603901A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

本公开的实施例涉及用于场景匹配的方法和装置。在一个实施例中,提供一种用于场景匹配的方法,该方法包括:确定相机的当前位置与目标拍摄位置之间的距离,所述目标拍摄位置与先前捕获的目标图像相关联;响应于所述距离小于阈值距离,显示相机姿态引导以便辅助用户控制所述相机的姿态,所述相机姿态引导指示所述相机的姿态与目标拍摄姿态之间的差异,所述目标拍摄姿态与所述目标图像相关联;以及响应于所述相机的所述姿态与所述目标相机姿态相匹配,基于所述相机捕获的图像与所述目标图像之间的相似度,控制所述相机的拍摄参数。还公开了有关的设备、装置和计算机程序产品。

Description

用于场景匹配的方法和装置
技术领域
本公开的实施例涉及增强显示(AR)技术,更具体地,涉及用于场景匹配的方法和装置。
背景技术
在很多应用中,需要将实时捕获的场景与已有图像进行匹配。例如,目前的很多便携式设备支持基于增强现实(Augmented Reality)技术的导航。此类导航应用能够根据用户的当前位置和预设的目的地,向用户提供实时的导航信息。为此,便携式设备的相机捕获用户所在的场景,并且将所捕获的场景可以与预先存储的地标的图像进行匹配。为了确保场景匹配的精度,通常要求场景图像和预存的图像以相同的拍摄参数(例如,位置、相机姿态,等等)被捕获。类似的需求还存储于其他感测任务中,例如空气质量分析,等等。传统的场景匹配方法或是影响用户体验,或是没有全面地考虑诸多相关因素。
发明内容
一般地,本公开的实施例提供用于场景匹配的方法和装置。
在一方面,提供一种用于场景匹配的方法。该方法包括:确定相机的当前位置与目标拍摄位置之间的距离,所述目标拍摄位置与先前捕获的目标图像相关联;响应于所述距离小于阈值距离,显示相机姿态引导以便辅助用户控制所述相机的姿态,所述相机姿态引导指示所述相机的姿态与目标拍摄姿态之间的差异,所述目标拍摄姿态与所述目标图像相关联;以及响应于所述相机的所述姿态与所述目标相机姿态相匹配,基于所述相机捕获的图像与所述目标图像之间的相似度,控制所述相机的拍摄参数。
在另一方面,提供一种设备。该设备包括:相机;以及控制器,所述控制器被配置为使所述设备:确定所述相机的当前位置与目标拍摄位置之间的距离,所述目标拍摄位置与先前捕获的目标图像相关联;响应于所述距离小于阈值距离,显示相机姿态引导以便辅助用户控制所述相机的姿态,所述相机姿态引导指示所述相机的姿态与目标拍摄姿态之间的差异,所述目标拍摄姿态与所述目标图像相关联;以及响应于所述相机的所述姿态与所述目标相机姿态相匹配,基于所述相机捕获的图像与所述目标图像之间的相似度,控制所述相机的拍摄参数。
在又一方面,提供一种用于场景匹配的装置。该装置包括:定位模块,被配置为确定相机的当前位置与目标拍摄位置之间的距离,所述目标拍摄位置与先前捕获的目标图像相关联;相机姿态引导模块,被配置为响应于所述距离小于阈值距离,显示相机姿态引导以便辅助用户控制所述相机的姿态,所述相机姿态引导指示所述相机的姿态与目标拍摄姿态之间的差异,所述目标拍摄姿态与所述目标图像相关联;以及拍摄参数控制模块,被配置为响应于所述相机的所述姿态与所述目标相机姿态相匹配,基于所述相机捕获的图像与所述目标图像之间的相似度,控制所述相机的拍摄参数。
通过下文描述将会理解,根据本公开的实施例,可以按照特定的顺序引导用户,从而逐步设置相机的位置、姿态和拍摄参数,使得相机拍摄的场景与预定的目标图像精确匹配。而且,根据本公开的实施例,用户界面(UI)允许自然、友好的交互机制,从而提高用户体验和操作效率。
附图说明
通过参考附图阅读下文的详细描述,本公开实施例的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施例,其中:
图1示出了本公开的示例性实施例可实现于其中的设备的示意性框图;
图2示出了根据本公开的示例性实施例的用于场景匹配的方法的示意性流程图;
图3示出了根据本公开的示例性实施例的位置引导的示意图;
图4示出了根据本公开的示例性实施例的相机姿态引导的示意图;
图5示出了根据本公开的示例性实施例的图像相似度指示的示意图;以及
图6示出了根据本公开的示例性实施例的用于场景匹配的装置的示意性框图。
在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施方式。虽然附图中显示了本公开的优选实施方式,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
除非特别声明,在下文描述和权利要求中,术语“基于”表示“至少部分地基于”。术语“包括”是开放性术语,表示“包括但不限于”。术语“多个”表示“两个或更多”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”。
另外,在下文描述和权利要求中,所使用的术语“图像”既包括静态图像,也包括动态图像(例如,视频的帧)。另外,所使用的术语“图像的捕获”即包括对图像的拍摄过程本身,也包括对所拍摄的图像的任何后处理过程。其他术语的相关定义将在下文描述中给出。
图1示出了本公开的实施例可实现于其中的设备100的框图。根据本公开的实施例,设备100可以是便携式多功能设备,诸如移动电话、智能电话,等的。然而,应当理解,这仅仅是示例性和非限制性的。其他的用户设备类型也可以容易地采取本公开的实施例,诸如个人数字助理(PDA)、寻呼机、移动计算机、移动TV、游戏装置、膝上式计算机、照相机、视频照相机、GPS设备和其他类型的语音和文本通信系统。
设备100可以具有通信功能。为此,如图所示,设备100可以包括一个或多个可操作与发射器114和接收器116通信的天线112。设备100还包括至少一个处理器控制器120。应当理解,控制器120包括实现设备100的所有功能所需要的电路。例如,控制器120可以包括数字信号处理器设备、微处理器设备、A/D转换器、D/A转换器以及其他支持电路。设备100的控制和信号处理功能根据这些设备各自的能力分配。设备100还可以包括用户接口,例如可以包括振铃器122、扬声器124、扩音器126、显示器或取景器128以及小键盘130,所有以上设备都耦合至控制器120。
设备100包括用于捕捉静态图像和/或动态图像的相机136。根据本公开的实施例,相机136所捕获的场景图像可以被实时地显示在显示器或者取景器128上。控制器120可以将相机136捕获的场景图像与先前捕获和存储的目标图像进行比较以便完成场景匹配,这将在下文详述。
另外,设备100还包括电池134,诸如振动电池组,用于向操作设备100所需要的各种电路供电,并且备选地提供机械振动作为可检测的输出。设备100还包括用户识别模块(UIM)138。UIM 138通常是具有内置的处理器的存储器设备。UIM 138可以例如包括订户识别模块(SIM)、通用集成电路卡(UICC)、通用用户识别模块(USIM)或可移动用户识别模块(R-UIM)等等。UIM 138可以包括根据本公开的实施例的卡连接检测装置。
设备100还包括存储设备。例如,设备100可以包括易失性存储器140,例如,包括高速缓存区域中的用于临时存储数据的易失性随机存取存储器(RAM)。设备100还可以包括其他的可以是嵌入的或可移动的非易失性存储器142。非易失性存储器142可以附加地或备选地例如包括EEPROM和闪存等。存储器可以存储多个信息片段中的任意项和设备100使用的数据,以便实现设备100的功能。
应当理解,图1中的结构框图仅仅示出用于说明目的,并非旨在限制本公开的范围。在某些情况下,某些组件可以按照具体需要而增加或者减少。
图2示出了根据本公开实施例的用于场景匹配的方法200的示意性流程图。根据本公开的实施例,存在至少一个先前捕获的图像,称之为“目标图像”。目标图像可以存储在设备100中,例如非易失性存储器142中,或者存储在设备100可以访问的其他位置。通过执行方法200,设备100可以引导用户将相机136设置在与目标图像匹配的位置、姿态和拍摄参数。由此,相机136所捕获的场景图像将与目标图像足够匹配。
方法200开始于步骤205,在此确定设备100的相机136的当前位置。在本公开的上下文中,相机136的位置可以由设备100的位置表示。根据本公开的实施例,设备100的当前位置可以通过任何适当的方式获取。例如,在一个实施例中,可以利用设备100的定位装置来确定设备100的位置。定位装置的示例包括但不限于全球定位系统(GPS)接收器,伽利略系统接收器,等等。备选地或附加地,可以借助于接收器116从多个网络接入点或者基站接收到的信号来确定设备100的位置。在其他实施例中,可以使用独立于设备100的其他定位设备来确定位置,并且将确定的位置自动或者手动地输入设备100。任何目前已知的或者将来开发的定位技术均可与本公开的实施例结合使用。
接下来,方法200进行到步骤210,在此确定相机136的当前位置与目标拍摄位置是否足够接近。也即,在步骤210,确定相机136的当前位置与目标拍摄位置之间的距离是否小于预定的阈值距离。在此使用的术语“目标拍摄位置”是指相机在捕获目标图像时所处的位置。目标拍摄位置与目标图像相关联地保存在设备100中或者设备100可访问的其他位置。例如,在一个实施例中,目标拍摄位置可以被保存为与目标图像相关联的EXIF(Exchangeable Image File Format,可交换图像文件格式)信息的一部分。其他存储方式也是可行的,只要目标拍摄位置与目标图像彼此关联即可。
如果在步骤210确定相机136的当前位置与目标拍摄位置之间的距离大于阈值距离,方法200进行到步骤215。在步骤215,向用户显示从当前位置去往目标拍摄位置的位置引导。图3示出了根据一个示例性实施例的位置引导的示意图。如图所示,在此示例中,设备100的显示器或者取景器128上同时显示有目标图像305和位置引导310。位置引导310被实现为类似于“雷达”的形式。参见位置引导310的放大图,在此示例中,位置引导310至少指示目标拍摄位置315、相机136的当前位置320以及从当前位置320指向目标拍摄位置315的方向325。在此例中,目标拍摄位置315(圆形)和当前位置320(正方形)以不同的形状示出。此外,位置引导310还示出了正方向,在此例中是北“N”。在使用中,当前位置320随着设备100的移动而实时地或者定期地改变,方向325也随之更新。由此,用户可以根据位置引导310逐步接近目标拍摄位置。
应当理解,图3中所示的位置引导310仅仅是示例性的。位置引导310以及其中的目标拍摄位置315、当前位置320和/或指引方向325均可以不同的方式呈现。备选地或附加地,在其他实施例中,可以使用听觉、触觉等多种其他反馈机制向用户提供位置引导。这些变形均落入本公开的范围之内。
继续参考图2,在步骤215之后,方法200返回步骤205,以便确定更新后的相机136的位置是否足够接近目标拍摄位置。如果相机136的当前位置与目标拍摄位置之间的距离小于阈值距离,方法200进行到步骤220。在步骤220,设备100向用户显示相机姿态引导,以用于辅助设备100的用户来设置相机136的姿态。根据本公开的实施例,相机姿态引导向用户实时地显示当前相机姿态与目标拍摄姿态之间的差异。
在此使用的术语“目标拍摄姿态”是指相机在拍摄目标图像时的姿态。目标拍摄姿态与目标图像相关联地保存在设备100中或者保存在设备100可访问的其他位置。例如,在一个实施例中,类似于目标拍摄位置,目标拍摄姿态可以被存储为与目标图像相关联的EXIF信息的一部分。由此,设备100的相机136的姿态可由控制器120访问相机136的EXIF信息而获得。
如已知的,相机的姿态可由相机的倾斜角、方向角和旋转角来定义。因此,在一个实施例中,在步骤220显示的姿态引导可以包括以下至少一个:相机136的倾斜角的第一指示,相机136的方向角的第二指示,以及相机136的旋转角的第三指示。在一个实施例中,这三个指示可以被显示为一个三维坐标系中的三个坐标轴。图4示出了一个这样的示例的示意图。
在图4所示的示例中,相机姿态引导被实现为一个三维坐标系400。该坐标系包含三个轴,其中轴410对应于相机的倾斜角,轴420对应于相机的方向角,轴430对应于相机的旋转角。在一个实施例中,轴410、420和430的长度指示相机136的相应角度与目标角度之间的差。具体而言,轴410的长度越长,表明相机136的倾斜角与拍摄目标图像的目标倾斜角之间的差距越大。反之,轴410的长度越小,表明相机136的倾斜角与拍摄目标图像的目标倾斜角之间的差距越小。同理,轴420和430的长度分别指示相机136的方向角和旋转角与目标相机姿态的目标方向角和目标旋转角之间的差。
以此方式,用户可以直观地根据坐标轴的长度来确定相机136的当前姿态与目标姿态在各个维度上的差。相应地,用户可以调整相机136的姿态。在图4所示的示例中,当相机136的姿态与目标姿态足够接近时,坐标系400将近似地退化到一个点,即,坐标系400的原点O。
在一个实施例中,轴410、420和430的长度LI、LP和LR可以如下计算:
其中Icurrent和Itarget分别表示相机136的当前倾斜角和目标倾斜角;Pcurrent和Ptarget分别表示相机136的当前方向角和目标方向角;Rcurrent和Rtarget分别表示相机136的当前旋转角和目标旋转角;A、B和C是常量,表示相应角度的最大容差。在一个实施例中,例如,A、B和C可以被设为均等于10。相机136的姿态与目标姿态之间的相似度可以被定量地表示为:
Cattitude=(LI+LP+LR)/3 (4)
应当理解,姿态引导并非一定要像图4中所示的那样以可视化的方式来呈现。例如,在其他实施例中,可以直接显示倾斜角、方向角和旋转角中的一个或多个的数值,而不显示坐标系。在又一实施例中,这两种呈现方式可以结合。也即,可以在坐标轴附近显示相应角度的数值。
用户可以根据步骤220处显示的姿态引导来调整相机136的姿态。在方法200的步骤225,确定相机136的姿态是否与目标姿态匹配。这可以通过确定姿态相似度Cattitude是否小于预定阈值来实现。如果二者尚未匹配,则方法200返回步骤220,以便继续利用姿态引导来辅助用户调整相机136的姿态。如果在步骤225确定相机136的姿态与目标姿态已经匹配(即,姿态差小于预定阈值),方法200进行到步骤230。在步骤230,确定相机136所捕获的当前图像与目标图像之间的相似度。
可以理解,通过执行方法200的步骤205到225,用户已经在设备100的引导下将相机136置于正确的拍摄位置和姿态。然而,将会理解的是,相机的拍摄参数同样可能影响相机所捕获的图像。相机的拍摄参数的示例包括但不限于:相机的曝光度,感光敏感度,光圈,焦距,等等。
相机在捕获目标图像时所使用的参数可以被记录和存储,称之为“目标拍摄参数”。目标拍摄参数可以与目标图像相关联地被存储在设备100中,或者存储在设备100可访问的其他位置。在一个实施例中,可以直接将相机136的拍摄参数设置为目标拍摄参数。但是,通过上文描述可以理解,本公开的实施例允许相机在位置和/或姿态方面存在一定的容差。也就是说,相机136的位置和/或姿态未必与目标拍摄位置和目标拍摄姿态严格一直,至少他们的差距在容差范围内即可。因此,直接参照目标拍摄参数来设置相机136的拍摄参数并非总是能获得最优结果。例如,当相机136的当前位置略微偏离目标拍摄位置时,使用相同的焦距将导致不同的图像效果。又如,拍摄目标图像时的光照条件可能与当前光照条件并不一致。
为了能够使相机136捕获的场景图像与目标图像精确匹配,根据本公开的实施例,设备100将根据实际捕获的图像的效果来控制相机136的拍摄参数。为此,在步骤230,设备100确定相机136所捕获的图像与目标图像之间的相似度。图像之间的相似度可使用任何适当的方法来确定。例如,在一个实施例中,可以使用感知哈希算法(PHA)来确定图像之间的相似度。
如已知的,PHA是一类比较哈希方法的统称。图像所包含的特征被用来生成一组可比较的指纹(fingerprint)。在一个实施例中,相机136所捕获的图像以及目标图像可以如下处理。首先,可以缩小图像的尺寸。例如,可以去除图像中的高频分量和细节,只保留结构明暗的方法就是缩小尺寸。继而,可以简化图像的色彩信息。例如,可以将图像转化为灰度图像。而后,可以计算像素的平均度量,例如平均灰度值。接下来,可以将每个像素的灰度值与平均灰度值进行比较。如果一个像素的灰度值大于或等于平均值,则将该像素标志为1;否则标记为0。继而,可以计算图像的灰度的哈希值,以作为图像的指纹。通过比较相机136所捕获的图像与目标图形的指纹,就可以确定二者之间的相似度。
应当理解,上文描述的仅仅是PHA的一种示例实现。任何其他变形均可与本公开的实施例结合使用。而且,除了PHA之外或者作为补充,可以使用任何其他适当的方法来确定两个图像之间的相似度,不论这些方法是目前已知的还是将来开发的。
继续参考图2,如果在步骤230确定相机136所捕获的图像与目标图像已经足够接近,则可以在步骤235捕获图像,即,执行拍摄过程。在一个实施例中,可以提示用户:相机136已经处于正确的位置、姿态和拍摄参数。基于这样的提示,用户可以手动完成拍摄过程。备选地,在另一实施例中,设备100的控制器120可以控制相机136自动地完成拍摄过程。所捕获的图像可以在显示器128上呈现给用户。
如果在步骤230确定相机136所捕获的图像与目标图像的相似度较低,即,低于预定阈值,则方法200进行到步骤240,在此控制相机136的拍摄参数。在一个实施例中,设备100的控制器120可以至少部分地基于图像的相似度,自动地调整相机136的一个或多个拍摄参数。备选地或附加地,设备100可以通过视觉、听觉、触觉等各种适当的交互方式或其组合,提示用户以人工方式调整相机136的拍摄参数。
特别地,在某些实施例中,为了辅助步骤240处的拍摄参数控制,可以向用户显示相机所捕获的图像,并且利用图像的透明度作为拍摄参数的引导。如图5所示,图像510、520和530是相机136利用不同的拍摄参数捕获的图像。图像510、520和530的透明度根据这些图像与目标图形各自的相似度来确定。相似度越高,透明度越低(即,越不透明)。以此方式,用户可以直观地确定相机136所捕获的图像与目标图像之间的相似度,并且可以相应地调整拍摄参数。当图像的透明度足够低时,用户可以使用相机136拍摄图像。
通过上文描述可知,根据方法200,指示场景匹配程度的场景匹配索引SIM可以如下定义:
其中Clocation表示相机位置与目标拍摄位置之间的相似度。在一个实施例中,Clocation例如可以被定义为:
其中Dpre表示步骤210使用的阈值距离,Dreal表示相机136的位置与目标拍摄位置的实际距离。也就是说,当相机136距离目标拍摄位置较远时,SIM仅由相机136的位置决定。
公式(5)中Cattitude表示相机的姿态与目标拍摄姿态之间的相似度,其定义和计算方式已在上文参考公式(1)-(4)描述,在此不再赘述。Cimage表示相机136捕获的图像与目标图像之间的相似度,如上文所述,其例如可以使用PHA算法来确定。Cparameter表示相机136的拍摄参数与目标拍摄参数之间的相似度。在一个实施例中,如果相机136的拍摄参数与目标拍摄参数完全相同,则Cparameter取1;否则Cparameter取0。公式(5)中的α,β,a,b均表示常量,充当相应过程中的权重。在一个实施例中,可以设置α+β+a+b=1。
上文参考图2描述的方法可以通过各种方式实现。在一个实施例中,设备100的控制器120可被配置为使设备100执行方法200。备选地,在其他实施例中,方法200可被实现为计算机程序产品,其例如可被存储在非易失性存储器142中,并且在执行时被至少部分地载入易失性存储器140。
在又一实施例中,设备100可以包含专用的模块来实现方法200。图6示出了根据本公开实施例的用于场景匹配的装置600的框图。装置600可以被包含在设备100中或以其他方式与之一同工作。在一个实施例中,装置600中的一个或多个模块可以被实现为硬件模块,例如专用集成电路(ASIC)、片上系统(SOC)、现场可编程门阵列(FPGA),等等。
如图6所示,装置600包括定位模块610,被配置为确定相机的当前位置与目标拍摄位置之间的距离,所述目标拍摄位置与先前捕获的目标图像相关联;相机姿态引导模块620,被配置为响应于所述距离小于阈值距离,显示相机姿态引导以便辅助用户控制所述相机的姿态,所述相机姿态引导指示所述相机的姿态与目标拍摄姿态之间的差异,所述目标拍摄姿态与所述目标图像相关联;以及拍摄参数控制模块630,被配置为响应于所述相机的所述姿态与所述目标相机姿态相匹配,基于所述相机捕获的图像与所述目标图像之间的相似度,控制所述相机的拍摄参数。
在一个实施例中,装置600还包括位置引导模块640,被配置为响应于所述距离大于所述阈值距离,显示从所述当前位置去往所述目标拍摄位置的引导。
在一个实施例中,相机姿态引导模块620被配置为显示以下至少一个:所述相机的倾斜角的第一指示;所述相机的方向角的第二指示;以及所述相机的旋转角的第三指示。在一个实施例中,所述第一指示是三维坐标系的第一轴,所述第一轴的长度指示所述相机的所述倾斜角与所述目标相机姿态的目标倾斜角之间的差;所述第二指示是所述三维坐标系的第二轴,所述第二轴的长度指示所述相机的所述方向角与所述目标相机姿态的目标方向角之间的差,以及所述第三指示是所述三维坐标系的第三轴,所述第三轴的长度指示所述相机的所述旋转角与所述目标相机姿态的目标旋转角之间的差。
在一个实施例中,装置600还包括:相似度确定模块650,被配置为使用感知哈希算法来确定所述相机捕获的所述图像与所述目标图像之间的所述相似度。
在一个实施例中,所述拍摄参数控制模块630被配置为基于所述相似度自动地控制所述相机的所述拍摄参数。在一个实施例中,所述拍摄参数控制模块630被配置为显示所述相机捕获的所述图像,所述图像的透明度基于所述相似度而确定,以辅助所述用户控制所述相机的所述拍摄参数。
仅出于说明目的,上文已经描述了本公开的若干示例性实施例。本公开的实施例可以通过硬件、软件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。特别地,上文参考图2描述的方法均可被实施为计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行时使机器执行方法200的步骤。
本领域的普通技术人员可以理解上述的系统和方法可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本公开系统可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
应当注意,尽管在上文详细描述中提及了装置的若干单元,但是这种划分仅仅并非强制性的。实际上,根据本公开的实施例,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。类似地,尽管在附图中以特定顺序描述了本公开方法的操作,但是这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,流程图中描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施例描述了本公开,但是应该理解,本公开并不限于所公开的具体实施例。本公开旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。所附权利要求的范围符合最宽泛的解释,从而包含所有这样的修改及等同结构和功能。

Claims (22)

1.一种用于场景匹配的方法,包括:
确定相机的当前位置与目标拍摄位置之间的距离,所述目标拍摄位置与先前捕获的目标图像相关联;
响应于所述距离小于阈值距离,显示相机姿态引导以便辅助用户控制所述相机的姿态,所述相机姿态引导指示所述相机的所述姿态与目标拍摄姿态之间的差异,所述目标拍摄姿态与所述目标图像相关联;以及
响应于所述相机的所述姿态与所述目标相机姿态相匹配,基于所述相机捕获的图像与所述目标图像之间的相似度,控制所述相机的拍摄参数。
2.根据权利要求1所述的方法,还包括:
响应于所述距离大于所述阈值距离,显示从所述当前位置去往所述目标拍摄位置的位置引导。
3.根据权利要求1所述的方法,其中显示所述相机姿态引导包括以下至少一个:
显示所述相机的倾斜角的第一指示;
显示所述相机的方向角的第二指示;以及
显示所述相机的旋转角的第三指示。
4.根据权利要求3所述的方法,其中:
显示所述第一指示包括显示三维坐标系的第一轴,所述第一轴的长度指示所述相机的所述倾斜角与所述目标相机姿态的目标倾斜角之间的差;
显示所述第二指示包括显示所述三维坐标系的第二轴,所述第二轴的长度指示所述相机的所述方向角与所述目标相机姿态的目标方向角之间的差,以及
显示所述第三指示包括显示所述三维坐标系的第三轴,所述第三轴的长度指示所述相机的所述旋转角与所述目标相机姿态的目标旋转角之间的差。
5.根据权利要求1所述的方法,还包括:
使用感知哈希算法来确定所述相机捕获的所述图像与所述目标图像之间的所述相似度。
6.根据权利要求1所述的方法,其中控制所述相机的拍摄参数包括:
基于所述相似度自动地控制所述相机的所述拍摄参数。
7.根据权利要求1所述的方法,其中控制所述相机的拍摄参数包括:
显示所述相机捕获的所述图像,所述图像的透明度基于所述相似度而确定,以辅助所述用户控制所述相机的所述拍摄参数。
8.一种设备,包括:
相机;以及
控制器,所述控制器被配置为使所述设备:
确定所述相机的当前位置与目标拍摄位置之间的距离,所述目标拍摄位置与先前捕获的目标图像相关联;
响应于所述距离小于阈值距离,显示相机姿态引导以便辅助用户控制所述相机的姿态,所述相机姿态引导指示所述相机的所述姿态与目标拍摄姿态之间的差异,所述目标拍摄姿态与所述目标图像相关联;以及
响应于所述相机的所述姿态与所述目标相机姿态相匹配,基于所述相机捕获的图像与所述目标图像之间的相似度,控制所述相机的拍摄参数。
9.根据权利要求8所述的设备,其中所述控制器进一步被配置为使所述设备:
响应于所述距离大于所述阈值距离,显示从所述当前位置去往所述目标拍摄位置的位置引导。
10.根据权利要求8所述的设备,其中显示所述相机姿态引导包括以下至少一个:
显示所述相机的倾斜角的第一指示;
显示所述相机的方向角的第二指示;以及
显示所述相机的旋转角的第三指示。
11.根据权利要求10所述的设备,其中:
所述第一指示是三维坐标系的第一轴,所述第一轴的长度指示所述相机的所述倾斜角与所述目标相机姿态的目标倾斜角之间的差,
所述第二指示是所述三维坐标系的第二轴,所述第二轴的长度指示所述相机的所述方向角与所述目标相机姿态的目标方向角之间的差,以及
所述第三指示是所述三维坐标系的第三轴,所述第三轴的长度指示所述相机的所述旋转角与所述目标相机姿态的目标旋转角之间的差。
12.根据权利要求8所述的设备,其中所述控制器进一步被配置为使所述设备:
使用感知哈希算法来确定所述相机捕获的所述图像与所述目标图像之间的所述相似度。
13.根据权利要求8所述的设备,其中控制所述相机的拍摄参数包括:
基于所述相似度自动地控制所述相机的所述拍摄参数。
14.根据权利要求8所述的设备,其中控制所述相机的拍摄参数包括:
显示所述相机捕获的所述图像,所述图像的透明度基于所述相似度而确定,以辅助所述用户控制所述相机的所述拍摄参数。
15.一种用于场景匹配的装置,包括:
定位模块,被配置为确定相机的当前位置与目标拍摄位置之间的距离,所述目标拍摄位置与先前捕获的目标图像相关联;
相机姿态引导模块,被配置为响应于所述距离小于阈值距离,显示相机姿态引导以便辅助用户控制所述相机的所述姿态,所述相机姿态引导指示所述相机的姿态与目标拍摄姿态之间的差异,所述目标拍摄姿态与所述目标图像相关联;以及
拍摄参数控制模块,被配置为响应于所述相机的所述姿态与所述目标相机姿态相匹配,基于所述相机捕获的图像与所述目标图像之间的相似度,控制所述相机的拍摄参数。
16.根据权利要求15所述的装置,还包括:
位置引导模块,被配置为响应于所述距离大于所述阈值距离,显示从所述当前位置去往所述目标拍摄位置的引导。
17.根据权利要求15所述的装置,其中所述相机姿态引导模块被配置为显示以下至少一个:
所述相机的倾斜角的第一指示;
所述相机的方向角的第二指示;以及
所述相机的旋转角的第三指示。
18.根据权利要求17所述的装置,其中:
所述第一指示是三维坐标系的第一轴,所述第一轴的长度指示所述相机的所述倾斜角与所述目标相机姿态的目标倾斜角之间的差;
所述第二指示是所述三维坐标系的第二轴,所述第二轴的长度指示所述相机的所述方向角与所述目标相机姿态的目标方向角之间的差,以及
所述第三指示是所述三维坐标系的第三轴,所述第三轴的长度指示所述相机的所述旋转角与所述目标相机姿态的目标旋转角之间的差。
19.根据权利要求15所述的装置,还包括:
相似度确定模块,被配置为使用感知哈希算法来确定所述相机捕获的所述图像与所述目标图像之间的所述相似度。
20.根据权利要求15所述的装置,其中所述拍摄参数控制模块被配置为基于所述相似度自动地控制所述相机的所述拍摄参数。
21.根据权利要求15所述的装置,其中所述拍摄参数控制模块被配置为显示所述相机捕获的所述图像,所述图像的透明度基于所述相似度而确定,以辅助所述用户控制所述相机的所述拍摄参数。
22.一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行时使机器执行根据权利要求1-7任一项所述的方法的步骤。
CN201510662482.1A 2015-10-14 2015-10-14 用于场景匹配的方法和装置 Pending CN106603901A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510662482.1A CN106603901A (zh) 2015-10-14 2015-10-14 用于场景匹配的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510662482.1A CN106603901A (zh) 2015-10-14 2015-10-14 用于场景匹配的方法和装置

Publications (1)

Publication Number Publication Date
CN106603901A true CN106603901A (zh) 2017-04-26

Family

ID=58551844

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510662482.1A Pending CN106603901A (zh) 2015-10-14 2015-10-14 用于场景匹配的方法和装置

Country Status (1)

Country Link
CN (1) CN106603901A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107888827A (zh) * 2017-11-17 2018-04-06 广东欧珀移动通信有限公司 图像处理方法及相关产品
CN108337427A (zh) * 2018-01-18 2018-07-27 联想(北京)有限公司 一种图像处理方法及电子设备
CN110213487A (zh) * 2019-06-06 2019-09-06 恒信东方文化股份有限公司 一种全自动摄影方法及装置
CN110430359A (zh) * 2019-07-31 2019-11-08 北京迈格威科技有限公司 拍摄辅助方法、装置、计算机设备和存储介质
CN110709797A (zh) * 2018-06-29 2020-01-17 深圳市大疆创新科技有限公司 可移动平台的操控方法、装置及可移动平台
CN110741626A (zh) * 2018-10-31 2020-01-31 深圳市大疆创新科技有限公司 拍摄控制方法、可移动平台、控制设备及存储介质
CN111466113A (zh) * 2017-12-05 2020-07-28 皇家飞利浦有限公司 图像捕获的装置和方法
CN112862861A (zh) * 2021-02-08 2021-05-28 广州富港生活智能科技有限公司 相机运动路径确定方法、确定装置及拍摄系统
CN114339020A (zh) * 2020-09-30 2022-04-12 顺丰科技有限公司 拍照姿态提示方法、装置、设备和计算机可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1276062A (zh) * 1997-10-24 2000-12-06 韦尔斯和弗恩投资有限公司 摄像机引导系统
CN101505372A (zh) * 2008-02-06 2009-08-12 凹凸电子(武汉)有限公司 最优化图片捕获装置设置的系统以及方法
CN101661625A (zh) * 2009-09-22 2010-03-03 北京理工大学 基于一幅标准图像生成各视角下样本图像的方法
CN101910936A (zh) * 2007-12-24 2010-12-08 微软公司 基于图像捕捉设备呈现的用户推荐的引导摄影
CN103731599A (zh) * 2012-10-16 2014-04-16 北京千橡网景科技发展有限公司 拍照方法及相机
CN104145474A (zh) * 2011-12-07 2014-11-12 英特尔公司 引导式图像拍摄
CN104243833A (zh) * 2014-09-30 2014-12-24 安科智慧城市技术(中国)有限公司 一种相机姿态的调整方法及装置
CN104349021A (zh) * 2013-07-24 2015-02-11 腾讯科技(深圳)有限公司 图像采集方法、装置及终端

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1276062A (zh) * 1997-10-24 2000-12-06 韦尔斯和弗恩投资有限公司 摄像机引导系统
CN101910936A (zh) * 2007-12-24 2010-12-08 微软公司 基于图像捕捉设备呈现的用户推荐的引导摄影
CN101505372A (zh) * 2008-02-06 2009-08-12 凹凸电子(武汉)有限公司 最优化图片捕获装置设置的系统以及方法
CN101661625A (zh) * 2009-09-22 2010-03-03 北京理工大学 基于一幅标准图像生成各视角下样本图像的方法
CN104145474A (zh) * 2011-12-07 2014-11-12 英特尔公司 引导式图像拍摄
CN103731599A (zh) * 2012-10-16 2014-04-16 北京千橡网景科技发展有限公司 拍照方法及相机
CN104349021A (zh) * 2013-07-24 2015-02-11 腾讯科技(深圳)有限公司 图像采集方法、装置及终端
CN104243833A (zh) * 2014-09-30 2014-12-24 安科智慧城市技术(中国)有限公司 一种相机姿态的调整方法及装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107888827A (zh) * 2017-11-17 2018-04-06 广东欧珀移动通信有限公司 图像处理方法及相关产品
CN111466113B (zh) * 2017-12-05 2022-03-11 皇家飞利浦有限公司 图像捕获的装置和方法
CN111466113A (zh) * 2017-12-05 2020-07-28 皇家飞利浦有限公司 图像捕获的装置和方法
CN108337427A (zh) * 2018-01-18 2018-07-27 联想(北京)有限公司 一种图像处理方法及电子设备
CN108337427B (zh) * 2018-01-18 2021-05-18 联想(北京)有限公司 一种图像处理方法及电子设备
CN110709797A (zh) * 2018-06-29 2020-01-17 深圳市大疆创新科技有限公司 可移动平台的操控方法、装置及可移动平台
CN110741626A (zh) * 2018-10-31 2020-01-31 深圳市大疆创新科技有限公司 拍摄控制方法、可移动平台、控制设备及存储介质
CN110741626B (zh) * 2018-10-31 2022-05-27 深圳市大疆创新科技有限公司 拍摄控制方法、可移动平台、控制设备及存储介质
CN110213487A (zh) * 2019-06-06 2019-09-06 恒信东方文化股份有限公司 一种全自动摄影方法及装置
CN110430359A (zh) * 2019-07-31 2019-11-08 北京迈格威科技有限公司 拍摄辅助方法、装置、计算机设备和存储介质
CN110430359B (zh) * 2019-07-31 2021-07-09 北京迈格威科技有限公司 拍摄辅助方法、装置、计算机设备和存储介质
CN114339020A (zh) * 2020-09-30 2022-04-12 顺丰科技有限公司 拍照姿态提示方法、装置、设备和计算机可读存储介质
CN112862861A (zh) * 2021-02-08 2021-05-28 广州富港生活智能科技有限公司 相机运动路径确定方法、确定装置及拍摄系统
CN112862861B (zh) * 2021-02-08 2024-05-07 广州富港生活智能科技有限公司 相机运动路径确定方法、确定装置及拍摄系统

Similar Documents

Publication Publication Date Title
CN106603901A (zh) 用于场景匹配的方法和装置
EP3779883B1 (en) Method and device for repositioning in camera orientation tracking process, and storage medium
US11244170B2 (en) Scene segmentation method and device, and storage medium
US11189037B2 (en) Repositioning method and apparatus in camera pose tracking process, device, and storage medium
JP7058760B2 (ja) 画像処理方法およびその、装置、端末並びにコンピュータプログラム
CN111462311B (zh) 全景图生成方法及装置、存储介质
CN110992493B (zh) 图像处理方法、装置、电子设备及存储介质
CN107040698B (zh) 无人图像捕获装置的图像捕获方法和支持其的电子装置
CN107833219B (zh) 图像识别方法及装置
CN110121118A (zh) 视频片段定位方法、装置、计算机设备及存储介质
CN110059652B (zh) 人脸图像处理方法、装置及存储介质
JP5525757B2 (ja) 画像処理装置、電子機器、及びプログラム
CN109360222B (zh) 图像分割方法、装置及存储介质
CN114095662B (zh) 拍摄指引方法及电子设备
CN113424228A (zh) 用于提供化身动画的电子装置及其方法
CN108776822B (zh) 目标区域检测方法、装置、终端及存储介质
CN113763228B (zh) 图像处理方法、装置、电子设备及存储介质
CN109886208B (zh) 物体检测的方法、装置、计算机设备及存储介质
US11908105B2 (en) Image inpainting method, apparatus and device, and storage medium
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
CN114697539B (zh) 拍照推荐方法、装置、电子设备以及存储介质
CN113570614A (zh) 图像处理方法、装置、设备及存储介质
JPWO2018025825A1 (ja) 撮像システム
CN112508959B (zh) 视频目标分割方法、装置、电子设备及存储介质
CN111428551B (zh) 密度检测方法、密度检测模型训练方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170426

WD01 Invention patent application deemed withdrawn after publication