CN102542905B - 图像处理装置和图像处理方法 - Google Patents
图像处理装置和图像处理方法 Download PDFInfo
- Publication number
- CN102542905B CN102542905B CN201110291622.0A CN201110291622A CN102542905B CN 102542905 B CN102542905 B CN 102542905B CN 201110291622 A CN201110291622 A CN 201110291622A CN 102542905 B CN102542905 B CN 102542905B
- Authority
- CN
- China
- Prior art keywords
- images
- physical target
- parts
- image processing
- dimensional model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
- G09B29/106—Map spot or coordinate position indicators; Map reading aids using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
- G09B29/102—Map spot or coordinate position indicators; Map reading aids using electrical means
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/12—Relief maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/12—Shadow map, environment map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Abstract
提供了图像处理装置、图像处理方法及计算机可读存储介质。一种用于显示物理目标的方法包括:捕获物理目标的输入图像和将三维模型与物理目标匹配。该方法还包括通过以下中的至少一个来产生与所述物理目标中的指定物理目标对应的修改的部分图像:修改匹配的三维模型的与所述指定物理目标对应的部分,或使用匹配的三维模型来修改从所述输入图像中提取的与所述指定物理目标对应的部分图像。该方法还包括显示包含叠加在所述输入图像之上的修改的部分图像的输出图像。其中,修改的部分图像包括加强的部分图像,并且通过生成所述指定物理目标移动的动画,来加强所述部分图像。
Description
相关申请的交叉引用
本公开包含与2010年10月1日在日本专利局提交的第JP2010-224347号日本在先专利申请的主题相关的主题,其全部内容通过引用结合于此。
技术领域
本公开涉及图像处理设备、程序以及方法。
背景技术
相关技术的描述
在过去,在计算机屏幕上向用户呈现现实世界中的地理信息的各种地理信息服务已经投入实际使用。例如,通过使用网络上向公众开放的公共地图检索服务,用户可以容易地获得包含与所需的地名对应的位置、地址或陆标名称等的地区的地图。在地图检索服务中显示的任何地图上,还可以将标志设置在符合用户指定的关键字的每个设施上。
此外,近年来,引人注目地改善的计算机性能不仅允许用户终端处理二维平面地图,也允许处理三维空间上的信息。例如,公开号为2005-227590的日本专利申请提出了在来自地图指引设备的输出图像中并行地显示当前位置周围的二维地图和三维图像。
发明内容
然而,在仅显示指定位置的特定视点的俯视图的三维图像的方法中,所显示的三维图像的视点不同于现实空间中用户的视点。因此,当用户试着在现实空间中寻找他或她想要去的期望的建筑物或设施等时,用户在现实世界中在他或她周围所看到的场景与三维图像相比不匹配,因而用户可能难于容易地定位期望的建筑物或设施等。
因此,期望提供便于寻找现实空间中诸如期望的建筑物或设施等目标的、新颖改善的图像信息处理装置、图像处理方法以及计算机可读存储介质。
因此,提供了用于显示物理目标的装置。该装置包括捕获单元,用于捕获物理目标的输入图像。该装置还包括匹配单元,用于将三维模型与物理目标匹配。该装置还包括处理单元,用于通过以下中的至少一个来产生与该物理目标中的指定物理目标对应的修改的部分图像:修改匹配的三维模型的与该指定物理目标对应的部分,或使用匹配的三维模型修改从输入图像中提取的与该指定物理目标对应的部分图像。该装置还包括显示生成器,用于生成表示输出图像的信号,该输出图像包含叠加在输入图像之上的修改的部分图像,其中,该修改的部分图像包括加强的部分图像,其中,该处理单元通过生成该指定物理目标移动的动画,来加强部分图像。
在另一方面,提供了用于显示物理目标的方法。该方法包括捕获物理目标的输入图像,以及将三维模型与物理目标匹配。该方法还包括通过以下中的至少一个来产生与该物理目标中的指定物理目标对应的修改的部分图像:修改匹配的三维模型的与该指定物理目标对应的部分,或使用匹配的三维模型修改从输入图像中提取的与该指定物理目标对应的部分图像。该方法还包括显示包含叠加在输入图像之上的修改的部分图像的输出图像,其中,修改的部分图像包括加强的部分图像,其中,通过生成该指定物理目标移动的动画,来加强部分图像。
在另一方面,提供了一种存储当其通过处理器执行时导致计算机执行用于显示物理目标的方法的指令的、以有形的方式实施的非易失性计算机可读存储介质。该方法包括捕获物理目标的输入图像,以及将三维模型与物理目标匹配。该方法还包括通过以下中的至少一个来产生修改的部分图像:修改匹配的三维模型的一部分,或使用匹配的三维模型修改从输入图像中提取的部分图像。该方法还包括显示包含叠加在输入图像之上的修改的部分图像的输出图像。
根据上述实施例,提供了信息处理装置、信息处理方法以及计算机存储介质,可便于寻找现实空间中诸如期望的建筑物或设施等目标。
附图说明
图1是示出根据一实施例的图像处理设备的硬件配置的一个示例的框图;
图2是示出根据一实施例的图像处理设备的逻辑配置的一个示例的框图;
图3是示出输入图像的一个示例的示意图;
图4是用于说明三维模型的一个示例的示意图;
图5是示出根据一实施例的通过匹配单元进行匹配处理的结果的示例的示意图;
图6是用于说明根据一实施例的通过加强处理单元进行的提取部分图像的处理的示意图;
图7是用于说明根据一实施例的通过加强处理单元进行的加强处理的第一示例的示意图;
图8是用于说明根据一实施例的通过加强处理单元进行的加强处理的第二示例的示意图;
图9是用于说明根据一实施例的通过加强处理单元进行的加强处理的第三示例的示意图;以及
图10是示出根据一实施例的图像处理流程的一个示例的流程图。
具体实施方式
下面将参考附图来详细描述本公开的实施例。注意,在说明书和附图中,用相同附图标记来表示具有基本上相同的功能和结构的结构元件,并且省略了对这些结构元件的重复说明。
注意,下面根据如下顺序进行说明:
1.图像处理设备的配置示例
1-1.硬件配置
1-2.逻辑配置
2.加强处理的示例
2-1.第一示例
2-2.第二示例
2-3.第三示例
3.图像处理流程的示例
4.结论
<1.图像处理设备的配置示例>
首先,将参照图1至图6来描述根据一实施例的图像处理设备的配置的一个示例。这里描述的图像处理设备的示例包括个人计算机(PC)、智能手机、个人数字助理、数码相机、车载或手持导航设备或手持式视频游戏机。
【1-1.硬件配置】
图1是示出根据本实施例的图像处理设备100的硬件配置的示例的框图。参照图1,图像处理设备100包含中央处理单元(CPU)10、随机存取存储器(RAM)12、只读存储器(ROM)14、总线16、存储设备20、成像装置22、显示设备24、输入设备26、全球定位系统(GPS)模块30、电子指南针32以及加速度传感器34。
CPU10通常根据ROM14、存储设备20和/或RAM12中存储的程序来控制图像处理设备100的操作。RAM12临时存储CPU10执行的程序和数据。ROM14可以是用于存储操作图像处理设备100的程序的非易失性存储器。总线16与CPU10、RAM12、ROM14、存储设备20、成像装置22、显示设备24、输入设备26、GPS模块30、电子指南针32以及加速度传感器34互连。
存储设备20包含可以存储CPU10将要执行的程序或指令的、以有形的方式实施的非易失性计算机可读存储介质,诸如硬盘或半导体存储器等。存储设备20可以是不可拆卸的,或可以是可拆卸的。当图像处理设备100执行图像处理时,可以从外部数据库中动态地获取存储设备20中存储的数据。此外,存储设备20可用云计算配置的方式实施于不同的远程设备或服务器中。
成像装置22被配置为带有图像拾取设备的相机模块,所述图像拾取设备为诸如电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)等。显示设备24在诸如液晶显示器(LCD)、有机发光二极管(OLED)、或等离子显示器(PDP)的屏幕上显示图像。输入设备26包含按钮、键盘、触摸板、或指示设备等用于图像处理设备100的用户将信息输入至图像处理设备100。
GPS模块30接收从GPS卫星发送的GPS信号,以计算图像处理设备100所在的实际纬度、经度以及海拔高度等。电子指南针32检测图像处理设备100的实际取向。加速度传感器34检测作用于图像处理设备100上的力所导致的加速度。
【1-2.逻辑配置】
图2是示出根据本实施例的图像处理设备100的逻辑配置的一个示例的框图。参照图2,图像处理设备100包含输入图像获取单元110、定位单元120、存储单元130、匹配单元140、振荡移动感测单元150、应用单元160、用户界面单元170以及加强处理单元180。这里使用的术语“单元”可以是软件模块、硬件模块或软件模块和硬件模块的组合。这样的硬件和软件模块可以实施为分离电路、集成电路,或实施为处理器执行的指令。
(1)输入图像获取单元
输入图像获取单元110(即捕获单元)利用成像装置22获取一系列输入图像,在该一系列输入图像中捕获了用户周围的现实世界中的场景。即,捕获了现实世界中的物理目标或多个物理目标的输入图像。然后,输入图像获取单元110顺序输出所获取的输入图像至匹配单元140和加强处理单元180。
图3是示出通过输入图像获取单元110获取的输入图像的一个示例的示意图。参照图3,在输入图像中示出了一个城市,作为携带图像处理设备100的用户(或安装有图像处理设备100的车辆等)所存在的现实空间。在该城市中有多个建筑物或设施。出现在输入图像中的这些目标中的每个可以是如下描述的应用单元160中的地理信息搜索的目标,或用户在导航过程中使用导航设备所导向的目标。
(2)定位单元
定位单元120用GPS模块30来确定图像处理设备100的当前位置。定位单元120还用电子指南针32来确定图像处理设备100的实际取向。然后,定位单元120将所得到的作为上述测量的结果的图像处理设备100的位置信息(如经度、纬度以及海拔高度等)和方位信息输出至匹配单元140。
(3)存储单元
存储单元130存储用于描述出现在现实世界中的目标的位置和三维形状的三维模型。通过三维模型描述的目标的示例包括与上述应用功能相关的目标,如与应用单元160所提供的地理信息搜索或导航相关的目标。通过三维模型来描述出现在城市中的诸如饭店、办公室、学校、车站、公用设施及陆标等目标的位置和三维形状。可以使用诸如地理标记语言(GeographyMarkupLanguage,GML)或基于GML的KML(KeyholeMarkupLanguage,锁孔标记语言)等语言来描述三维模型。
图4是用于说明三维模型的一个示例的示意图。参照图4,通过示例部分地描述了三维模型132。在图4示出的示例中,三维模型132包含关于9个目标B1至B9(分别为建筑物)的数据。针对这些目标中的每一个,三维模型132限定例如目标的标识(下文中称为“目标ID”)、建筑物的名称和形成建筑物的形状的顶点的三维位置以及预定的纹理。实际上,存储单元130存储的三维模型可以包含与数量多于图4中所示出的一组目标的(分布更为广泛的区域中的)的目标有关的数据。存储单元130还可以存储与这些目标关联的额外信息,如用户对该用户所使用的诸如饭店或旅馆等设施的评级等。
应当理解,存储单元130可以用云计算配置的方式实施于不同的远程设备或服务器中,且因此,可以响应于来自图像处理设备100的对三维模型的远程请求,通过网络从存储单元130中检索三维模型(替代访问图像处理设备100的本地存储器)。
(4)匹配单元
通过将定位单元120所确定的当前位置周围的三维模型中所包含的目标的特征点与输入图像的特征点匹配,匹配单元140将三维模型中所包括的目标与输入图像中出现的目标关联。更具体地,在本实施例中,匹配单元140首先基于从定位单元120输入的位置和方位信息,从存储单元130中存储的三维模型中提取关于图像处理设备100的当前位置周围的目标的数据。匹配单元140还根据诸如哈里斯法(Harrismethod)或莫拉维克法(Moravecmethod)等已知的拐角检测法来设置输入图像中的特征点。匹配单元140将从三维模型提取的目标组的特征点与输入图像中设置的特征点匹配。因此,匹配单元140可以识别三维模型中所包括的目标与输入图像中出现的目标的对应关系。作为匹配的结果,匹配单元140还可以确定图像处理设备100的具体位置和姿态(posture)。与通过定位单元120利用GPS模块30能够实现的位置精确度相比,通过这里所描述的匹配处理而确定的图像处理设备100的位置的精确度可以更高。
图5是示出通过匹配单元140的匹配处理结果的示例的示意图。参照图5,在输入图像Im01中出现的目标的每一个拐角处设置多个三角形特征点。输入图像Im01中的这些特征点中的每一个与图像处理设备100的具体位置和姿态中的三维模型132中所包括的目标的每个对应顶点匹配。例如,特征点FP1与三维模型132的目标B2的各顶点中的一个顶点匹配。这样,匹配单元140可以识别三维模型中所包括的每个目标出现在输入图像中的什么位置。
(5)振荡移动感测单元
振荡移动感测单元150(即传感器单元)利用加速度传感器34检测图像处理设备100抖动。一旦检测到图像处理设备100抖动,振荡移动感测单元150即将振荡移动感测信号输出至加强处理单元180。例如当作用于图像处理设备100上的加速度超过预定阈值时,振荡移动感测单元150可以确定图像处理设备100抖动。
(6)应用单元
应用单元160(即处理单元)是实现上述与地理信息服务关联的应用功能的处理模块。应用单元160所提供的应用功能包含例如地理信息搜索功能或导航功能。应用单元160使得例如用户界面单元170显示应用屏幕。当用户通过应用屏幕来输入搜索关键字时,应用单元160在存储单元130中搜索与输入的搜索关键字相符的目标。应用单元160输出用于指定被指定为搜索结果的一个或更多个目标的目标指定信息至加强处理单元180。目标指定信息可以是例如用于将用户选择的目标指定为导航目的地的信息。
(7)用户界面单元
用户界面单元170为用户提供用户界面,以使用上述的应用功能。用户界面单元170通过例如输入设备26来接收诸如用于地理信息搜索功能或导航目的地的搜索关键字等用户输入信息。用户界面单元170还通过显示设备24来显示由应用单元160生成的应用屏幕。此外,用户界面单元170在应用屏幕中显示例如通过稍后将要提到的加强处理单元180来生成的加强图像。
(8)加强处理单元
加强处理单元180通过对输入图像中与加强显示三维模型中包含的目标中的一个或多个指定目标(下文中称为“指定目标”)中的每一个对应的部分图像进行处理,来生成加强显示每一个指定目标的加强图像。在本实施例中,例如,当从应用单元160输入目标指定信息时(例如接收到物理目标的标识时),加强处理单元180基于该目标指定信息来确定指定目标是否出现在输入图像中。接下来,当指定目标出现在输入图像中时,加强处理单元180基于通过上述匹配单元140进行的匹配的结果,来识别输入图像中对应于指定目标的区域。加强处理单元180然后处理所识别区域中的部分图像,使得与所接收的标识对应的指定目标被加强。在本说明书中,加强处理单元180所处理和生成的部分图像被称为加强图像或加强的部分图像。加强处理单元180通过将加强图像叠加在输入图像之上,来生成输出图像,并利用用于生成表示输出图像的信号的显示生成器来使得用户界面单元170显示所生成的输出图像。
图6是用于说明根据本实施例的通过加强处理单元180提取的部分图像的处理的示意图。图6的左上角示出了输入图像Im01。以示例的方式假定从应用单元160输入的目标指定信息指定了出现在输入图像Im01中的目标B7。图6右上角示出了作为匹配单元140的匹配结果而被识别且与指定目标B7对应的区域R1。加强处理单元180从输入图像Im01中提取该区域R1的部分图像Im11(参见图6的左下角)。在一些情况中,出现在输入图像Im01中的移动目标可以覆盖于部分图像Im11上。在图6示出的示例中,一个人覆盖于指定目标B7的前方。在这种情况下,加强处理单元180例如通过对多个帧上的多个部分图像进行平均来生成其中降低了移动目标的影响的部分图像Im12。
在接下来的部分中,将详细描述通过加强处理单元180进行的加强处理的三个示例,以便根据通过这样的方式提取的部分图像来生成上述的加强图像。
<2.加强处理的示例>
图7至图9分别是用于说明根据本实施例的通过加强处理单元180进行的加强处理的示例的示意图。
【2-1.第一示例】
在加强处理的第一示例中,假定通过目标指定信息指定了图4示出的三维模型132中所包含的目标B4和B7。参照图7,其中示出了第一示例中的加强处理单元180生成的输出图像Im21。通过比较输出图像Im21与图3中的输入图像Im01,即可看出在该图像Im21中指定目标B4和B7的尺寸(尤其是高度)被扩展了。这样,加强处理单元180可以通过修改与指定目标对应的部分图像的尺寸来加强指定目标。作为替代(或另外地),加强处理单元180可以通过修改对应于指定目标的部分图像的形状、颜色或亮度或通过修改三维模型的对应于指定目标的部分来加强指定目标。
加强处理单元180可以通过改变部分图像的尺寸、形状、颜色或亮度来直接生成其中加强了每个指定目标的加强图像(图7中的输出图像Im21中的阴影部分)。作为替代,例如,加强处理单元180可以去除部分图像在透视上的变形、获取每个指定目标的纹理,并将获取的纹理粘贴在每个指定目标的多边形的表面上。可以通过基于匹配单元140确定的图像处理设备100(成像装置22)的位置和姿态来执行对部分图像的仿射变换(affinetransformation),来去除部分图像在透视上的变形。使用以该方法获取的纹理还使得例如输入图像中指定目标的被其它目标遮住的部分外观能够在输出图像中可见(例如,在下面描述的图9示出的示例中被其它目标遮住的一些部分是可见的)。
【2-2.第二示例】
同样,在加强处理的第二示例中,假定通过目标指定信息来指定图4示出的三维模型132中的目标B4和B7。以示例的方式,同样假定目标B4和B7被指定为饭店搜索的结果,且“商店名称”和“评级”这两条额外信息与每个目标关联。例如,参照图8,指定目标B4的商店名称为“ABC咖啡”,且评级是二星。另一方面,指定目标B7的商店名称是“XYZ吧”而评级是三星。额外信息不限于此示例,可以是诸如采取的预算和烹调风格等任何信息。
与第一示例相似,在第二示例中,加强处理单元180首先通过修改与这些指定目标B4和B7对应的部分图像的尺寸(或形状、颜色或亮度)来加强指定目标B4和B7。此外,加强处理单元180生成代表其中指定目标移动的动画的一系列加强图像。该动画例如是其中指定目标抖动的动画。例如,当从振荡移动感测单元150输入用于指示图像处理设备100抖动的振荡移动感测信号时,加强处理单元180可以生成其中指定目标移动的动画。
参照图8,其中示出了第二示例中通过加强处理单元180生成的输出图像Im22、Im23以及Im24。在输出图像Im22中,上述指定目标B4和B7二者通过利用扩展尺寸的方法而被加强,而不管振荡移动感测单元150的振荡移动的检测结果。另一方面,当检测到图像处理设备100的振荡移动时,显示输出图像Im23和Im24。在输出图像Im23和Im24中,通过利用使用指定目标抖动的动画的方法,仅作为高评级饭店(三星)的目标B7被加强。
因此,使用指定目标移动的动画可保证输入图像中的期望的指定目标能区别于其它目标。因此,用户通过参照输出图像,可以非常容易地找到期望的目标。目标移动的动画不限于上述的示例,可以是例如目标被拉长和缩短或目标跳动的动画。
同样,如前所述,可以用这样的方式来显示将要呈现给用户的多个指定目标以及其中特别值得推荐的指定目标(例如具有多颗星的高评级饭店或适合用户预算的饭店)来使得用户能够容易地区分它们:通过根据额外信息(例如星的个数或用户的预算)将指定目标分为两组或多组,并根据上述分类以定相的方式使用不同的方法来加强这些指定目标。用户抖动处理设备100触发指定目标抖动的方法还可实现更加直观且易于用户记忆的用于呈现地理信息的有效用户界面。
【2-3.第三示例】
在加强处理的第三示例中,假定通过目标指定信息指定目标B4、B7以及目标B10。与第二示例相似,也假定“商店名称”和“评级”这两条额外信息与每个目标关联。然而,在第三示例中,假定“评级”被指定为数值,且给出了根据数值大小的排序。例如,指定目标B4的评级为2.9,而排序为第三位置。指定目标B7的评级为3.8,而排序在第二位置。指定目标B10的评级为4.2,而排序为第一位置。
在第三示例中,当以该方式指定多个排序目标时,加强处理单元180根据每个指定目标的排序来修改与多个指定目标中的每一个指定目标对应的部分图像的尺寸。在图9示出的示例中,在输出图像Im25中,指定目标B10被显示为最高,指定目标B7被显示为次高,而指定目标B4被缩小为所有指定目标中的最小的一个。
因此,根据赋予指定目标的诸如排序等额外信息来修改指定目标的尺寸使得用户不但能够直观且容易地了解关于指定目标的位置信息,还能够了解其额外信息。
<3.图像处理流程的示例>
图10是示出根据本实施例的图像处理设备100的图像处理流程的示例的流程图。参照图10,首先,输入图像获取单元110获取其中捕获了用户周围现实世界中的场景的输入图像(步骤S102)。定位单元120还确定图像处理设备100的当前位置和取向(步骤S104)。接下来,匹配单元140可以检索对应于当前位置的三维模型,并从存储单元130中存储的相应的三维模型中获取关于图像处理设备100的当前位置周围的目标的数据(步骤S106)。接下来,匹配单元140将输入图像中设置的特征点与所获取的三维模型中包含的目标组的特征点匹配(步骤S108)。接下来,当从应用单元160输入目标指定信息时,加强处理单元180区分由目标指定信息指定的一个或多个指定目标(步骤S110)。接下来,加强处理单元180使用三维模型来提取输入图像中的对应于指定目标的区域的部分图像(步骤S112)。接下来,加强处理单元180通过处理和修改所提取的部分图像,来生成加强指定目标的加强图像(步骤S114)。或者,可以修改三维模型的一部分来生成加强图像。加强处理单元180通过将生成的加强图像叠加在输入图像之上来生成输出图像(步骤S116)。通过用户界面单元170在显示设备24的屏幕上显示以该方式生成的输出图像。
<4.结论>
已经参照图1至10描述了本公开的一个实施例。根据本实施例,通过对输入图像中的与通过应用功能指定的三维模型中的指定目标相对应的部分图像进行处理,生成和显示了加强指定目标的加强图像。因此,在保持从用户使用的图像处理设备100上安装的成像装置22的视点而出现在输入图像中的自然外观的同时,还加强显示了指定目标。因此,用户容易在现实空间中找到诸如期望的建筑物或设施等的指定目标。
例如,使用表示指定目标移动的动画的一系列加强图像还使得用户能够非常容易地识别期望的目标。输出图像中对指定目标的修改还使得用户能够直观容易地了解诸如排序等额外信息。
用户抖动图像处理设备100在将要显示的输出图像中触发指定目标抖动的动画的方法还使得用户的运动与加强图像相关联,且该方法能够实现呈现地理信息的直观且容易理解的用户界面。
本领域的技术人员应当理解,根据设计要求和其它因素可以出现各种修改、组合、子组合以及改变,只要它们落入所附权利要求或其同等的范围内即可。
Claims (14)
1.一种图像处理装置,包括:
捕获单元,用于捕获物理目标的输入图像;
匹配单元,用于将三维模型与所述物理目标匹配;
处理单元,用于通过以下中的至少一个来产生与所述物理目标中的指定物理目标对应的修改的部分图像:
修改匹配的三维模型的与所述指定物理目标对应的部分,或
使用匹配的三维模型来修改从所述输入图像中提取的与所述指定物理目标对应的部分图像;及
显示生成器,用于生成表示输出图像的信号,所述输出图像包含叠加在所述输入图像之上的修改的部分图像,
其中,所述修改的部分图像包括加强的部分图像,
其中,所述处理单元通过生成所述指定物理目标移动的动画,来加强所述部分图像。
2.根据权利要求1所述的装置,其中所述处理单元还通过改变所述部分图像的尺寸、形状、颜色或亮度中的至少一个来加强所述部分图像。
3.根据权利要求1所述的图像处理装置,其中所述三维模型包括描述所述物理目标中的一个的三维形状和位置的三维模型。
4.根据权利要求1所述的图像处理装置,其中所述装置包括用于存储所述三维模型的存储单元。
5.根据权利要求1所述的图像处理装置,其中所述三维模型包括形成所述物理目标中的一个的形状的顶点的三维位置。
6.根据权利要求1所述的图像处理装置,其中所述三维模型包括限定所述物理目标中的一个的标识的数据。
7.根据权利要求6所述的图像处理装置,其中所述处理单元生成所述物理目标中的指定物理目标的修改的部分图像,所述修改的部分图像对应于所接收的所述物理目标中的指定物理目标的标识。
8.根据权利要求5所述的图像处理装置,其中所述匹配单元利用顶点的三维位置将所述输入图像中的所述物理目标的特征点与三维模型匹配。
9.根据权利要求1所述的图像处理装置,包括用于确定所述装置的当前位置的定位单元。
10.根据权利要求9所述的图像处理装置,其中所述匹配单元基于所确定的当前位置来检索对应于所述输入图像中的所述物理目标的三维模型。
11.根据权利要求9所述的图像处理装置,其中所述定位单元确定所述装置的当前取向。
12.根据权利要求1所述的图像处理装置,包括用于检测所述装置的移动的传感器单元。
13.根据权利要求12所述的图像处理装置,其中所述处理单元基于所述传感器单元检测到的移动来生成修改的部分图像。
14.一种图像处理方法,包括:
捕获物理目标的输入图像;
将三维模型与所述物理目标匹配;
通过以下中的至少一个来产生与所述物理目标中的指定物理目标对应的修改的部分图像:
修改匹配的三维模型的与所述指定物理目标对应的部分,或
使用匹配的三维模型来修改从所述输入图像中提取的与所述指定物理目标对应的部分图像;及
显示包含叠加在所述输入图像之上的所述修改的部分图像的输出图像,
其中,所述修改的部分图像包括加强的部分图像,
其中,通过生成所述指定物理目标移动的动画,来加强所述部分图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010224347A JP5652097B2 (ja) | 2010-10-01 | 2010-10-01 | 画像処理装置、プログラム及び画像処理方法 |
JP2010-224347 | 2010-10-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102542905A CN102542905A (zh) | 2012-07-04 |
CN102542905B true CN102542905B (zh) | 2016-01-13 |
Family
ID=44720661
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110291622.0A Active CN102542905B (zh) | 2010-10-01 | 2011-09-23 | 图像处理装置和图像处理方法 |
CN2011203658217U Expired - Fee Related CN202502670U (zh) | 2010-10-01 | 2011-09-23 | 图像处理装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011203658217U Expired - Fee Related CN202502670U (zh) | 2010-10-01 | 2011-09-23 | 图像处理装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US9536454B2 (zh) |
EP (1) | EP2437237A3 (zh) |
JP (1) | JP5652097B2 (zh) |
CN (2) | CN102542905B (zh) |
BR (1) | BRPI1106304A2 (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9230223B2 (en) | 2011-12-05 | 2016-01-05 | Houzz, Inc. | Consistent presentation of content and passive relevance determination of content relationship in an on-line commerce system |
US9069440B2 (en) * | 2012-06-05 | 2015-06-30 | Apple Inc. | Method, system and apparatus for providing a three-dimensional transition animation for a map view change |
US9412150B2 (en) * | 2012-11-12 | 2016-08-09 | Here Global B.V. | Method and apparatus for visually representing objects with a modified height |
JP6064544B2 (ja) * | 2012-11-27 | 2017-01-25 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム及び端末装置 |
EP3012587A4 (en) | 2013-06-17 | 2017-03-08 | Sony Corporation | Image processing device, image processing method, and program |
DE102013212035A1 (de) * | 2013-06-25 | 2015-01-08 | Robert Bosch Gmbh | Verfahren zum Darstellen von Objekten und Navigationseinrichtung zum Durchführen des Verfahrens |
DE102014110349A1 (de) * | 2013-08-09 | 2015-02-12 | Samsung Electronics Co., Ltd. | Hybride visuelle Kommunikation |
JP6222440B2 (ja) * | 2013-10-07 | 2017-11-01 | コニカミノルタ株式会社 | Ar表示システム、およびar表示装置、情報処理装置、プログラム |
JP2015104930A (ja) * | 2013-11-28 | 2015-06-08 | 株式会社デンソー | ヘッドアップディスプレイ装置 |
CN111986328A (zh) * | 2013-12-17 | 2020-11-24 | 索尼公司 | 信息处理设备和方法以及非易失性计算机可读存储介质 |
JP5762600B1 (ja) * | 2014-06-06 | 2015-08-12 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
CN104484345A (zh) * | 2014-11-28 | 2015-04-01 | 广东工业大学 | 一种基于K-means聚类的水火弯板3D扫描模块的提取方法 |
US10339390B2 (en) * | 2016-02-23 | 2019-07-02 | Semiconductor Components Industries, Llc | Methods and apparatus for an imaging system |
CN106888316A (zh) * | 2016-12-31 | 2017-06-23 | 深圳天珑无线科技有限公司 | 单手查找电子地图的方法及其系统 |
JP6930547B2 (ja) | 2017-01-27 | 2021-09-01 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびそのプログラム |
JP6976719B2 (ja) * | 2017-05-25 | 2021-12-08 | キヤノン株式会社 | 表示制御装置、表示制御方法及びプログラム |
US10534962B2 (en) | 2017-06-17 | 2020-01-14 | Matterport, Inc. | Automated classification based on photo-realistic image/model mappings |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7102634B2 (en) * | 2002-01-09 | 2006-09-05 | Infinitt Co., Ltd | Apparatus and method for displaying virtual endoscopy display |
Family Cites Families (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5262856A (en) * | 1992-06-04 | 1993-11-16 | Massachusetts Institute Of Technology | Video image compositing techniques |
JPH06231275A (ja) * | 1993-01-29 | 1994-08-19 | Hitachi Ltd | 画像シミュレーション方法 |
US5467441A (en) * | 1993-07-21 | 1995-11-14 | Xerox Corporation | Method for operating on objects in a first image using an object-based model data structure to produce a second contextual image having added, replaced or deleted objects |
JP3333319B2 (ja) * | 1994-06-03 | 2002-10-15 | 三菱電機株式会社 | 2次元3次元統合型cadシステム |
AU6998996A (en) * | 1995-10-08 | 1997-05-15 | Face Imaging Ltd. | A method for the automatic computerized audio visual dubbing of movies |
US6512857B1 (en) * | 1997-05-09 | 2003-01-28 | Sarnoff Corporation | Method and apparatus for performing geo-spatial registration |
US6229546B1 (en) * | 1997-09-09 | 2001-05-08 | Geosoftware, Inc. | Rapid terrain model generation with 3-D object features and user customization interface |
JP4025442B2 (ja) * | 1998-12-01 | 2007-12-19 | 富士通株式会社 | 三次元モデル変換装置及び方法 |
US6879946B2 (en) * | 1999-11-30 | 2005-04-12 | Pattern Discovery Software Systems Ltd. | Intelligent modeling, transformation and manipulation system |
JP4208113B2 (ja) * | 2000-04-19 | 2009-01-14 | 富士フイルム株式会社 | アルバム作成方法および装置並びに記録媒体 |
US7193633B1 (en) * | 2000-04-27 | 2007-03-20 | Adobe Systems Incorporated | Method and apparatus for image assisted modeling of three-dimensional scenes |
JP2002083285A (ja) * | 2000-07-07 | 2002-03-22 | Matsushita Electric Ind Co Ltd | 画像合成装置および画像合成方法 |
FR2814570B1 (fr) * | 2000-09-27 | 2003-11-21 | Cyber Act | Procede interactif de communication d'informations a des utilisateurs d'un reseau de communication informatique, notamment de type internet |
DE60127866T2 (de) * | 2001-01-16 | 2007-12-20 | Koninklijke Philips Electronics N.V. | Verringern von aura-artigen effekten bei der bewegungskompensierten interpolation |
US6650326B1 (en) * | 2001-01-22 | 2003-11-18 | Navigation Technologies Corp. | Method of handling context during scaling with a map display |
US6980697B1 (en) * | 2001-02-01 | 2005-12-27 | At&T Corp. | Digitally-generated lighting for video conferencing applications |
ITMI20010538A1 (it) * | 2001-03-14 | 2002-09-14 | Phoenix Tools S R L | Sistema per la creazione la visualizzazione e la gestione di oggetti tridimensionali su pagine web e metodo relativo |
GB0114157D0 (en) * | 2001-06-11 | 2001-08-01 | Canon Kk | 3D Computer modelling apparatus |
US7019748B2 (en) * | 2001-08-15 | 2006-03-28 | Mitsubishi Electric Research Laboratories, Inc. | Simulating motion of static objects in scenes |
JP2003053027A (ja) * | 2001-08-21 | 2003-02-25 | Shinsedai Kk | 音楽演奏ゲーム装置 |
US7046840B2 (en) * | 2001-11-09 | 2006-05-16 | Arcsoft, Inc. | 3-D reconstruction engine |
US20030108329A1 (en) * | 2001-12-12 | 2003-06-12 | Meric Adriansen | Advertising method and system |
JP2003216977A (ja) * | 2002-01-17 | 2003-07-31 | Sony Corp | 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム |
JP2003317116A (ja) * | 2002-04-25 | 2003-11-07 | Sony Corp | 3次元仮想空間における情報提示装置及び情報提示方法、並びにコンピュータ・プログラム |
JP3944019B2 (ja) * | 2002-07-31 | 2007-07-11 | キヤノン株式会社 | 情報処理装置および方法 |
JP2004094773A (ja) * | 2002-09-03 | 2004-03-25 | Nec Corp | 頭部装着物画像合成方法、化粧画像合成方法、頭部装着物画像合成装置、化粧画像合成装置及びプログラム |
JP3748545B2 (ja) * | 2002-09-19 | 2006-02-22 | 株式会社ナムコ | プログラム、情報記憶媒体及び画像生成装置 |
JP2004271901A (ja) * | 2003-03-07 | 2004-09-30 | Matsushita Electric Ind Co Ltd | 地図表示装置 |
JP4085918B2 (ja) * | 2003-07-18 | 2008-05-14 | ソニー株式会社 | 3次元モデル処理装置、および3次元モデル処理方法、並びにコンピュータ・プログラム |
JP2005227590A (ja) * | 2004-02-13 | 2005-08-25 | Nec Toshiba Space Systems Ltd | 位置情報提供方法および地図案内装置 |
SE525826C2 (sv) * | 2004-06-18 | 2005-05-10 | Totalfoersvarets Forskningsins | Interaktivt förfarande för att presentera information i en bild |
US20060044307A1 (en) * | 2004-08-24 | 2006-03-02 | Kyuman Song | System and method for visually representing project metrics on 3-dimensional building models |
US7929800B2 (en) * | 2007-02-06 | 2011-04-19 | Meadow William D | Methods and apparatus for generating a continuum of image data |
JP4606898B2 (ja) * | 2005-02-15 | 2011-01-05 | 三菱電機株式会社 | 情報生成装置及び検索装置 |
WO2006093250A1 (ja) * | 2005-03-04 | 2006-09-08 | National University Corporation NARA Institute of Science and Technology | 動き計測装置、動き計測システム、車載機器、動き計測方法、動き計測プログラム、およびコンピュータ読み取り可能な記録媒体 |
US8942283B2 (en) * | 2005-03-31 | 2015-01-27 | Euclid Discoveries, Llc | Feature-based hybrid video codec comparing compression efficiency of encodings |
US20060223635A1 (en) * | 2005-04-04 | 2006-10-05 | Outland Research | method and apparatus for an on-screen/off-screen first person gaming experience |
WO2006105686A1 (en) * | 2005-04-06 | 2006-10-12 | Eidgenössische Technische Hochschule Zürich | Method of executing an application in a mobile device |
US8040361B2 (en) * | 2005-04-11 | 2011-10-18 | Systems Technology, Inc. | Systems and methods for combining virtual and real-time physical environments |
JP2006338092A (ja) * | 2005-05-31 | 2006-12-14 | Nec Corp | パタン照合方法、パタン照合システム及びパタン照合プログラム |
US7728869B2 (en) * | 2005-06-14 | 2010-06-01 | Lg Electronics Inc. | Matching camera-photographed image with map data in portable terminal and travel route guidance method |
US7840032B2 (en) * | 2005-10-04 | 2010-11-23 | Microsoft Corporation | Street-side maps and paths |
JP4246195B2 (ja) * | 2005-11-01 | 2009-04-02 | パナソニック株式会社 | カーナビゲーションシステム |
US8094928B2 (en) * | 2005-11-14 | 2012-01-10 | Microsoft Corporation | Stereo video for gaming |
JP4777786B2 (ja) * | 2006-02-01 | 2011-09-21 | クラリオン株式会社 | 車載地図表示装置 |
US8009910B2 (en) * | 2006-05-05 | 2011-08-30 | Valtion Teknillinen Tutkimuskeskus | Method, a system, a computer program product and a user interface for segmenting image sets |
EP1862969A1 (en) * | 2006-06-02 | 2007-12-05 | Eidgenössische Technische Hochschule Zürich | Method and system for generating a representation of a dynamically changing 3D scene |
US20070291034A1 (en) * | 2006-06-20 | 2007-12-20 | Dones Nelson C | System for presenting a navigable virtual subway system, and method for operating and using the same |
JP4926817B2 (ja) * | 2006-08-11 | 2012-05-09 | キヤノン株式会社 | 指標配置情報計測装置および方法 |
US8073213B2 (en) * | 2006-10-30 | 2011-12-06 | General Electric Company | Method for generating a registered image relative to a cardiac cycle and a respiratory cycle of a person |
JP5177615B2 (ja) * | 2006-12-01 | 2013-04-03 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 |
US7750825B2 (en) * | 2007-03-09 | 2010-07-06 | Adobe Systems Incorporated | System and method for navigation of display data |
US7941429B2 (en) * | 2007-07-10 | 2011-05-10 | Yahoo! Inc. | Interface for visually searching and navigating objects |
US8089522B2 (en) * | 2007-09-07 | 2012-01-03 | Regents Of The University Of Minnesota | Spatial-temporal multi-resolution image sensor with adaptive frame rates for tracking movement in a region of interest |
JP5053776B2 (ja) * | 2007-09-14 | 2012-10-17 | 株式会社デンソー | 車両用視界支援システム、車載装置、及び、情報配信装置 |
DE102007048320A1 (de) * | 2007-10-09 | 2008-05-15 | Daimler Ag | Verfahren zur Anpassung eines Objektmodells an eine dreidimensionale Punktwolke |
US20140300610A1 (en) * | 2007-11-16 | 2014-10-09 | Adobe Systems Incorporated | System and method for using time re-mapping for computer-generated animation |
US8134558B1 (en) * | 2007-12-06 | 2012-03-13 | Adobe Systems Incorporated | Systems and methods for editing of a computer-generated animation across a plurality of keyframe pairs |
US20090213270A1 (en) * | 2008-02-22 | 2009-08-27 | Ryan Ismert | Video indexing and fingerprinting for video enhancement |
US8743125B2 (en) * | 2008-03-11 | 2014-06-03 | Sony Computer Entertainment Inc. | Method and apparatus for providing natural facial animation |
US8737721B2 (en) * | 2008-05-07 | 2014-05-27 | Microsoft Corporation | Procedural authoring |
US8391642B1 (en) * | 2008-05-12 | 2013-03-05 | Hewlett-Packard Development Company, L.P. | Method and system for creating a custom image |
CA2725800A1 (en) * | 2008-07-31 | 2010-02-04 | Tele Atlas B.V. | Method of displaying navigation data in 3d |
AT10520U3 (de) * | 2008-09-05 | 2013-10-15 | Knapp Systemintegration Gmbh | Vorrichtung und verfahren zur visuellen unterstützung von kommissioniervorgängen |
EP2327055B1 (en) * | 2008-09-25 | 2012-08-22 | TomTom Global Content B.V. | Method of and arrangement for blurring an image |
JP2010118019A (ja) * | 2008-11-14 | 2010-05-27 | Sharp Corp | 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体 |
CN101750072A (zh) * | 2008-12-08 | 2010-06-23 | 北京龙图通信息技术有限公司 | 三维动画视频导航方法及系统 |
US9098926B2 (en) * | 2009-02-06 | 2015-08-04 | The Hong Kong University Of Science And Technology | Generating three-dimensional façade models from images |
US8111300B2 (en) * | 2009-04-22 | 2012-02-07 | Qualcomm Incorporated | System and method to selectively combine video frame image data |
KR101671900B1 (ko) * | 2009-05-08 | 2016-11-03 | 삼성전자주식회사 | 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체 |
JP5290864B2 (ja) * | 2009-05-18 | 2013-09-18 | キヤノン株式会社 | 位置姿勢推定装置及び方法 |
US8542252B2 (en) * | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
CA2767768A1 (en) * | 2009-07-10 | 2011-01-13 | Georeplica Inc. | System of identifying and advertising organizations or other entities by overlaying image files on mapping applications |
US8718338B2 (en) * | 2009-07-23 | 2014-05-06 | General Electric Company | System and method to compensate for respiratory motion in acquired radiography images |
CN101640724A (zh) * | 2009-08-21 | 2010-02-03 | 北京协进科技发展有限公司 | 一种控制手机地图的方法及手机 |
KR100982768B1 (ko) * | 2009-09-21 | 2010-09-20 | (주)올라웍스 | 단말기의 각도에 따라 서로 다른 영상 정보를 제공하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체 |
JP5340895B2 (ja) * | 2009-11-24 | 2013-11-13 | 株式会社ソニー・コンピュータエンタテインメント | 画像データ作成支援装置および画像データ作成支援方法 |
US8566020B2 (en) * | 2009-12-01 | 2013-10-22 | Nokia Corporation | Method and apparatus for transforming three-dimensional map objects to present navigation information |
US8907947B2 (en) * | 2009-12-14 | 2014-12-09 | Dassault Systèmes | Method and system for navigating in a product structure of a product |
CN102713664B (zh) * | 2010-01-12 | 2016-03-16 | 诺基亚技术有限公司 | 协作式位置/方位估计 |
US20110227919A1 (en) * | 2010-03-17 | 2011-09-22 | International Business Machines Corporation | Managing object attributes in a virtual world environment |
JP5899232B2 (ja) * | 2010-11-24 | 2016-04-06 | グーグル インコーポレイテッド | 地理的位置指定パノラマを通した誘導付きナビゲーション |
US8749573B2 (en) * | 2011-05-26 | 2014-06-10 | Nokia Corporation | Method and apparatus for providing input through an apparatus configured to provide for display of an image |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
US9081177B2 (en) * | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
KR101923929B1 (ko) * | 2012-06-06 | 2018-11-30 | 삼성전자주식회사 | 증강 현실 서비스를 제공하는 이동통신 단말기 및 증강 현실 서비스에 대한 화면으로의 화면 전환 방법 |
US8811764B1 (en) * | 2012-10-25 | 2014-08-19 | Google Inc. | System and method for scene dependent multi-band blending |
-
2010
- 2010-10-01 JP JP2010224347A patent/JP5652097B2/ja active Active
-
2011
- 2011-09-22 EP EP11182368.8A patent/EP2437237A3/en not_active Ceased
- 2011-09-23 CN CN201110291622.0A patent/CN102542905B/zh active Active
- 2011-09-23 CN CN2011203658217U patent/CN202502670U/zh not_active Expired - Fee Related
- 2011-09-23 BR BRPI1106304-1A patent/BRPI1106304A2/pt not_active IP Right Cessation
- 2011-09-27 US US13/246,159 patent/US9536454B2/en active Active
-
2016
- 2016-11-22 US US15/358,480 patent/US10636326B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7102634B2 (en) * | 2002-01-09 | 2006-09-05 | Infinitt Co., Ltd | Apparatus and method for displaying virtual endoscopy display |
Also Published As
Publication number | Publication date |
---|---|
CN102542905A (zh) | 2012-07-04 |
US9536454B2 (en) | 2017-01-03 |
CN202502670U (zh) | 2012-10-24 |
US20170076638A1 (en) | 2017-03-16 |
JP5652097B2 (ja) | 2015-01-14 |
EP2437237A3 (en) | 2015-05-27 |
JP2012079129A (ja) | 2012-04-19 |
BRPI1106304A2 (pt) | 2013-02-19 |
US20120082341A1 (en) | 2012-04-05 |
EP2437237A2 (en) | 2012-04-04 |
US10636326B2 (en) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102542905B (zh) | 图像处理装置和图像处理方法 | |
US10025985B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium storing program | |
CN100433050C (zh) | 移动通信系统、移动终端和固定站设备,字符识别设备、方法和程序 | |
US20160063671A1 (en) | A method and apparatus for updating a field of view in a user interface | |
US20130314398A1 (en) | Augmented reality using state plane coordinates | |
EP2503488A1 (en) | Device, information processing apparatus and method | |
US7136529B2 (en) | Information presentation system | |
JP2010118019A (ja) | 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体 | |
CN103814397A (zh) | 用于增强实境环境的基于移动设备的内容映射 | |
TW201229962A (en) | Augmenting image data based on related 3D point cloud data | |
KR101413011B1 (ko) | 위치 정보 기반 증강현실 시스템 및 제공 방법 | |
KR100968837B1 (ko) | 촬영된 객체에 대한 정보를 제공하는 휴대용 카메라 시스템 | |
US20220076469A1 (en) | Information display device and information display program | |
CN107193820B (zh) | 位置信息获取方法、装置及设备 | |
JP2006285546A (ja) | 情報提供システム、データベースサーバー、及び携帯通信端末 | |
JP5862865B2 (ja) | 合成画像表示装置及び合成画像表示プログラム | |
JP2006287435A (ja) | 情報処理装置、そのシステム、その方法、そのプログラム、および、そのプログラムを記録した記録媒体 | |
JP4733343B2 (ja) | ナビゲーションシステム、ナビゲーション装置、ナビゲーション方法、及びナビゲーションプログラム | |
JP5705793B2 (ja) | 拡張現実表示装置、拡張現実表示システム、拡張現実表示方法、及び拡張現実表示プログラム | |
JP7065455B2 (ja) | スポット情報表示システム | |
CN113739797A (zh) | 视觉定位方法和装置 | |
JP2011022662A (ja) | 携帯電話端末及び情報処理システム | |
KR102272757B1 (ko) | 파노라믹 영상 컨텐츠 제작 시스템 및 방법 | |
JP6673700B2 (ja) | 地物情報提供システム | |
Kang et al. | A Platform for Mobile Image Recognition and Mobile Mapping in Local Based Services |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |