CN102446048A - 信息处理设备以及信息处理方法 - Google Patents

信息处理设备以及信息处理方法 Download PDF

Info

Publication number
CN102446048A
CN102446048A CN2010105019788A CN201010501978A CN102446048A CN 102446048 A CN102446048 A CN 102446048A CN 2010105019788 A CN2010105019788 A CN 2010105019788A CN 201010501978 A CN201010501978 A CN 201010501978A CN 102446048 A CN102446048 A CN 102446048A
Authority
CN
China
Prior art keywords
additional information
messaging device
unit
display
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010105019788A
Other languages
English (en)
Other versions
CN102446048B (zh
Inventor
陆游龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201010501978.8A priority Critical patent/CN102446048B/zh
Priority to US13/824,846 priority patent/US20130176337A1/en
Priority to PCT/CN2011/080181 priority patent/WO2012041208A1/zh
Publication of CN102446048A publication Critical patent/CN102446048A/zh
Application granted granted Critical
Publication of CN102446048B publication Critical patent/CN102446048B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

一种信息处理设备和信息处理方法,所述信息处理设备包括:具有预定透光率的显示单元;对象确定单元,配置来确定信息处理设备一侧的至少一个对象;附加信息获取单元,配置来获取与至少一个对象对应的附加信息;附加信息位置确定单元,配置来确定附加信息在显示单元上的显示位置;以及显示处理单元,配置来基于显示位置在显示单元上显示该附加信息。

Description

信息处理设备以及信息处理方法
技术领域
本发明涉及一种信息处理设备以及信息处理方法。更具体地,本发明涉及一种基于虚拟现实技术的信息处理设备以及信息处理方法。
背景技术
随着移动互联网服务和应用的日益完善,诸如手机或平板电脑之类的信息处理设备的增强现实应用技术(将数据叠加在真实场景/物体的技术)逐渐成为一个热点。例如,在现有技术中,通常利用信息处理设备上的摄像头采集图像,对所采集的图像中的对象进行识别,并且将与对象对应的数据(如,关于该对象的信息或光标等)和所采集的图像叠加以在信息处理设备上的显示屏幕上进行显示,从而在信息处理设备的屏幕上实现增强现实技术。
然而,现有技术中的信息处理设备仍然存在如下缺陷:
1.信息处理设备的屏幕需要实时显示摄像头采集的图像,而这大大增加了信息处理设备的耗电量,从而导致信息处理设备的续航能力较差。
2.信息处理设备需要将摄像头采集的图像和对象数据进行动态叠加显示,从而导致大量消耗系统资源。
3.由于信息处理设备的屏幕分辨率和屏幕尺寸通常是有限的,因此对真实场景细节的呈现能力较差。
发明内容
为了解决现有技术中的上述问题,根据本发明的一个方面,提供一种信息处理设备,包括:具有预定透光率的显示单元;对象确定单元,配置来确定信息处理设备一侧的至少一个对象;附加信息获取单元,配置来获取与至少一个对象对应的附加信息;附加信息位置确定单元,配置来确定附加信息在显示单元上的显示位置;以及显示处理单元,配置来基于显示位置在显示单元上显示附加信息。
此外,根据本发明的另一方面,提供一种应用于信息处理设备的信息处理方法,其中信息处理设备包括具有预定透光率的显示单元,所述信息处理方法包括:确定信息处理设备一侧的至少一个对象;获取与至少一个对象对应的附加信息;确定附加信息在显示单元上的显示位置;基于显示位置在显示单元上显示附加信息。
通过上述配置,信息处理设备的显示单元具有预定的透光率,因而使用该信息处理设备的用户可以通过该显示单元看到真实环境的景物。由于用户可以通过该显示单元看到真实环境的景物,因此在减少信息处理设备的耗电量以增强信息处理设备的续航能力的同时,用户还能观看到高分辨率的真实景物。此外,信息处理设备可以确定用户透过显示单元所能看到的真实景物的范围以及该范围内的至少一个对象,获得与至少一个对象对应的附加信息,并且在显示单元上与对象对应的显示位置上显示与至少一个对象对应的附加信息。因此,在用户透过显示单元看到真实景物的同时,将附加信息叠加在显示单元上与所看到的对象对应的显示位置上,从而实现了增强现实的效果。
附图说明
图1是图解根据本发明示例性实施例的信息处理设备的结构的方框图;
图2是图解根据本发明另一示例性实施例的信息处理设备的结构的方框图;
图3是图解由于用户头部的位置不同而导致的需要叠加的附加信息的显示位置的变化的示意图;以及
图4是图解根据本发明实施例的信息处理方法的流程图。
具体实施方式
将参照附图详细描述根据本发明的各个实施例。这里,需要注意的是,在附图中,将相同的附图标记赋予基本上具有相同或类似结构和功能的组成部分,并且将省略关于它们的重复描述。
下面,将描述根据本发明的示例性实施例的信息处理设备。图1是图解根据本发明示例性实施例的信息处理设备1的结构的方框图。
如图1所示,根据本发明的一个实施例,信息处理设备1包括显示屏幕11、对象确定单元12、附加信息获取单元13、附加信息位置确定单元14以及显示处理单元15,其中显示屏幕11与显示处理单元15连接,并且对象确定单元12、附加信息获取单元13以及显示处理单元15与附加信息位置确定单元14连接。
显示屏幕11可以包括具有预定透光率的显示屏幕。例如,显示屏幕11可以包括两个透明组件(如,玻璃、塑料等)以及夹在透明组件之间的透明液晶层(如,单色的液晶层)。此外,例如,显示屏幕11还可以包括一个透明组件,以及在该透明组件的一侧上设置的透明液晶层(其包括用于保护透明液晶层的保护膜)。由于透明组件以及透明液晶层具有预定的透光率,因此使用信息处理设备1的用户可以通过显示屏幕11看到真实景物,其中在用户通过显示屏幕11看到的真实景物中可以包含至少一个对象(如,桌子、水杯、鼠标等等)。然而,本发明不限于此,可以采用现有任意的透明显示屏幕以及将来可能出现的透明显示屏幕。
对象确定单元12用于确定信息处理设备1一侧(即,朝向对象的那一侧)的对象。例如,根据本发明的一个实施例,对象确定单元12可以包括设置在信息处理设备1一侧(即,朝向对象的那一侧)的摄像模块121,用于采集信息处理设备1一侧的图像。例如,该摄像模块121可以设置在显示屏幕11之上或其它的位置上。在用户手持信息处理设备1来观看对象时,摄像模块121采集对象的图像。此外,由于用户通过信息处理设备1观看对象时把持信息处理设备1的方式以及用户与信息处理设备1的相对位置通常是固定的(如,用户的头部投影在显示屏幕11的中央并且离显示屏幕11预定的距离),并且由于用户可通过显示屏幕11看到真实景物的范围(视角)受到透明的显示屏幕11的尺寸的限制,因此可以合适地选择摄像模块121的焦距,使得摄像模块121采集的图像与用户通过显示屏幕11看到的真实景物的范围(视角)基本一致。
附加信息获取单元13用于获取与图像模块121所采集的图像中的对象对应的附加信息。根据本发明的一个实施例,附加信息获取单元13可以包括图像识别单元131。图像识别131用于对摄像模块121拍摄的图像中的对象进行图像识别来判断对象,并且产生与该对象的类别有关的附加信息。此外,根据本发明的另一个实施例,在需要摄像模块121拍摄的图像中的对象(如,键盘、鼠标等)具有电子标签,并且需要提供对象的进一步信息的情况下,附加信息获取单元13还可以包括电子标签识别单元132。电子标签识别单元132用于对具有电子标签的所述对象进行识别来判断对象,并且产生与电子标签对应的附加信息。
附加信息位置确定单元14可以确定与对象对应的附加信息在所述显示屏幕11上的显示位置。
此外,显示处理单元15可以基于附加信息位置确定单元14确定的显示位置在显示屏幕11上显示附加信息。
下面,将描述图1所示的信息处理设备1执行的操作。
在用户使用信息处理设备1观看对象时,对象确定单元12的摄像模块121采集信息处理设备1一侧(即,朝向对象的那一侧)的对象。
然后,附加信息获取单元13的图像识别单元131可以对摄像模块121拍摄的图像中的对象进行图像识别来判断对象,并且产生与该对象的类别有关的附加信息。例如,在用户使用信息处理设备1观看水杯的情况下,图像识别单元131对摄像模块121拍摄的图像中的水杯进行图像识别,并且产生附加信息“水杯”。
此外,在摄像模块121采集的图像中的对象具有电子标签的情况下,附加信息获取单元13的电子标签识别模块132对具有电子标签的对象(如,鼠标等)进行识别来判断对象,并且产生与对象对应的附加信息(如,鼠标的型号)。
此外,如果在摄像模块121中存在多个对象,则附加信息获取单元13的图像识别单元131和/或电子标签识别模块132分别对摄像模块121采集的图像中的多个对象进行识别。这里,需要注意的是,由于图像识别以及电子标签识别对于本领域技术人员来说是熟知的,因此这里省略了其详细描述。
在附加信息获取单元13产生了对象的附加信息之后,附加信息位置确定单元14基于摄像模块121拍摄的图像中的对象位置确定与对象对应的附加信息在显示屏幕11上的显示位置。例如,根据本发明的一个实施例,由于如上所述,可以通过合适地设置摄像模块121的焦距,使得摄像模块121采集的图像与用户通过显示屏幕11看到的真实景物的范围(视角)基本一致,也就是摄像模块121采集的图像与用户通过显示屏幕11看到的真实景物基本相同。在这种情况下,附加信息位置确定单元14可以基于摄像模块121采集的图像中的对象的位置来确定与对象对应的附加信息的显示位置。例如,由于在摄像模块121中拍摄的图像中的对象的大小和位置与用户通过显示屏幕11看到的真实景物中的对象的大小和位置一一对应,因此,附加信息位置确定单元14可以很容易就能确定与对象对应的附加信息在显示屏幕11上的显示位置。例如,可以确定在显示屏幕11上与对象的中心对应的位置来作为显示附加信息获取单元13获得的附加信息的显示位置。
然后,显示处理单元15基于附加信息位置确定单元14确定的显示位置在显示屏幕11上显示与对象对应的附加信息。
此外,本发明不限于此,由于摄像模块121通常设置在显示屏幕11的上方,因此摄像模块121中拍摄的图像中的对象的大小和位置与用户通过显示屏幕11看到的真实景物可能会稍有不同。例如,由于摄像模块121通常设置在显示屏幕11的上方,因此其拍摄的图像中的对象位置要比用户通过显示屏幕11看到的真实景物的对象位置稍低一些。因此,附加信息位置确定单元14可以在基于摄像模块121采集的图像中的对象的位置确定附加信息的显示位置的基础上,将所确定的显示位置稍稍上移来校正该显示位置,从而用户可以在用户通过显示屏幕11看到的真实景物的同时,在更精准位置上显示与用户看到的对象对应的附加信息。
通过上述配置,由于显示屏幕11具有预定的透光率,因而用户可以通过该显示屏幕11看到真实环境的景物。因此在用户观看到高分辨率的真实景物的同时,还能减少信息处理设备1的耗电量以增强信息处理设备的续航能力。此外,信息处理设备1可以确定用户透过显示屏幕11所能看到的真实景物的范围以及该范围内的对象,获得与对象对应的附加信息,并且在显示屏幕上与对象对应的显示位置上显示该附加信息。因此,在用户透过显示屏幕看到真实景物的同时,将附加信息叠加在显示屏幕上与对象对应的显示位置上,从而实现了增强现实的效果。
下面,将描述根据本发明另一实施例的信息处理设备的结构和操作。图2是图解根据本发明实施例的信息处理设备2的结构的方框图。
如图2所示,信息处理设备2包括显示屏幕21、对象确定单元22、附加信息获取单元23、附加信息位置确定单元24以及显示处理单元25,其中显示屏幕21与显示处理单元25连接,并且对象确定单元22、附加信息获取单元123以及显示处理单元25与附加信息位置确定单元24连接。
与图1所示的信息处理设备1不同,信息处理设备2的对象确定单元22进一步包括定位模块221、方向检测模块222以及对象确定模块223,并且附加信息位置确定单元24进一步包括对象位置获取模块241。由于信息处理设备2的显示屏幕21以及显示处理单元25与图1的信息处理设备1的对应部件的结构和功能相同,因此这里省略其详细描述。
根据本实施例,定位模块221用于获得所述信息处理设备2的当前位置数据(如,坐标数据),并且可以是诸如GPS模块之类的定位单元。方向检测模块222用于获得信息处理设备2(也就是,显示屏幕21)的朝向数据,并且可以是诸如地磁传感器之类的方向传感器。对象确定模块223用于基于信息处理设备2的当前位置数据、朝向数据确定用户使用信息处理设备2观看的对象范围,并且可以确定在该对象范围内满足预定条件的至少一个对象。这里,需要说明的是,对象范围指的是用户能够通过信息处理设备2的显示屏幕211看到的景物的观察(可视)范围(即,视角)。此外,对象位置获取模块241用于获得与该至少一个对象对应的位置数据,并且可以包括三维摄像模块、距离传感器或GPS模块等。
下面将描述用户使用信息处理设备2观看真实景物时,信息处理设备2执行的操作。这里,需要注意的是,由于用户通过信息处理设备2观看对象时把持信息处理设备2的方式以及用户与信息处理设备2的相对位置通常是固定的,例如,用户的头部投影通常在显示屏幕21的中央并且离显示屏幕2预定的距离(如50cm),因此在本实施例中,在默认情况下,信息处理设备2基于用户的头部对应于显示屏幕21的中央位置并且离显示屏幕2有预定的距离(如50cm)的情况进行附加信息的显示位置的确定操作。
在用户使用信息处理设备2观看真实景物时,定位模块221获得信息处理设备2的当前位置数据(如,经纬度数据、海拔数据等)。方向检测模块222获得信息处理设备2的朝向数据。对象确定模块223基于信息处理设备2的当前位置数据、朝向数据以确定信息处理设备2(用户)在哪里,向哪个方向进行观看。
此外,由于在默认情况下,用户的头部对应于显示屏幕21的中央位置并且离显示屏幕2预定的距离,因此在确定了信息处理设备2的位置和朝向之后,基于用户的头部与显示屏幕21的距离以及显示屏幕21的尺寸,利用三角函数(如,显示屏幕21的尺寸与用户的头部与显示屏幕21的距离的比值等)就可以确定用户通过信息处理设备2的显示屏幕21看到的景物(如,建筑,景观等)的可视范围(即,视角)。
在确定了用户通过信息处理设备2的显示屏幕21看到的景物(如,建筑,景观等)的可视范围(即,视角)之后,对象确定模块223可以基于预定的条件确定在可视范围内的至少一个对象。例如,该预定条件可以是距离信息处理设备2一公里以内的对象,或者在可视范围内的特定类型的对象(如,建筑)等等。这里,对象确定模块223可以通过在信息处理设备2的存储设备(未示出)中存储的地图数据或与信息处理设备2连接的地图服务器中存储的地图数据中搜索具有预定条件(如,距离、对象类型等)的对象来实现该确定处理。
在对象确定模块223基于预定的条件确定在可视范围内的至少一个对象之后。附加信息获取单元23可以从信息处理设备2的存储设备(未示出)中存储的地图数据或与信息处理设备2连接的地图服务器中存储的地图数据中获取与所确定的对象对应的附加信息(如,建筑名称、建筑内的商店等)。
在附加信息获取单元23获得了与对象对应的附加信息之后,对象位置获取模块241获取对象的位置。在这种情况下,附加信息位置确定单元24基于所确定的可视范围以及与对象的位置来确定附加信息在显示屏幕21上的显示位置。
具体地,在对象位置获取模块241利用GPS模块获得对象的位置的情况下,对象位置获取模块241可以通过地图数据获得对象的坐标数据(如,经纬度数据、海拔数据等)。此外,由于用户的坐标数据与信息处理设备2的坐标数据几乎相同,因此对象位置获取模块241还可以通过对象的坐标数据以及信息处理设备2(用户)的坐标数据的差值来获得对象与信息处理设备2(用户)的距离。此外,对象位置获取模块241还通过对象的坐标数据(如,经纬度数据)、信息处理设备2的坐标数据获得从信息处理设备2(用户)到该对象的连线的方向,并且通过所获得的连线方向与信息处理设备2的朝向数据获得该对象与信息处理设备2的朝向之间的夹角。
此外,对象位置获取模块241还可以利用三维(3D)摄像模块获得对象与信息处理设备2(用户)的距离以及对象与信息处理设备2的朝向的夹角,并且基于信息处理设备2的坐标、对象与信息处理设备2(用户)的距离以及对象与信息处理设备2的朝向的夹角来获得对象的位置(如,经纬度和海拔数据)。由于利用3D摄像模块获得对象与信息处理设备2(用户)的距离以及对象与信息处理设备2的朝向的夹角的内容对于本领域技术人员来说是熟知的,因此这里省略了其详细描述。此外,还可以参见http://www.gesturetek.com/3ddepth/introduction.php以及http://en.wikipedia.org/wiki/Range-imaging来获得有关3D摄像技术的描述。
另外,对象位置获取模块241还可以利用距离传感器来确定对象与信息处理设备2(用户)的距离以及对象与信息处理设备2的朝向的夹角。例如,距离传感器可以是具有多方向发射器的红外发射装置或超声波发射装置。距离传感器可以通过在每个方向上发射和返回的信号之间的时间差、所发射的信号(如,红外或超声波)的速度以及该方向来确定对象与信息处理设备2(用户)的距离以及对象与信息处理设备2的朝向的夹角。此外,对象位置获取模块241还可以基于信息处理设备2的坐标、对象与信息处理设备2(用户)的距离以及对象与信息处理设备2的朝向的夹角来获得对象的位置(如,经纬度和海拔数据)。由于上述内容对于本领域技术人员来说是公知的,因此这里省略了其详细描述。
在确定了对象与信息处理设备2(用户)的距离以及对象与信息处理设备2的朝向的夹角之后,附加信息位置确定单元24可以利用上述信息计算该对象到信息处理设备2的显示屏幕21所在的平面的投影距离。在确定了对象到信息处理设备2的显示屏幕21所在的平面的投影距离之后,附加信息位置确定单元24利用信息处理设备2的当前位置、朝向、对象到信息处理设备2(显示屏幕21)的投影距离以及之前获得的可视范围(视角)等数据构建一虚拟平面。由于通过对象到信息处理设备2(显示屏幕21)的投影距离构建虚拟平面,并且如上所述,对象为在可视范围之内确定的对象,因此该对象的位置在附加信息位置确定单元24构建的虚拟平面之内。这里,需要说明的是,该虚拟平面表示在对象到信息处理设备2的投影距离上,用户可以通过显示屏幕21看到的景物的最大范围。这里,由于信息处理设备2的当前位置、朝向、对象到信息处理设备2(显示屏幕21)的投影距离以及可视范围都是已知的,因此附加信息位置确定单元24可以利用三角函数,基于上述信息计算出该虚拟平面的四个顶点的坐标(如,经纬度和海拔信息等)以及该虚拟平面的边长等参数。
在构建了该虚拟平面之后,附加信息位置确定单元24确定对象在针对该对象构建的虚拟平面中的位置。例如,可以通过对象到虚拟平面的四个顶点的距离来确定该对象在虚拟平面中的位置。此外,还可以通过对象到虚拟平面的四个边的距离来确定对象在虚拟平面中的位置。
在确定了对象在虚拟平面中的位置之后,附加信息位置确定单元24可以确定附加信息在显示屏幕21上的显示位置。例如,附加信息位置确定单元24可以基于对象到虚拟平面的四个顶点的距离与虚拟平面的边长的比值、或者对象到虚拟平面的四个边的距离与边长的比值来设置附加信息的显示位置。此外,如果在用户的可视范围内存在多个对象,则附加信息位置确定单元24重复上述处理,直到确定所有对象的附加信息的位置为止。
然后,显示处理单元25基于附加信息位置确定单元24确定的附加信息的显示位置,在显示屏幕21上与对象对应的位置上显示该对象的附加信息。
以上述方式设置附加信息的显示位置,使得在显示屏幕21上显示的与对象对应的附加信息与透过显示屏幕21的该对象的位置重叠,因此用户可以直观地看到附加信息是哪一个对象的附加信息。
通过上述配置,由于用户可以通过该显示屏幕21看到真实环境的景物,因此在用户观看到高分辨率的真实景物的同时,还能减少信息处理设备2的耗电量以增强信息处理设备的续航能力。此外,信息处理设备2还可以确定用户透过显示屏幕21所能看到的真实景物的范围以及该范围内的对象,获得与对象对应的附加信息,并且在显示屏幕上与对象对应的显示位置上显示该附加信息。因此,在用户透过显示屏幕看到真实景物的同时,将附加信息叠加在显示屏幕上与对象对应的显示位置上,从而实现了增强现实的效果。
在上面描述了根据本发明实施例的信息处理设备2,然而,本发明不限于此,由于用户不总是以固定的方式握持信息处理设备2,并且用户的头部不一定对应于显示屏幕21的中央部分,因此,附加信息的显示位置可能不够准确。在图3中示出了由于用户头部的位置不同而导致的需要叠加的附加信息的显示位置的变化。在这种情况下,根据本发明的另一个实施例,信息处理设备2还可以包括设置在信息处理设备2的另一侧(朝向用户一侧)的摄像模块,该摄像模块配置来获得关于用户头部相对于所述显示屏幕的相对位置的图像。
在摄像模块采集用户头部的图像之后,附加信息位置确定单元24可以对摄像模块采集的用户头部图像进行人脸识别来判断用户头部与显示屏幕21的相对位置。例如,由于用户的头部的瞳距和鼻长相对固定,因此可以通过在用户头部正对显示屏幕21并具有预定的距离(如,50cm)时采集的头部图像中的瞳距和鼻长得到一个三角形并获得该三角形的大小。当用户头部偏离显示屏幕21的中央区域时,由瞳距和鼻长组成的三角形发生形变且大小发生变化。这时,通过计算三角形的透视关系和大小可以得到用户头部与显示屏幕21之间的相对位置。这里,相对位置包括用户头部与显示屏幕21之间的投影距离以及相对位置关系(如,用户头部在显示屏幕21上的投影从中心区域偏左5cm等等)。由于上述人脸识别技术对于本领域技术人员来说是熟知的,因此这里省略了其具体计算过程的详细描述。此外,只要能够获得户头部与显示屏幕21之间的投影距离以及相对位置关系,还可以采用其它的公知人脸识别技术。
在获得户头部与显示屏幕21之间的距离以及相对位置关系之后,附加信息位置确定单元24校正对象确定单元22确定的用户通过显示屏幕可以看到的景物的可视范围。例如,根据本发明的一个实施例,通过所获得的用户头部与显示屏幕21之间的投影距离以及相对位置关系,附加信息位置确定单元24可以很容易获得用户头部到显示屏幕21的四条边或四个顶点的长度,并且例如可以通过投影距离与所获得的长度之间的比值获得用户可通过显示屏幕21看到的景物的角度(视角),从而能够基于用户头部与所述显示屏幕的相对位置重新确定用户能够通过显示屏幕21看到的景物的可视范围。此外,附加信息位置确定单元24将修正的可视范围发送到对象确定单元22以使其确定在可视范围内的对象。
然后,与针对图2进行的描述类似,在对象确定单元22确定了用户的可视范围内的对象之后,附加信息获取单元23从信息处理设备2的存储设备(未示出)中存储的地图数据或与信息处理设备2连接的地图服务器中存储的地图数据中获取与所确定的对象对应的附加信息。然后,附加信息位置确定单元24的对象位置获取模块241获取对象的位置。在这种情况下,附加信息位置确定单元24基于重新确定的可视范围以及与对象的位置来确定(校正)附加信息在显示屏幕21上的显示位置。这里,由于附加信息位置确定单元24基于重新确定的可视范围以及与对象的位置来确定(校正)附加信息在显示屏幕21上的显示位置的过程与针对图2进行的描述类似,因此,为了使说明书更加简明,这里省略了关于该过程的重复描述。
通过上述配置,根据本发明实施例的信息处理设备可以根据用户相对于显示屏幕21的相对位置判断用户通过显示屏幕21的可视范围,并且对可视范围进行适应性调整,并且基于用户相对于显示屏幕21的相对位置调整对象的附加信息的显示位置,从而可以在更精确的显示位置上显示与对象对应的附加信息,从而提高了用户的使用体验感受。
在上面描述了根据本发明的各个实施例,然而,本发明不限于此,图1或图2所示的信息处理设备还可以包括姿态确定单元。姿态确定单元用于获得与所述信息处理设备的姿态对应的数据,并且可以由三轴加速度计实现。
根据本实施例,附加信息位置确定单元可以基于与信息处理设备的姿态对应的数据确定信息处理设备(即,显示屏幕)的姿态,并且该确定过程为本领域技术人员的公知内容(省略其详细描述)。在获得信息处理设备的姿态之后,附加信息位置确定单元可以基于信息处理设备的姿态校正所述附加信息在显示屏幕上的显示位置。例如,在用户手持信息处理设备向上观看景物时,附加信息位置确定单元可以基于姿态确定单元获得的姿态数据确定信息处理设备的姿态(如,信息处理设备具有15度仰角)。在这种情况下,由于信息处理设备具有仰角,因此用户通过显示屏幕21看到的对象的位置与用户通过显示屏幕21平视时的对象的位置要低,因此附加信息位置确定单元可以将所确定的显示位置下移一定的距离。此外,当信息处理设备具有俯角时,附加信息位置确定单元可以将所确定的显示位置上移一定的距离。附加信息位置确定单元将显示位置上移/下移的程度与信息处理设备的姿态对应,并且可以通过实验或测试获得相关数据。
此外,根据本发明的另一个实施例,信息处理设备还可以包括设置在显示屏幕上的触摸传感器,并且附加信息以光标形式呈现。在这种情况下,在显示屏幕21上与对象对应的显示位置上显示光标,并且到用户触摸光标时,信息处理设备基于用户的触摸将与该对象对应的附加信息显示在与对象对应的显示位置上。
接下来,将描述根据本发明实施例的信息处理方法,该信息处理方法应用于根据本发明实施例的信息处理设备。图4是图解根据本发明实施例的信息处理方法的流程图。
如图4所示,在步骤S401,确定所述信息处理设备一侧的至少一个对象。
具体地,根据本发明的一个实施例,与针对图1的描述类似,对象确定单元12的摄像模块121采集信息处理设备1一侧(即,朝向对象的那一侧)的对象。
此外,根据本发明的另一个实施例,与针对图2的描述类似,对象确定单元22的定位模块221获得信息处理设备2的当前位置数据。方向检测模块222获得信息处理设备2的朝向数据。对象确定模块223基于信息处理设备2的当前位置数据、朝向数据以确定信息处理设备2(用户)在哪里,向哪个方向进行观看。此外,在确定了信息处理设备2的位置和朝向之后,基于用户的头部与显示屏幕21的距离以及显示屏幕21的尺寸,利用三角函数确定用户通过信息处理设备2的显示屏幕21看到的景物(如,建筑,景观等)的可视范围(即,视角)。然后,对象确定模块223基于预定的条件确定在可视范围内的至少一个对象。这里,例如,该预定条件可以是距离信息处理设备2一公里以内的对象,或者在可视范围内的特定类型的对象(如,建筑)等等。
在步骤S402,获取与至少一个对象对应的附加信息。
具体地,根据本发明的一个实施例,与针对图1的描述类似,附加信息获取单元13对摄像模块121拍摄的图像中的对象进行图像识别来判断对象,并且产生与该对象的类别有关的附加信息。此外,附加信息获取单元13还可以对具有电子标签的对象(如,鼠标等)进行识别来判断对象,并且产生与对象对应的附加信息。
此外,根据本发明的另一个实施例,与针对图2的描述类似,附加信息获取单元23基于对象确定单元22确定的对象,从信息处理设备2的存储设备(未示出)中存储的地图数据或与信息处理设备2连接的地图服务器中存储的地图数据中获取与所确定的对象对应的附加信息。
在步骤S403,确定所述附加信息在所述显示屏幕上的显示位置。
具体地,根据本发明的一个实施例,与针对图1的描述类似,附加信息位置确定单元14基于摄像模块121拍摄的图像中的对象位置确定与对象对应的附加信息在显示屏幕11上的显示位置。例如,可以通过合适地设置摄像模块121的焦距,使得摄像模块121采集的图像与用户通过显示屏幕11看到的真实景物的范围(视角)基本一致,也就是摄像模块121采集的图像与用户通过显示屏幕11看到的真实景物基本相同。在这种情况下,附加信息位置确定单元14可以基于摄像模块121采集的图像中的对象的位置来确定与对象对应的附加信息的显示位置。此外,附加信息位置确定单元14还可以在基于摄像模块121与显示屏幕11的位置关系校正附加信息的显示位置。
此外,根据本发明的另一个实施例,与针对图2的描述类似,附加信息位置确定单元24确定对象与信息处理设备2(用户)的距离以及对象与信息处理设备2的朝向的夹角。在确定了对象与信息处理设备2(用户)的距离以及对象与信息处理设备2的朝向的夹角之后,附加信息位置确定单元24利用上述信息计算该对象到信息处理设备2的显示屏幕21所在的平面的投影距离。然后,附加信息位置确定单元24利用信息处理设备2的当前位置、朝向、对象到信息处理设备2(显示屏幕21)的投影距离以及之前获得的可视范围(视角)等数据构建虚拟平面(该对象的位置在所构建的虚拟平面内)。由于通过对象到信息处理设备2(显示屏幕21)的投影距离构建虚拟平面,并且如上所述,对象为在可视范围之内确定的对象,因此该对象的位置在附加信息位置确定单元24构建的虚拟平面之内。在构建了该虚拟平面之后,附加信息位置确定单元24确定对象在针对该对象构建的虚拟平面中的位置。例如,可以通过对象到虚拟平面的四个顶点的距离来确定该对象在虚拟平面中的位置。此外,还可以通过对象到虚拟平面的四个边的距离来确定对象在虚拟平面中的位置。然后,附加信息位置确定单元24基于对象在虚拟平面中的位置确定与对象对应的附加信息在显示屏幕21上的显示位置。
在步骤S404,基于显示位置在显示屏幕上显示与对象对应的附加信息。
具体地,根据本发明的一个实施例,与针对图1的描述类似,显示处理单元15基于附加信息位置确定单元14确定的显示位置在显示屏幕11上显示与对象对应的附加信息。
此外,根据本发明的另一个实施例,与针对图2的描述类似,显示处理单元25基于附加信息位置确定单元24确定的附加信息的显示位置,在显示屏幕21上与对象对应的位置上显示该对象的附加信息。
在上面描述了根据本发明实施例的信息处理方法,然而,本发明不限于此。例如,根据本发明的另一个实施例,图4所示的信息处理是方法还可以包括步骤:获得与用户头部相对于显示屏幕的相对位置对应的数据,并且基于用户头部与所述显示屏幕的相对位置校正所述附加信息在所述显示屏幕上的显示位置。
具体地,与之前的描述类似,通过在朝向用户一侧设置摄像模块来采集用户头部的图像数据。附加信息位置确定单元24通过对所采集的用户头部图像进行人脸识别来判断用户头部与显示屏幕21的相对位置。然后,附加信息位置确定单元24基于用户头部与显示屏幕21的相对位置,校正对象确定单元22确定的用户通过显示屏幕可以看到的景物的可视范围。在对象确定单元22基于校正的对象范围(可视范围)确定了用户的可视范围内的对象之后,附加信息获取单元23获取与所确定的对象对应的附加信息。然后,附加信息位置确定单元24获取对象的位置,并且基于重新确定的可视范围以及与对象的位置来确定(校正)附加信息在显示屏幕21上的显示位置。
此外,根据本发明的另一个实施例,图4所示的信息处理方法还可以包括步骤:获得与信息处理设备的姿态对应的数据,并且基于与信息处理设备的姿态对应的数据校正附加信息在显示屏幕显示位置。
具体地,姿态确定单元获得与所述信息处理设备的姿态对应的数据。附加信息位置确定单元基于与信息处理设备的姿态对应的数据确定信息处理设备(即,显示屏幕)的姿态。然后,附加信息位置确定单元基于信息处理设备的姿态校正所述附加信息在显示屏幕上的显示位置。例如,在用户手持信息处理设备向上观看景物时,附加信息位置确定单元可以基于姿态确定单元获得的姿态数据确定信息处理设备的姿态(如,信息处理设备具有15度仰角)。在这种情况下,由于信息处理设备具有仰角,因此用户通过显示屏幕21看到的对象的位置与用户通过显示屏幕21平视时的对象的位置要低,因此附加信息位置确定单元可以将所确定的显示位置下移一定的距离。此外,当信息处理设备具有俯角时,附加信息位置确定单元可以将所确定的显示位置上移一定的距离。附加信息位置确定单元将显示位置上移/下移的程度与信息处理设备的姿态对应,并且可以通过实验或测试获得相关数据。
在上面以顺序方式描述了图4所示的信息处理方法,然而,本发明不限于此,只要能够得到所期望的结果,可以以与上述描述顺序不同的顺序(如,交换其中一些步骤的顺序)执行上述处理。此外,还可以以并行的方式执行其中的一些步骤。
在上面已经描述了本发明的多个实施例,然而,需要注意的是,本发明的实施例可以采用整体硬件实施、整体软件实施或包含硬件和软件组合的方式实现。在一些实施例中,可以由任意的中央处理器、微处理器或DSP等基于预定的程序或软件实现上述各个实施例中的功能组件,所述预定的程序或软件包含(但不限于)固件、内置软件、微码等。例如,对象确定单元、附加信息获取单元、附加信息位置确定单元以及显示处理单元的数据处理功能可以由任意的中央处理器、微处理器或DSP等基于预定的程序或软件实现。此外,本发明采用可以由计算机或任何命令执行系统使用来执行根据本发明实施例的处理方法的计算机程序产品的形式,所述计算机程序产品存储在计算机可读介质中。计算机可读介质的实例包括半导体或固态存储器、磁带、可卸载计算机磁盘、随机存取存储器(RAM)、只读存储器(ROM)、硬盘和光盘等。
如上所述,已经在上面具体地描述了本发明的各个实施例,但是本发明不限于此。本领域的技术人员应该理解,可以根据设计要求或其它因素进行各种修改、组合、子组合或者替换,而它们在所附权利要求及其等效物的范围内。

Claims (13)

1.一种信息处理设备,包括:
具有预定透光率的显示单元;
对象确定单元,配置来确定所述信息处理设备一侧的至少一个对象;
附加信息获取单元,配置来获取与所述至少一个对象对应的附加信息;
附加信息位置确定单元,配置来确定所述附加信息在所述显示单元上的显示位置;以及
显示处理单元,配置来基于所述显示位置在所述显示单元上显示所述附加信息。
2.如权利要求1所述的信息处理设备,其中
所述对象确定单元包括第一图像采集模块,配置来采集包括所述至少一个对象的第一图像;以及
所述附加信息位置确定单元,基于所述第一图像中的所述至少一个对象的位置确定所述附加信息在所述显示单元上的显示位置。
3.如权利要求2所述的信息处理设备,其中
所述附加信息获取单元进一步包括图像识别单元以及电子标签识别单元中的至少一种,其中
所述图像识别单元配置来对第一图像中的所述至少一个对象进行图像识别以产生与所述至少一个对象的类别有关的附加信息;以及
所述电子标签识别单元配置来对具有电子标签的所述对象进行识别以产生与所述电子标签对应的附加信息。
4.如权利要求1所述的信息处理设备,其中
所述对象确定单元包括:
定位模块,配置来获得所述信息处理设备的当前位置数据;
方向检测模块,配置来获得所述信息处理设备的朝向数据;以及
对象确定模块,配置来基于所述当前位置数据、所述朝向数据确定包括所述至少一个对象的对象范围,并且确定在所述对象范围内的满足预定条件的所述至少一个对象,以及
所述附加信息位置确定单元进一步包括:
对象位置获取模块,配置来获得与所述至少一个对象对应的位置数据,
其中所述附加信息位置确定单元基于所述对象范围以及与所述至少一个对象对应的位置数据来确定所述附加信息在所述显示单元上的显示位置。
5.如权利要求4所述的信息处理设备,其中
所述对象位置获取模块包括三维图像采集模块、距离获得模块以及地理位置信息获取模块中的至少一种。
6.如权利要求1所述的信息处理设备,进一步包括:
设置在所述信息处理设备另一侧的第二图像采集模块,配置来获得用户头部相对于所述显示单元的相对位置图像,
其中所述附加信息位置确定单元基于用户头部与所述显示单元的相对位置校正所述附加信息在所述显示单元上的显示位置。
7.如权利要求4所述的信息处理设备,进一步包括:
姿态确定单元,配置来获得与所述信息处理设备的姿态对应的数据,
其中所述附加信息位置确定单元基于与所述信息处理设备的姿态对应的数据确定所述信息处理设备的姿态,并且基于所述姿态数据校正所述附加信息在显示单元上的显示位置。
8.一种应用于信息处理设备的信息处理方法,所述信息处理设备包括具有预定透光率的显示单元,所述信息处理方法包括:
确定所述信息处理设备一侧的至少一个对象;
获取与所述至少一个对象对应的附加信息;
确定所述附加信息在所述显示单元上的显示位置;
基于所述显示位置在所述显示单元上显示所述附加信息。
9.如权利要求8所述的信息处理方法,其中
确定所述至少一个对象的步骤进一步包括:
通过采集所述至少一个对象的第一图像来确定所述至少一个对象;以及
确定所述附加信息的显示位置的步骤进一步包括:
基于所述第一图像中的所述至少一个对象的位置确定所述附加信息在所述显示单元上的显示位置。
10.如权利要求9所述的信息处理方法,其中
通过识别图像或者识别所述至少一个对象上的电子标签来判断对象,并且获取与所述至少一个对象对应的附加信息。
11.如权利要求8所述的信息处理方法,其中
确定所述至少一个对象的步骤进一步包括:
获得所述信息处理设备的当前位置数据;
获得所述信息处理设备的朝向数据;以及
基于所述当前位置数据、所述朝向数据确定所述至少一个对象的对象范围,并且确定在所述对象范围内满足预定条件的所述至少一个对象,以及
确定所述附加信息的显示位置的步骤进一步包括:
获得与所述至少一个对象对应的位置数据,以及
基于所述对象范围以及与所述至少一个对象对应的位置数据来确定所述附加信息在所述显示单元上的显示位置。
12.如权利要求8所述的信息处理方法,进一步包括:
获得与用户头部相对于所述显示单元的相对位置对应的数据,以及
基于用户头部与所述显示单元的相对位置校正所述附加信息在所述显示单元上的显示位置。
13.如权利要求11所述的信息处理方法,进一步包括:
获得与所述信息处理设备的姿态对应的数据,以及
基于与所述信息处理设备的姿态对应的数据校正所述附加信息在显示单元上的显示位置。
CN201010501978.8A 2010-09-30 2010-09-30 信息处理设备以及信息处理方法 Active CN102446048B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201010501978.8A CN102446048B (zh) 2010-09-30 2010-09-30 信息处理设备以及信息处理方法
US13/824,846 US20130176337A1 (en) 2010-09-30 2011-09-26 Device and Method For Information Processing
PCT/CN2011/080181 WO2012041208A1 (zh) 2010-09-30 2011-09-26 信息处理设备以及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010501978.8A CN102446048B (zh) 2010-09-30 2010-09-30 信息处理设备以及信息处理方法

Publications (2)

Publication Number Publication Date
CN102446048A true CN102446048A (zh) 2012-05-09
CN102446048B CN102446048B (zh) 2014-04-02

Family

ID=45891948

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010501978.8A Active CN102446048B (zh) 2010-09-30 2010-09-30 信息处理设备以及信息处理方法

Country Status (3)

Country Link
US (1) US20130176337A1 (zh)
CN (1) CN102446048B (zh)
WO (1) WO2012041208A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104748739A (zh) * 2013-12-29 2015-07-01 刘进 一种智能机增强现实实现方法
CN104750969A (zh) * 2013-12-29 2015-07-01 刘进 智能机全方位增强现实信息叠加方法
CN105103086A (zh) * 2013-04-12 2015-11-25 西门子公司 具有自动校准的手势控制
CN105408851A (zh) * 2013-07-31 2016-03-16 索尼公司 信息处理设备,信息处理方法和程序
CN105739677A (zh) * 2014-12-31 2016-07-06 拓迈科技股份有限公司 数据显示方法及系统
CN106982367A (zh) * 2017-03-31 2017-07-25 联想(北京)有限公司 视频传输方法及其装置
CN107625533A (zh) * 2016-07-19 2018-01-26 东芝医疗系统株式会社 医用处理装置以及医用处理方法
CN109582134A (zh) * 2018-11-09 2019-04-05 北京小米移动软件有限公司 信息显示的方法、装置及显示设备
CN111290681A (zh) * 2018-12-06 2020-06-16 福建省天奕网络科技有限公司 一种解决屏幕穿透事件的方法及终端

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102051656B1 (ko) * 2013-01-22 2019-12-03 삼성전자주식회사 투명 디스플레이 장치 및 그 디스플레이 방법
US9664519B2 (en) * 2013-07-18 2017-05-30 Wen-Sung Lee Positioning system and method thereof for an object at home
CN104065859B (zh) * 2014-06-12 2017-06-06 青岛海信电器股份有限公司 一种全景深图像的获取方法及摄像装置
JP6432197B2 (ja) * 2014-07-31 2018-12-05 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
CN107229706A (zh) * 2017-05-25 2017-10-03 广州市动景计算机科技有限公司 一种基于增强现实的信息获取方法及其装置
CN111798556B (zh) * 2020-06-18 2023-10-13 完美世界(北京)软件科技发展有限公司 图像渲染方法、装置、设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040080467A1 (en) * 2002-10-28 2004-04-29 University Of Washington Virtual image registration in augmented display field
CN1662934A (zh) * 2002-06-20 2005-08-31 韦斯特尤尼蒂斯株式会社 操作引导系统
CN1746822A (zh) * 2004-09-07 2006-03-15 佳能株式会社 用于呈现与虚拟图像合成的图像的信息处理装置及方法
CN1906564A (zh) * 2004-01-23 2007-01-31 美国联合包裹服务公司 物品跟踪和处理系统和方法
EP1980999A1 (en) * 2007-04-10 2008-10-15 Nederlandse Organisatie voor Toegepast-Natuuurwetenschappelijk Onderzoek TNO An augmented reality image system, a method and a computer program product

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007129420A1 (ja) * 2006-04-24 2007-11-15 Sharp Kabushiki Kaisha 表示装置
KR100809479B1 (ko) * 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
US20110084983A1 (en) * 2009-09-29 2011-04-14 Wavelength & Resonance LLC Systems and Methods for Interaction With a Virtual Environment
US20120019557A1 (en) * 2010-07-22 2012-01-26 Sony Ericsson Mobile Communications Ab Displaying augmented reality information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1662934A (zh) * 2002-06-20 2005-08-31 韦斯特尤尼蒂斯株式会社 操作引导系统
US20040080467A1 (en) * 2002-10-28 2004-04-29 University Of Washington Virtual image registration in augmented display field
CN1906564A (zh) * 2004-01-23 2007-01-31 美国联合包裹服务公司 物品跟踪和处理系统和方法
CN1746822A (zh) * 2004-09-07 2006-03-15 佳能株式会社 用于呈现与虚拟图像合成的图像的信息处理装置及方法
EP1980999A1 (en) * 2007-04-10 2008-10-15 Nederlandse Organisatie voor Toegepast-Natuuurwetenschappelijk Onderzoek TNO An augmented reality image system, a method and a computer program product

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
朱淼良 等: "增强现实综述", 《中国图象图形学报》 *
杜清运 等: "户外增强现实地理信息系统原型设计与实现", 《武汉大学学报 信息科学版》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9880670B2 (en) 2013-04-12 2018-01-30 Siemens Aktiengesellschaft Gesture control having automated calibration
CN105103086A (zh) * 2013-04-12 2015-11-25 西门子公司 具有自动校准的手势控制
CN105103086B (zh) * 2013-04-12 2018-02-16 西门子公司 具有自动校准的手势控制
CN105408851A (zh) * 2013-07-31 2016-03-16 索尼公司 信息处理设备,信息处理方法和程序
CN104750969A (zh) * 2013-12-29 2015-07-01 刘进 智能机全方位增强现实信息叠加方法
CN104748739B (zh) * 2013-12-29 2017-11-03 刘进 一种智能机增强现实实现方法
CN104750969B (zh) * 2013-12-29 2018-01-26 刘进 智能机全方位增强现实信息叠加方法
CN104748739A (zh) * 2013-12-29 2015-07-01 刘进 一种智能机增强现实实现方法
CN105739677A (zh) * 2014-12-31 2016-07-06 拓迈科技股份有限公司 数据显示方法及系统
CN107625533A (zh) * 2016-07-19 2018-01-26 东芝医疗系统株式会社 医用处理装置以及医用处理方法
CN106982367A (zh) * 2017-03-31 2017-07-25 联想(北京)有限公司 视频传输方法及其装置
CN109582134A (zh) * 2018-11-09 2019-04-05 北京小米移动软件有限公司 信息显示的方法、装置及显示设备
US10931926B2 (en) 2018-11-09 2021-02-23 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for information display, and display device
CN109582134B (zh) * 2018-11-09 2021-07-23 北京小米移动软件有限公司 信息显示的方法、装置及显示设备
CN111290681A (zh) * 2018-12-06 2020-06-16 福建省天奕网络科技有限公司 一种解决屏幕穿透事件的方法及终端
CN111290681B (zh) * 2018-12-06 2021-06-08 福建省天奕网络科技有限公司 一种解决屏幕穿透事件的方法及终端

Also Published As

Publication number Publication date
WO2012041208A1 (zh) 2012-04-05
US20130176337A1 (en) 2013-07-11
CN102446048B (zh) 2014-04-02

Similar Documents

Publication Publication Date Title
CN102446048B (zh) 信息处理设备以及信息处理方法
EP3338136B1 (en) Augmented reality in vehicle platforms
EP3149698B1 (en) Method and system for image georegistration
JP7236565B2 (ja) 位置姿勢決定方法、装置、電子機器、記憶媒体及びコンピュータプログラム
US9161027B2 (en) Method and apparatus for providing camera calibration
US20120026088A1 (en) Handheld device with projected user interface and interactive image
US9583074B2 (en) Optimization of label placements in street level images
KR100964951B1 (ko) 모의 훈련을 위한 증강 현실 장치 및 가상 이미지 합성 방법
JP2007080060A (ja) 対象物特定装置
US9467620B2 (en) Synthetic camera lenses
Gomez-Jauregui et al. Quantitative evaluation of overlaying discrepancies in mobile augmented reality applications for AEC/FM
CN107977082A (zh) 一种用于呈现ar信息的方法及系统
CN103517061A (zh) 一种终端设备的显示控制方法及装置
KR100679864B1 (ko) 지역정보의 표시가 가능한 이동통신 단말기 및 그 지역정보표시방법
US10388069B2 (en) Methods and systems for light field augmented reality/virtual reality on mobile devices
CN108629842B (zh) 一种无人驾驶设备运动信息提供及运动控制方法与设备
US10559131B2 (en) Mediated reality
TWI792106B (zh) 資訊顯示方法及其處理裝置與顯示系統
CN112887793B (zh) 视频处理方法、显示设备和存储介质
US20130155211A1 (en) Interactive system and interactive device thereof
CN109698903A (zh) 图像获取方法及图像获取装置
JP6208977B2 (ja) 情報処理装置、通信端末およびデータ取得方法
US10878278B1 (en) Geo-localization based on remotely sensed visual features
Yan et al. Development and experimental evaluation of an automatic marker registration system for tracking of augmented reality
Mower Creating and delivering augmented scenes

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant