CN102792339B - 信息处理装置、信息处理方法 - Google Patents
信息处理装置、信息处理方法 Download PDFInfo
- Publication number
- CN102792339B CN102792339B CN201180013005.2A CN201180013005A CN102792339B CN 102792339 B CN102792339 B CN 102792339B CN 201180013005 A CN201180013005 A CN 201180013005A CN 102792339 B CN102792339 B CN 102792339B
- Authority
- CN
- China
- Prior art keywords
- messaging device
- coordinate
- information
- space
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 8
- 238000003672 processing method Methods 0.000 title claims description 7
- 230000003750 conditioning effect Effects 0.000 title description 71
- 238000000034 method Methods 0.000 claims description 37
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 10
- 238000010606 normalization Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 230000005055 memory storage Effects 0.000 description 6
- 230000005484 gravity Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 241000209094 Oryza Species 0.000 description 3
- 235000007164 Oryza sativa Nutrition 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 235000009566 rice Nutrition 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 240000001439 Opuntia Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000007799 cork Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种信息处理设备,其获取与信息处理设备相对应的第一姿势信息和与信息处理设备相对应的第一距离坐标、以及与另一信息处理设备相对应的第二姿势信息和与该另一信息处理设备相对应的第二距离坐标。该信息处理设备然后基于第一姿势信息和第二姿势信息以及第一距离坐标和第二距离坐标来计算虚拟空间中对象的位置。
Description
技术领域
本公开涉及信息处理装置、信息处理方法以及程序,尤其涉及用于与其他装置共享增强现实空间(augmentedrealityspace)的信息处理装置、信息处理方法以及程序。
背景技术
最近,作为增强现实技术(在下文中,称为AR技术)的示例,虚拟数字信息(虚拟对象)被显示成叠加在真实空间信息(例如真实空间图像)上。此外,虚拟对象在多个装置之间共享,使得虚拟对象被优选地视为真实空间中的对象。
为了将虚拟数字信息叠加在真实空间信息上,需要通过分析三维空间结构来识别虚拟空间。例如,在专利文献1中,公开了一种技术,在该技术中,多个用户共享虚拟空间以允许用户的真实空间中的每个空间中的位置与虚拟空间中的位置彼此对应,以便用户在虚拟空间中识别并且接触彼此。
引用文献列表
专利文献
PTL1:日本专利申请公开No.2002-149581
发明内容
根据第一实施例,本公开涉及一种信息处理设备,包括:处理器,被配置成获取与信息处理设备相对应的第一姿势(posture)信息、与信息处理设备相对应的第一距离坐标、与另一信息处理设备相对应的第二姿势信息、以及与另一信息处理设备相对应的第二距离坐标,其中,处理器被配置成基于第一姿势信息和第二姿势信息以及第一距离坐标和第二距离坐标来计算虚拟空间中对象的位置。
该信息处理设备可以还包括被配置成通过检测信息处理设备的方向来检测第一姿势信息的检测器。
该信息处理设备可以还包括被配置成从另一信息处理设备获取第二姿势信息的接口。
该信息处理设备可以还包括被配置成获取与另一信息处理设备相对应的图像的图像捕获装置,其中,处理器被配置成基于所获取的图像来获取第二姿势信息。
该信息处理设备可以还包括被配置成计算该信息处理设备与另一信息处理设备之间的距离的检测器。
该检测器可以被配置成计算虚拟空间中信息处理设备与另一信息处理设备之间的距离。
该检测器可以被配置成计算真实空间中信息处理设备与另一信息处理设备之间的距离。
处理器可以被配置成基于第一姿势信息和第二姿势信息来识别虚拟空间。
处理器可以被配置成基于第一距离坐标与第二距离坐标之间的差来计算归一化值。
该处理器可以被配置成确定虚拟空间中信息处理设备的坐标,并且基于归一化值将该坐标变换成另一信息处理设备的虚拟空间中的坐标。
该信息处理设备可以还包括被配置成将所变换的坐标发送到另一信息处理设备的接口。
该信息处理设备可以还包括被配置成从另一信息处理设备接收坐标的接口,其中,处理器被配置成基于归一化值将坐标变换到信息处理设备的虚拟空间中。
第一距离坐标可以对应于第一距离比例因子(scalingfactor)并且所述第二距离坐标可以对应于第二距离比例因子。
处理器可以被配置成基于第一距离比例因子和第二距离比例因子来计算归一化值。
处理器可以被配置成通过将第一距离比例因子除以第二距离比例因子来计算归一化值。
处理器可以被配置成指定在虚拟空间中信息处理设备的坐标,并且基于第一姿势信息和第二姿势信息以及归一化值来变换该坐标。
该信息处理设备可以还包括被配置成将经变换的坐标发送到另一信息处理设备的接口。
该信息处理设备可以还包括被配置成从另一信息处理设备接收坐标的接口。
该信息处理设备还可以包括显示器,其中,处理器被配置成基于经变换的坐标来控制该显示器显示对象。
根据另一实施例,本公开涉及一种由信息处理设备执行的信息处理方法,该方法包括:由信息处理设备获取与信息处理设备相对应的第一姿势信息、与信息处理设备相对应的第一距离坐标;由信息处理设备的接口获取与另一信息处理设备相对应的第二姿势信息、与该另一信息处理设备相对应的第二距离坐标;由信息处理设备的处理器基于第一姿势信息和第二姿势信息以及第一距离坐标和第二距离坐标来计算在虚拟空间中对象的位置。
根据另一实施例,本公开涉及一种包括计算机程序指令的非暂时性计算机可读介质,所述计算机程序指令当由信息处理设备执行时使该信息处理设备执行包括以下各项的方法:获取与信息处理设备相对应的第一姿势信息和与信息处理设备相对应的第一距离坐标;获取与另一信息处理设备相对应的第二姿势信息和与该另一信息处理设备相对应的第二距离坐标;基于第一姿势信息和第二姿势信息以及第一距离坐标和第二距离坐标来计算在虚拟空间中对象的位置。
[技术问题]
然而,在专利文献1中,尽管多个用户能够通过共享虚拟空间来识别彼此,但是难以在虚拟空间中布置虚拟对象以使虚拟对象被多个装置所共享。
因此,鉴于前述问题,本公开提供了能够允许对被叠加在通过分析真实空间所识别的虚拟空间上的虚拟对象的轻松共享的新颖的或改善的信息处理装置、信息处理方法以及程序。
[问题的解决方案]
如上文所描述的,根据本公开,能够轻松地共享被叠加在通过分析真实空间所识别的虚拟空间上的虚拟对象。
附图说明
图1是用于说明AR技术的图示。
图2是用于说明通过分析真实空间所识别的虚拟空间的图示。
图3是用于说明对布置在AR空间中的AR对象的共享的图示。
图4是示出根据本发明实施例的信息处理装置的硬件配置的方框图。
图5是示出了根据实施例的信息处理装置的功能配置的方框图。
图6是用于说明根据实施例的装置之间的坐标系的方向的一致性的图示。
图7A是用于说明根据实施例的坐标单位的图示。
图7B是用于说明根据实施例的空间坐标系的归一化的图示。
图8是用于说明根据实施例的空间坐标系的归一化的图示。
图9是示出了根据实施例的信息处理装置的操作的细节的流程图。
图10是示出了根据实施例的信息处理装置的操作的细节的流程图。
图11是示出了根据实施例的信息处理装置的操作的细节的流程图。
图12是示出了根据实施例的信息处理装置的操作的细节的修改的流程图。
图13是示出了根据实施例的信息处理装置的操作的细节的修改的流程图。
图14是示出了根据实施例的信息处理装置的操作的细节的修改的流程图。
具体实施方式
在下文中,将参照附图对本发明的优选实施例进行详细的描述。注意,在本说明书和附图中,具有基本上相同功能和结构的结构元素用相同的附图标记表示,并且省略对这些结构元素的重复说明。
此外,将按以下次序对“本发明的最佳实施方式”进行描述。
【1】实施例的目的
【2】信息处理装置的概述
【3】信息处理装置的硬件配置
【4】信息处理装置的功能配置
【5】信息处理装置的操作的细节
【6】信息处理装置的操作的细节的修改
【1】实施例的目的
首先描述实施例的目的。最近,作为增强现实技术(在下文中,称为AR技术)的示例,虚拟数字信息(虚拟对象)被显示成叠加在诸如真实空间图像的真实空间信息上。此外,虚拟对象在多个装置之间共享,使得虚拟对象被优选地视为真实空间中的对象。
为了将虚拟数字信息叠加在真实空间信息上,需要通过分析三维空间结构来识别虚拟空间。例如,公开了一种技术,在该技术中多个用户共享虚拟空间以允许用户的真实空间中的每个空间的位置和虚拟空间中的位置彼此对应,以便用户在虚拟空间中识别并且接触彼此。
然而,在前述技术中,尽管多个用户能够通过共享虚拟空间来识别彼此,但是难以在虚拟空间中布置虚拟对象使得多个装置共享虚拟对象。因此,鉴于前述问题,发明了根据实施例的信息处理装置10。根据信息处理装置10,能够容易地共享在通过分析真实空间所识别的虚拟空间上叠加的虚拟对象。
【2】信息处理装置的概述
在上文中,描述了实施例的目的。接下来,参照图1至3描述了根据实施例的信息处理装置10的概述。具有显示装置的信息处理终端(例如移动电话、个人数字助理(PDA)、便携游戏机、小尺寸个人计算机(PC)等)可以作为信息处理装置10的示例。在该信息处理装置10中,注册了将要叠加在真实空间图像上的虚拟对象。
图1是用于说明AR技术的图。图2是用于说明通过分析真实空间所识别的虚拟空间(AR空间)的图。图3是用于说明被布置在AR空间中的AR对象的共享的图。
在图1中,虚拟数字信息被叠加在真实世界中的真实世界图像301上。因此,能够在真实世界图像301上合成并且显示补充信息。真实世界图像301是由图像捕获装置等所捕获的真实空间中的图像。此外,虚拟数字信息302是通过分析真实空间获得的虚拟对象,并且被布置在真实空间中的任意位置处。
例如,在图1中,作为虚拟对象的球被叠加在显示屏幕上,显示屏幕上显示了在真实空间中做出投球动作的人。以这种方式,在信息处理装置10中,球的数字图像被合成到真实空间中的人的图像中,使得其可以被显示为该人看起来像确实地正在投球。
接下来,参照图2对通过分析真实空间识别的虚拟空间(AR空间)进行描述。图2示出了虚拟对象被布置在通过使用信息处理装置10识别的AR空间中的状态。AR空间是通过分析真实空间识别的虚拟空间的空间坐标系被叠加在真实空间的空间坐标系上的空间。这意味着,如果确定了AR空间中的真实空间坐标系中的位置,则AR空间中的坐标被唯一地确定。换句话说,在AR对象被布置在真实空间中的任意位置处的情况下,唯一地确定了在AR空间中AR对象被布置的位置。
根据实施例的信息处理装置10与不同的装置共享AR空间,使得布置在AR空间中的AR对象可以被共享。例如,如图3的示例性视图310中所示,AR球(作为布置在AR空间中的AR对象的示例)在接收人与发送人之间共享,使得AR球能够被视为如同真实空间中的球。更具体而言,通过接收人侧的装置识别的虚拟空间的空间坐标系和通过发送人侧的装置识别的虚拟空间的空间坐标系被允许彼此对应。接下来,虚拟对象被布置在由两个装置共享的空间坐标系中,使得能够共享虚拟空间中的虚拟对象的位置、姿势等的信息。
【3】信息处理装置的硬件配置
在上文中,描述了信息处理装置10的概述。接下来,参照图4对信息处理装置10的硬件配置进行描述。图4是示出了信息处理装置10的硬件配置的方框图。信息处理装置10包括中央处理单元(CPU)101、只读存储器(ROM)102、随机存取存储器(RAM)103、主机总线104、桥接器105、外部总线106、接口107、输入装置108、输出装置109、存储装置(HDD)110、驱动器111、通信装置112、图像捕获装置20以及各种传感器40。
CPU101充当计算处理装置和控制装置以根据各种程序来控制信息处理装置10的总体操作。此外,CPU101可以是微处理器。ROM102存储由CPU101使用的程序、计算参数等。RAM103临时地存储用于CPU101的执行的程序、在执行中适当地改变的参数等。这些部件经由使用CPU总线等构造的主机总线104彼此连接。
主机总线104通过桥接器105连接到诸如外设部件互连/接口(PCI)总线的外部总线106。此外,主机总线104不必被配置成与桥接器105和外部总线106分开。可以将这些总线的功能嵌入在一个总线中。
输入装置108使用例如用户通过其来输入信息的输入单元、基于用户的输入生成输入信号并且将该输入信号输出到CPU101的输入控制电路等来构造,所述输入单元诸如鼠标、键盘、触摸面板、按钮、麦克风、开关、杆(lever)等。信息处理装置10的用户能够输入各种类型的数据或者创建命令,以通过操纵输入装置108来执行关于信息处理装置10的处理操作。
输出装置109使用例如显示装置和诸如扬声器、头戴式耳机等等的声音输出单元来构造,所述显示装置诸如阴极射线管(CRT)显示装置、液晶显示(LCD)装置、有机发光显示(OLED)装置、灯等。输出装置109例如输出所再现的内容。更具体而言,显示装置将各种类型的信息(例如再现的图像数据)显示为文本或图像。另一方面,声音输出单元将再现的声音数据等等转换成声音并且输出该声音。稍后描述的显示装置30是输出装置109的示例。
存储装置110是用于存储数据的装置,其被配置为根据实施例的信息处理装置10的存储单元的示例。存储装置110可以包括存储介质、将数据记录在记录介质上的记录装置、从记录介质读取数据的读取设备、移除在存储介质中记录的数据的移除设备等等。存储装置110使用例如硬盘驱动器(HDD)来构造。存储装置110驱动硬盘来存储由CPU101执行的程序或各种数据。此外,在存储装置110中,存储了稍后描述的项目、标识号等等。
驱动器111是用于存储介质的读写器,其被内嵌或附连到信息处理装置10的外部部分。驱动器111读取在安装在其上的可移除记录介质24(诸如磁盘、光盘、光磁盘或半导体存储器)中记录的信息,并且将该信息输出到RAM103。
通信装置112是例如使用用于连接到通信网络50的通信装置等等来构造的通信接口。此外,通信装置112可以为与无线局域网(LAN)相对应的通信装置、与无线USB相对应的通信装置、通过有线线路执行通信的有线通信装置。
图像捕获装置20具有通过经由CCD将穿过拍照镜头的光变换成电信号并且将模拟信号转换成数字信号来捕获拍照物体的图像的功能。通过图像捕获装置20所捕获的图像被显示在显示装置上。各种传感器40是用于识别虚拟空间的传感器,并且例如,可以举例列举磁罗盘或加速度传感器。此外,作为各种传感器40的示例,可以举例列举能够检测重力方向的重力方向检测装置41。
【4】信息处理装置的功能配置
在上文中,描述了信息处理装置10的硬件配置。
接下来,参照图5对根据实施例的信息处理装置10的功能配置进行描述。此外,适当地参照图6和8对功能配置进行描述。图5是示出了根据实施例的信息处理装置10的功能配置的方框图。
如图5中所示,信息处理装置10包括检测器152、比较器154、生成器156、归一化器158、收发器160等等。
检测器152具有检测能够发送和接收预定信息的不同装置的功能。预定信息是不同装置的位置信息、姿势信息等等。检测器152检测不同装置的姿势信息并且向比较器154提供姿势信息。在本文中,相对于姿势信息,能够通过使用加速度传感器等等来检测装置的主机身的倾斜度或方向。此外,姿势信息可以通过每个装置的空间坐标系来表示。
此外,仅在根据用户的操纵来命令执行空间坐标系的归一化的情况下姿势信息才可以被配置成通过检测器152来检测。例如,在存在多个装置的情况下,空间坐标系的归一化的执行被命令到的装置的姿势信息可以被配置成待获取。
比较器154具有将由检测器152提供的不同装置的姿势信息与当前装置的姿势信息相比较的功能。更具体地,比较器154将不同装置的姿势信息与当前装置的姿势信息相比较以确定该两个装置的姿势信息是否彼此一致。可以基于不同装置的空间坐标系和当前装置的空间坐标系是否彼此一致来确定姿势信息是否彼此一致。此外,可以通过使用具有作为参考的重力方向的全球坐标系来确定不同装置的空间坐标系和当前装置的空间坐标系是否彼此一致。本文中所描述的全球坐标系是具有作为轴方向中的一个的重力方向的坐标系。
比较器154还能够通过分析由图像捕获装置20捕获的不同装置的图像来获得不同装置的姿势信息,并且计算这样获得的不同装置的姿势信息与当前装置的姿势信息之间的差。按照这种方式计算得到的差对应于相对的姿势信息,并且能够被用来确定不同装置的姿势信息和当前装置的姿势信息是否彼此一致。
比较器154还能够从不同装置接收通过使用诸如加速度传感器的各种传感器在不同装置中获得的不同装置的姿势信息(例如,预定参考值与不同装置的姿势信息之间的差),并且计算这样接收到的不同装置的姿势信息与当前装置的姿势信息之间的差(例如,与不同装置共享的预定参考值与当前装置的姿势信息之间的差)。按照这种方式计算得到的差还能够被用来确定不同装置的姿势信息与当前装置的姿势信息是否彼此一致。
在本文中,参照图6描述了装置之间的坐标系的方向的一致性。图6是用于说明装置之间的坐标系的方向的一致性的视图。图6的示例性视图320示出了信息处理装置10(装置A)的姿势信息和不同装置(装置B)的姿势信息彼此不一致的状态。换句话说,在说明视图320中,装置A与装置B之间的空间坐标系的方向彼此不一致。
图6的示例性视图322示出了通过改变装置A的姿势和装置B的姿势来把空间坐标系的方向彼此不一致的状态改变成装置A的姿势信息和装置B的姿势信息彼此一致的状态。换句话说,在说明视图322中,装置A和装置B的坐标系的方向彼此一致。如果装置A的坐标系被设置为(X,Y,Z)并且装置B的坐标系被设置为(X',Y',Z'),则装置A和装置B具有以下关系。
X=-X'
Y=Y'
Z=-Z'
返回到图5,生成器156具有分析真实空间的三维空间结构并且在作为比较器154中的比较结果的不同装置的姿势信息与当前装置的姿势信息彼此对应的情况下生成虚拟空间的空间坐标系的功能。作为不同装置的姿势信息和当前装置的姿势信息彼此对应的情况,例如,可以列举该两个装置的姿势信息彼此一致或彼此相反的情况。
在实施例中,如图6的说明视图322中所示,尽管生成器156被配置成在作为当前装置的装置A的姿势信息和作为不同装置的装置B的姿势信息彼此一致的情况下生成虚拟空间的空间坐标系,但是本发明不限于这个示例。例如,在每个装置通过分析每个真实空间的三维空间结构生成虚拟空间的空间坐标系之后,若干装置的空间坐标系可以被配置成与不同装置的空间坐标系一致。
返回到图5,归一化器158具有基于当前装置的空间坐标系中的不同装置的位置信息和不同装置的空间坐标系中的当前装置的位置信息来使不同装置的空间坐标系归一化的功能。更具体而言,归一化器158计算用于基于由不同装置生成的空间坐标系中的不同装置与当前装置之间的距离和由生成器156生成的空间坐标系中的当前装置与不同装置之间的距离来使不同装置的空间坐标系归一化的归一化值。
在这里,能够应用各种方法来计算空间坐标系中的当前装置与不同装置之间的距离。例如,作为用于计算空间坐标系中的当前装置与不同装置之间的距离的方法的第一示例,用于使用通过图像处理的对象识别来计算距离的方法是想得到的。在这里待识别的对象还可以具有平面的形式。也就是说,还能够将平面识别用作对象识别。
在执行对象识别中,检测器152能够通过分析由图像捕获装置20所捕获的真实空间中的图像来提取特征。随后,检测器152能够基于所提取的特征检测作为相对位置的对象的位置,同时图像捕获装置20的位置充当参考,并且生成器156能够基于所检测到的相对位置执行空间识别(生成空间坐标)。在这里,图像捕获装置20被连接到信息处理装置10(图8中所示出的示例中的装置A),由图像捕获装置20所捕获的图像被提供给信息处理装置10,并且提供给信息处理装置10的图像由检测器152来分析。
检测器152能够计算从图像捕获装置20到在所识别的空间(虚拟空间)中的预定方向上存在的不同装置50(图8中所示出的示例中的装置B)的距离。在图8中所示出的示例中,尽管预定方向对应于图像捕获装置20的正方向(垂直于装置A的方向,即Z轴),但是方向不限于此示例。检测器152能够通过例如分析由图像捕获装置20所捕获的不同装置50的图像来检测从信息处理装置10到虚拟空间中的不同装置50的距离。
上文所描述的方法是用于计算空间坐标系中的当前装置与不同装置之间的距离的方法的第一示例。由于按照这种方式计算的距离在由生成器156生成的空间坐标中计算,所以该距离对应于信息处理装置10(当前装置)与不同装置50之间的相对距离。因此,检测器152还能够基于真实空间中的预定间隔的距离和对应于预定间隔的虚拟空间中的间隔的距离将该相对距离转换成绝对距离。
更具体地说,例如,检测器152能够通过将真实空间中的预定间隔的距离除以对应于预定间隔的虚拟空间中的间隔的距离来获得值(与虚拟空间中的单位坐标相对应的真实空间中的距离),并且将相对距离乘以所获得的值以将乘法的结果获取为绝对距离。
能够将真实空间中的预定间隔的距离设置为例如预定值。更具体而言,例如在真实空间中的预定间隔的距离被提前确定为1M(米)的情况下,检测器152能够将真实空间中的预定间隔的距离设置为1M,并且将从信息处理装置10(或图像捕获装置20)到虚拟空间中的对象的距离用作对应于预定间隔的虚拟空间中的间隔的距离。在这种情况下,例如,使检测器152在显示装置30上显示诸如“请使用信息处理装置10(或图像捕获装置20)和彼此隔开1M的真实空间中的对象执行校准”的消息,并且随后测量从信息处理装置10(或图像捕获装置20)到虚拟空间中的对象的距离。
还能够将从信息处理装置10(或图像捕获装置20)到不同装置50的虚拟空间中的距离用作对应于真实空间中的预定间隔的虚拟空间中的间隔的距离。在这种情况下,例如,使检测器152在显示装置30上显示诸如“请使用彼此隔开1M的各装置来执行校准”的消息,并且随后测量从信息处理装置10(或图像捕获装置20)到虚拟空间中的不同装置50的距离。不必说真实空间中的预定间隔的距离可以是不同于1M的任何值。
另外,例如,作为用于计算空间坐标系中的当前装置与不同装置之间的距离的方法的第二示例,用于使用预定测量装置来计算距离的方法是想得到的。作为预定测量装置,能够使用诸如GPS传感器、深度传感器、地磁罗盘或加速度传感器的测量装置。预定测量装置对应于例如图4中所示出的各种传感器40。按照这种方式所计算的距离对应于信息处理装置10(当前装置)与不同装置50之间的绝对距离。因此,在这种情况下,绝对虚拟空间坐标通过生成器156来生成。
收发器160具有发送或接收用于共享空间坐标系的信息的功能,并且是本公开的发射机或接收机的示例。收发器160可以将由归一化器158归一化的不同装置的空间坐标系发送到不同装置,并且可以将通过归一化器158计算的归一化值发送到不同装置。经归一化的空间坐标系所被发送到的不同装置通过使用被发送的空间坐标系来生成虚拟空间的空间坐标系。此外,归一化值所被发送到的不同装置通过使用被发送的归一化值来使虚拟空间的空间坐标系归一化。
在本文中,参照图7A、7B以及8对空间坐标系的归一化进行描述。图7A是用于说明信息处理装置10(装置A)与不同装置(装置B)的坐标单位的视图。当信息处理装置10和不同装置生成虚拟空间的相应的空间坐标系时,由于与装置相对应的真实空间也是不同的,所以基于不同的坐标单位来生成虚拟空间的空间坐标系。换句话说,由装置生成的空间坐标系的标度(scale)是彼此不同的。
如图7A中所示,由信息处理装置10(装置A)的生成器156所生成的虚拟空间的空间坐标系的坐标单位331和由不同装置(装置B)所生成的虚拟空间的空间坐标系的坐标单位333变得彼此不同。以这种方式,在装置A的空间坐标系的坐标单位331和装置B的空间坐标系的坐标单位333彼此不同的情况下,不能够正确地识别装置之间的虚拟对象的位置。因此,不同空间坐标系的坐标单位通过归一化器158来归一化,并且共享虚拟对象的位置。
参照图7B对归一化器158中的空间坐标系的归一化进行描述。归一化器158获取装置A的空间坐标系(XYZ坐标系)中的装置B的坐标单位。此外,获取了装置B的空间坐标系(X'Y'Z'坐标系)中的装置A的坐标单位。通过收发器160从作为不同装置的装置B接收装置B的空间坐标系中的装置A的坐标单位。
用于使装置A和装置B的空间坐标系归一化的归一化值根据以下等式来计算。
(归一化值a)=(X'Y'Z'坐标系中的到装置A的距离(坐标单位))/(XYZ坐标系中的到装置B的距离(坐标单位))
装置B的空间坐标系能够通过使用根据上述等式计算的归一化值a来归一化。参照图8对装置B的空间坐标系的归一化进行描述。图8是用于说明装置B的空间坐标系的归一化的视图。如图8中所示,装置A的空间坐标系通过XYZ坐标系来表示,而装置B的空间坐标系通过X'Y'Z'坐标系来表示。
如图8中所示,装置A的原点的坐标通过装置A的空间坐标系(XYZ坐标系)中的(0,0,0)来表示。装置B的中心点的坐标通过装置B的空间坐标系(XYZ坐标系)中的(0,0,d)来表示。在本文中,d为装置A的空间坐标系(XYZ坐标系)中的装置A与装置B之间的距离(坐标单位)。
装置B的空间坐标系(X'Y'Z'坐标系)中的坐标(l,m,n)能够通过使用如下的归一化值a来表示。
l=-ax
m=ay
n=-az+d
如上文所描述的,装置B的空间坐标系可以在装置A中归一化,并且归一化结果可以被发送到装置B。此外,在装置A中所计算的归一化值a可以被发送到装置B。如图8中所示,装置B的空间坐标系通过使用归一化值由装置A的空间坐标系来表示,使得能够适当地确定布置在两个装置之间的虚拟空间中的虚拟对象的位置的关系。
此外,在图8中,尽管空间坐标系的原点被设置为装置的中心点,但是本发明不限于该示例。除了装置的中心点之外的点、以及能够确定相对于装置的位置的关系的点(诸如与装置按照预定距离隔开的点)也可以被设置为原点。
【5】信息处理装置的操作的细节
在上文中,描述了信息处理装置10的功能配置。接下来,参照图9至14对信息处理装置10的操作进行详细的描述。首先,参照图9描述信息处理装置10(装置A)中的不同装置(装置B)的空间坐标系的归一化的处理。图9是示出了空间坐标系的归一化的处理的详细流程图。
在图9中,信息处理装置10被描述为装置A,而不同装置被描述为装置B。在以下描述中,装置B被描述为具有与装置A的功能配置相同的功能配置的信息处理装置。如图9中所示,首先,装置A的检测器152获取装置A的姿势信息(S102)。接下来,在装置B中,获取了装置B的姿势信息(S104)。
接下来,通过装置B获取的姿势信息被发送到装置A,并且装置A通过收发器160获取装置B的姿势信息(S106)。接下来,在步骤S102中获取的装置A的姿势信息和在步骤S106中接收到的装置B的姿势信息被彼此相比较(S108)。
在步骤S108中,在装置A的姿势信息和装置B的姿势信息彼此一致的情况下,生成器156分析真实空间的三维空间结构以识别该虚拟空间(S110)。在步骤S110中,生成器156生成虚拟空间的空间坐标系。
接下来,装置A的归一化器158获取由装置A所生成的AR空间中的到装置B的距离(S112)。此外,在装置B中,获取由装置B所生成的AR空间中的到装置A的距离(S114)。发送在步骤S114中获取的装置B中的到装置A的距离,并且通过收发器160接收该距离(S116)。
在这里,执行了从步骤S112到步骤S116的处理,同时装置A与装置B之间的距离保持恒定。这是因为通过基于针对完全相同的距离所获取的在装置A的AR空间中到装置B的距离(坐标单位)和在装置B的AR空间中到装置A的距离(坐标单位)来执行归一化的处理能够在装置A与装置B之间共享该空间坐标系。
接下来,归一化器158根据在步骤S112中获取的装置A的AR空间(虚拟空间)中到装置B的距离和在步骤S116中接收到的装置B中到装置A的距离来计算用于使装置B的空间坐标系归一化的归一化值a。更具体而言,通过使用装置A的空间坐标系中的到装置B的距离(坐标单位)除以装置B的空间坐标系中的到装置A的距离(坐标单位)来计算归一化值a。
在上文中,描述了空间坐标系的归一化的处理。接下来,参照图10和11来描述在指定了AR空间中的每个装置的坐标的情况下的坐标变换处理。图10是示出了在指定了AR空间中的装置A的坐标的情况下的坐标变换处理的流程图。此外,图11是示出了在指定了AR空间中的装置B的坐标的情况下的坐标变换处理的流程图。
如图10中所示,首先,指定AR空间中的装置A的坐标(S202)。在装置A中,在步骤S202中指定的坐标被确定为AR空间中的坐标(S204)。
接下来,在步骤S202中指定的坐标被基于由归一化器158计算的归一化值a变换成AR空间坐标系中的装置B的坐标(S206)。如上文所述,能够通过使用归一化值a和装置之间的距离d将空间坐标系中的装置B的坐标(l,m,n)表示为(-ax,ay,-az+d)。因此,在步骤S202中指定的坐标(x,y,z)被变换成AR空间坐标系中的装置B的坐标(-az,ay,-az+d)。
接下来,在步骤S206中变换的坐标被通过收发器160发送到装置B(S208)。装置B接收在步骤S208中发送的坐标(S210)。以这种方式,在装置A中指定的坐标被变换成AR空间坐标系中的装置B的坐标,并且经变换的坐标被发送到装置B,使得AR空间的空间坐标系被共享。因此,能够适当地确定布置在AR空间中的AR对象的位置的关系。
接下来,参照图11来描述在指定了AR空间中的装置B的坐标的情况下的坐标变换处理。如图11中所示,指定了AR空间中的装置B的坐标(S302)。在装置B中,通过使用在步骤S302中指定的坐标来确定AR空间中的坐标(S304)。在步骤S302中指定的坐标被发送到装置A(S306)。
在装置A中,通过收发器160来获取(接收)在步骤S306中发送的坐标(S308)。在步骤S308中获取并且由装置B指定的坐标被变换为AR空间坐标系中的装置A的坐标(S310)。如上文所述,AR空间坐标系中的装置B的坐标能够通过使用归一化值a和装置之间的距离d表示为(-ax,ay,–az+d)。因此,在装置B中指定的坐标通过使用归一化值a和装置之间的距离d来变换成空间坐标系中的装置A的坐标。
接下来,在步骤S310中变换的坐标被确定为装置A的坐标(S312)。以这种方式,即使在指定了装置B的坐标的情况下,装置B中指定的坐标也被变换成AR空间的空间坐标系中的装置A的坐标,并且AR空间的空间坐标系被共享。因此,能够适当地确定在AR空间布置的AR对象的位置的关系。
在上文中,描述了在指定了AR空间中的装置B的坐标的情况下的坐标变换处理。如上文所述,根据本实施例的信息处理装置10,在能够通过分析真实空间的三维空间来识别虚拟空间的多个装置之间,能够通过在每个装置中使空间坐标系归一化并且确定布置在虚拟空间中的虚拟对象的适当位置来共享虚拟对象。
【6】信息处理装置的操作的细节的修改
接下来,将参照图12至14来描述对信息处理装置10的操作的细节的修改。首先,将参照图12来描述信息处理装置10(装置A)中的不同装置(装置B)的空间坐标系的归一化的处理。图12是示出了空间坐标系的归一化的处理的具体流程图。在图12中,信息处理装置10被描述为装置A,而不同装置被描述为装置B。在下文中的描述中,装置B还将被描述为与装置A具有的相同的功能配置的信息处理装置。
如图12中所示,首先,装置A的检测器152获取与预定的距离相对应的第一坐标单位(S402)。例如,在预定的距离为1M(米)并且在设备A的虚拟空间坐标中与1M相对应的距离对应于10个标度的情况下,该10个标度被获取为第一坐标单位。接下来,装置B的检测器152获取与预定的距离相对应的第二坐标单位(S404)。例如,在预定的距离为1M(米)并且在装置B的虚拟空间坐标中的与1M相对应的距离对应于5个标度的情况下,该5个标度被获取为第二坐标单位。
然后,通过装置B获取的第二坐标单位被发送到装置A(S406),并且装置A通过收发器160来获取该第二坐标单位。然后,装置A的归一化器158基于在步骤S402中获取的第一坐标单位和所接收到的第二坐标单位计算归一化值a(S408)。为了更加具体,装置A的归一化器158通过将第二坐标单位除以第一坐标单位来计算归一化值a。
接下来,装置A的检测器152获取装置A的姿势信息(S410)。然后,在装置B中获取装置B的姿势信息(S412)。随后,在装置B中获取的姿势信息被发送到装置A(S414),并且装置A通过收发器160来获取装置B的姿势信息。如上文所述,比较器154还能够通过分析由图像捕获装置20捕获的不同装置的图像来获得不同装置的姿势信息,并且计算这样获得的不同装置的姿势信息与当前装置的姿势信息之间的差。如果使用了按照这种方式所计算的差,则可以省略步骤S412中的处理和步骤S414中的处理。
在上文中,已经描述了空间坐标系的归一化的处理的修改。接下来,将参照图13和14描述在指定了AR空间中的每个装置的坐标的情况下的坐标变换处理。图13是示出了在指定了AR空间中的装置A的坐标的情况下的坐标变换处理的修改的流程图。此外,图14是示出了在指定了AR空间中的装置B的坐标的情况下的坐标变换处理的修改的流程图。
如图13中所示,首先,指定了AR空间中的装置A的坐标(S502)。在装置A中,在步骤S502中指定的坐标被确定为AR空间中的坐标(S504)。
接下来,在步骤S502中指定的坐标被基于装置A的姿势信息、装置B的姿势信息、以及通过归一化器158计算的归一化值a变换成AR空间坐标系中的装置B的坐标(S506)。接下来,在步骤S506中变换的坐标被通过收发器160发送到装置B(S508)。装置B接收在步骤S508中发送的坐标(S510)。
以这种方式,在装置A中指定的坐标被变换成AR空间坐标系中的装置B的坐标,并且经变换的坐标被发送到装置B,使得AR空间的空间坐标系被共享。因此,能够适当地确定布置在AR空间中的AR对象的位置的关系。例如,装置B能够响应于所接收到的变换的坐标控制显示的图像。
接下来,将参照图14描述在指定了AR空间中的装置B的坐标的情况下的坐标变换处理的修改。如图14中所示,指定了AR空间中的装置B的坐标(S602)。在装置B中,通过使用在步骤S602中指定的坐标来确定AR空间中的坐标(S604)。在步骤S602中指定的坐标被发送到装置A(S606)。
在装置A中,通过收发器160来获取(接收)在步骤S606中发送的坐标(S608)。在装置A中,在步骤602中指定的坐标被基于装置A的姿势信息、装置B的姿势信息、以及由归一化器158计算的归一化值a变换成AR空间坐标系中的装置B的坐标(S610)。
接下来,在步骤S610中变换的坐标被确定为装置A的坐标(S612)。以这种方式,即使在指定了装置B的坐标的情况下,在装置B中指定的坐标也被变换成AR空间的空间坐标系中的装置A的坐标,并且AR空间的空间坐标系被共享。因此,能够适当地确定布置在AR空间中的AR对象的位置的关系。然后装置A能够响应于所接收到的变换的坐标控制显示的图像。
在上文中,已经描述了在指定了AR空间中的装置B的坐标的情况下的坐标变换处理的修改。如上文所描述的,根据本实施例的信息处理装置10,在能够通过分析真实空间的三维空间来识别虚拟空间的多个装置之间,能够通过使每个装置中的空间坐标系归一化并且确定布置在虚拟空间中的虚拟对象的适当位置来共享虚拟对象。
本领域的技术人员应该理解的是,依据设计要求和其它因素可以存在各种修改、组合、子组合以及变动,只要它们在所附权利要求或其等同物的范围之内。
例如,可以不必按照根据如流程图所公开的次序的时间顺序执行在说明书中描述的信息处理装置10的处理中的步骤。换句话说,可以在不同的处理中并行执行信息处理装置10的处理中的步骤。此外,被共享的坐标系可以是具有重力方向的全球坐标系。此外,坐标变换的处理可以在任一装置中执行并且可以在云服务器中执行。
此外,诸如内置在信息处理装置10等中的CPU、ROM以及RAM的硬件还可以通过展示了与前述信息处理装置10的部件的功能等效的功能的计算机程序来实现。此外,还提供了存储计算机程序的存储介质。
标号列表
10信息处理装置
152检测器
154比较器
156生成器
158归一化器
160收发器
20图像捕获装置
30显示装置
Claims (18)
1.一种信息处理设备,包括:
处理器,被配置成获取与所述信息处理设备相对应的第一姿势信息、与所述信息处理设备相对应的第一距离坐标、与另一信息处理设备相对应的第二姿势信息以及与所述另一信息处理设备相对应的第二距离坐标,
其中,所述信息处理设备还包括图像捕获装置,被配置成获取与所述另一信息处理设备相对应的图像;
所述处理器被配置成基于所获取的图像,确定所述信息处理设备的姿势信息与所述另一信息处理设备的姿势信息是否一致,并在所述信息处理设备的姿势信息与所述另一信息处理设备的姿势信息彼此对应的情况下生成虚拟空间的空间坐标系;
其中,所述处理器被配置成:基于所述第一姿势信息和第二姿势信息以及所述第一距离坐标和第二距离坐标来计算虚拟空间中对象的位置,其中
所述处理器进一步被配置成基于所述第一距离坐标与所述第二距离坐标之间的差来计算归一化值,确定所述虚拟空间中所述信息处理设备的坐标,并且基于所述归一化值将所述坐标变换成所述另一信息处理设备的所述虚拟空间中的坐标。
2.根据权利要求1所述的信息处理设备,还包括:
检测器,被配置成通过检测所述信息处理设备的定向来检测所述第一姿势信息。
3.根据权利要求1所述的信息处理设备,还包括:
接口,被配置成从所述另一信息处理设备获取所述第二姿势信息。
4.根据权利要求1所述的信息处理设备,其中,所述处理器被配置成基于所述获取的图像来获取所述第二姿势信息。
5.根据权利要求1所述的信息处理设备,还包括:
检测器,被配置成计算所述虚拟空间中所述信息处理设备与所述另一信息处理设备之间的距离。
6.根据权利要求1所述的信息处理设备,还包括:
检测器,被配置成计算真实空间中所述信息处理设备与所述另一信息处理设备之间的距离。
7.根据权利要求1所述的信息处理设备,其中,所述处理器被配置成基于所述第一姿势信息和第二姿势信息来识别所述虚拟空间。
8.根据权利要求1所述的信息处理设备,还包括:
接口,所述接口被配置成将经变换的坐标发送到所述另一信息处理设备。
9.根据权利要求1所述的信息处理设备,还包括:
接口,被配置成从所述另一信息处理设备接收坐标,其中,所述处理器被配置成基于所述归一化值将所述坐标变换成所述信息处理设备的所述虚拟空间中的坐标。
10.根据权利要求1所述的信息处理设备,其中,所述第一距离坐标对应于第一距离比例因子,所述第二距离坐标对应于第二距离比例因子。
11.根据权利要求10所述的信息处理设备,其中,所述处理器被配置成基于所述第一距离比例因子和第二距离比例因子来计算归一化值。
12.根据权利要求10所述的信息处理设备,其中,所述处理器被配置成通过将所述第一距离比例因子除以所述第二距离比例因子来计算归一化值。
13.根据权利要求11所述的信息处理设备,其中,所述处理器被配置成指定所述虚拟空间中所述信息处理设备的坐标,并且基于所述第一姿势信息和第二姿势信息以及所述归一化值来变换所述坐标。
14.根据权利要求13所述的信息处理设备,还包括:
接口,被配置成将经变换的坐标发送到所述另一信息处理设备。
15.根据权利要求11所述的信息处理设备,还包括:
接口,被配置成从所述另一信息处理设备接收坐标。
16.根据权利要求15所述的信息处理设备,其中,所述处理器被配置成基于所述第一姿势信息和第二姿势信息以及所述归一化值来变换所述坐标。
17.根据权利要求16所述的信息处理设备,还包括:
显示器,其中,所述处理器被配置成基于经变换的坐标来控制所述显示器显示所述对象。
18.一种由信息处理设备执行的信息处理方法,所述方法包括:
由所述信息处理设备的处理器获取与所述信息处理设备相对应的第一姿势信息和与所述信息处理设备相对应的第一距离坐标;
由所述信息处理设备的接口获取与另一信息处理设备相对应的第二姿势信息和与所述另一信息处理设备相对应的第二距离坐标;
由所述信息处理设备的图像捕获装置获取与所述另一信息处理设备相对应的图像;
由所述信息处理设备的所述处理器基于所获取的图像,确定所述信息处理设备的姿势信息与所述另一信息处理设备的姿势信息是否一致,并在所述信息处理设备的姿势信息与所述另一信息处理设备的姿势信息彼此对应的情况下生成虚拟空间的空间坐标系;以及
由所述信息处理设备的所述处理器基于所述第一姿势信息和第二姿势信息以及所述第一距离坐标和第二距离坐标来计算虚拟空间中对象的位置,其中,基于所述第一距离坐标与所述第二距离坐标之间的差来计算归一化值,确定所述虚拟空间中所述信息处理设备的坐标,并且基于所述归一化值将所述坐标变换成所述另一信息处理设备的所述虚拟空间中的坐标。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010061128 | 2010-03-17 | ||
JP2010-061128 | 2010-03-17 | ||
PCT/JP2011/001382 WO2011114659A1 (en) | 2010-03-17 | 2011-03-09 | Information processing device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102792339A CN102792339A (zh) | 2012-11-21 |
CN102792339B true CN102792339B (zh) | 2016-04-27 |
Family
ID=44648775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180013005.2A Active CN102792339B (zh) | 2010-03-17 | 2011-03-09 | 信息处理装置、信息处理方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9076256B2 (zh) |
EP (1) | EP2548179A4 (zh) |
KR (1) | KR20130049769A (zh) |
CN (1) | CN102792339B (zh) |
BR (1) | BR112012022681A2 (zh) |
RU (1) | RU2533628C2 (zh) |
TW (1) | TW201205345A (zh) |
WO (1) | WO2011114659A1 (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101459175B1 (ko) * | 2010-12-23 | 2014-11-07 | 주식회사 케이티 | 이동하는 가상 이미지를 공유하는 단말 장치 및 시스템과 그 방법 |
EP2795936B1 (en) * | 2011-12-20 | 2019-06-26 | Intel Corporation | User-to-user communication enhancement with augmented reality |
EP2879098A4 (en) * | 2012-07-27 | 2016-03-16 | Nec Solution Innovators Ltd | SYSTEM AND METHOD FOR THE JOINT USE OF THREE-DIMENSIONAL ENVIRONMENTS |
US11397462B2 (en) * | 2012-09-28 | 2022-07-26 | Sri International | Real-time human-machine collaboration using big data driven augmented reality technologies |
US10955665B2 (en) * | 2013-06-18 | 2021-03-23 | Microsoft Technology Licensing, Llc | Concurrent optimal viewing of virtual objects |
TWI651657B (zh) * | 2016-10-21 | 2019-02-21 | 財團法人資訊工業策進會 | 擴增實境系統與方法 |
CN109126121B (zh) * | 2018-06-01 | 2022-01-04 | 成都通甲优博科技有限责任公司 | Ar终端互联方法、系统、装置及计算机可读存储介质 |
JP2020065229A (ja) * | 2018-10-19 | 2020-04-23 | 西日本電信電話株式会社 | 映像通信方法、映像通信装置及び映像通信プログラム |
CN109976523B (zh) * | 2019-03-22 | 2021-05-18 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
WO2021053805A1 (ja) * | 2019-09-20 | 2021-03-25 | マクセル株式会社 | 情報端末装置および位置認識共有方法 |
JP7447474B2 (ja) * | 2019-12-19 | 2024-03-12 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
CN111651051B (zh) * | 2020-06-10 | 2023-08-22 | 浙江商汤科技开发有限公司 | 一种虚拟沙盘展示方法及装置 |
CN112711332B (zh) * | 2020-12-29 | 2022-07-15 | 上海交通大学宁波人工智能研究院 | 一种基于姿态坐标的人体动作捕捉方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1184307A (ja) * | 1997-09-01 | 1999-03-26 | M R Syst Kenkyusho:Kk | 頭部装着型の光学装置 |
US6522312B2 (en) * | 1997-09-01 | 2003-02-18 | Canon Kabushiki Kaisha | Apparatus for presenting mixed reality shared among operators |
JPH11237867A (ja) * | 1998-02-20 | 1999-08-31 | Shimadzu Corp | 仮想空間表示装置 |
JP2874865B1 (ja) * | 1998-03-03 | 1999-03-24 | 株式会社エイ・ティ・アール知能映像通信研究所 | 見学者案内支援装置および方法 |
JP3653463B2 (ja) | 2000-11-09 | 2005-05-25 | 日本電信電話株式会社 | 複数のユーザによる仮想空間共有システム |
JP4054585B2 (ja) | 2002-02-18 | 2008-02-27 | キヤノン株式会社 | 情報処理装置および方法 |
JP4065507B2 (ja) * | 2002-07-31 | 2008-03-26 | キヤノン株式会社 | 情報提示装置および情報処理方法 |
JP2004129180A (ja) * | 2002-09-30 | 2004-04-22 | Atsusato Fujii | 仮想空間体験のためのシステム |
JP4262011B2 (ja) * | 2003-07-30 | 2009-05-13 | キヤノン株式会社 | 画像提示方法及び装置 |
JP2005050043A (ja) * | 2003-07-31 | 2005-02-24 | Canon Inc | 画像処理方法、画像処理装置 |
US7667700B1 (en) * | 2004-03-05 | 2010-02-23 | Hrl Laboratories, Llc | System and method for navigating operating in a virtual environment |
JP2009505268A (ja) * | 2005-08-15 | 2009-02-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | エンドユーザプログラミングのための拡張現実感眼鏡のためのシステム、装置及び方法 |
JP5084167B2 (ja) * | 2006-03-31 | 2012-11-28 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
US8970690B2 (en) * | 2009-02-13 | 2015-03-03 | Metaio Gmbh | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
-
2011
- 2011-03-09 RU RU2012138387/08A patent/RU2533628C2/ru not_active IP Right Cessation
- 2011-03-09 EP EP11755852.8A patent/EP2548179A4/en not_active Ceased
- 2011-03-09 WO PCT/JP2011/001382 patent/WO2011114659A1/en active Application Filing
- 2011-03-09 US US13/578,952 patent/US9076256B2/en active Active
- 2011-03-09 BR BR112012022681A patent/BR112012022681A2/pt not_active IP Right Cessation
- 2011-03-09 CN CN201180013005.2A patent/CN102792339B/zh active Active
- 2011-03-09 KR KR1020127023331A patent/KR20130049769A/ko not_active Application Discontinuation
- 2011-03-10 TW TW100108100A patent/TW201205345A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
CN102792339A (zh) | 2012-11-21 |
US9076256B2 (en) | 2015-07-07 |
WO2011114659A1 (en) | 2011-09-22 |
BR112012022681A2 (pt) | 2018-05-22 |
US20120314936A1 (en) | 2012-12-13 |
EP2548179A1 (en) | 2013-01-23 |
EP2548179A4 (en) | 2013-10-16 |
RU2012138387A (ru) | 2014-03-20 |
RU2533628C2 (ru) | 2014-11-20 |
TW201205345A (en) | 2012-02-01 |
KR20130049769A (ko) | 2013-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102792339B (zh) | 信息处理装置、信息处理方法 | |
EP4266244A1 (en) | Surface defect detection method, apparatus, system, storage medium, and program product | |
CN102792338B (zh) | 信息处理设备和信息处理方法 | |
CN102326185B (zh) | 信息处理装置、信息处理方法、程序和信息处理系统 | |
US11610033B2 (en) | Method and apparatus for augmented reality display of digital content associated with a location | |
CN103105926A (zh) | 多传感器姿势识别 | |
WO2021244140A1 (zh) | 物体测量、虚拟对象处理方法及装置、介质和电子设备 | |
CN111737547A (zh) | 商户信息的获取系统、方法、装置、设备及存储介质 | |
US10964045B2 (en) | Information processing device, information processing method, and individual imaging device for measurement of a size of a subject | |
US10645297B2 (en) | System, method, and program for adjusting angle of camera | |
KR20210087181A (ko) | 위치를 탐지하는 전자 장치 및 그 방법 | |
JP4851771B2 (ja) | 情報処理システム、および携帯情報端末 | |
KR20140074129A (ko) | 상황 인지 서비스를 제공하기 위한 장소 인식 장치 및 방법 | |
CN110990728B (zh) | 兴趣点信息的管理方法、装置、设备及存储介质 | |
KR101762349B1 (ko) | 실외환경에서의 증강현실 제공방법, 이를 수행하는 증강현실 제공서버, 및 이를 저장하는 기록매체 | |
CN105683959A (zh) | 信息处理设备、信息处理方法及信息处理系统 | |
CN115830280A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
JP2017130047A (ja) | 情報処理装置、情報処理システム、及びプログラム | |
CN113432620B (zh) | 误差估计方法、装置、车载终端及存储介质 | |
CN104023130B (zh) | 位置提醒方法和装置 | |
KR102084161B1 (ko) | 이미지를 보정하는 전자 장치 및 그 제어 방법 | |
JP7075090B1 (ja) | 情報処理システム、及び、情報処理方法 | |
CN112020868A (zh) | 环境签名和深度感知 | |
CN114565036A (zh) | 意图识别模型的训练方法、装置、设备、存储介质及产品 | |
CN113779299A (zh) | 用于存储物品位置信息的方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |