CN1293519C - 用于处理信息的设备、方法和程序 - Google Patents
用于处理信息的设备、方法和程序 Download PDFInfo
- Publication number
- CN1293519C CN1293519C CNB2003101097720A CN200310109772A CN1293519C CN 1293519 C CN1293519 C CN 1293519C CN B2003101097720 A CNB2003101097720 A CN B2003101097720A CN 200310109772 A CN200310109772 A CN 200310109772A CN 1293519 C CN1293519 C CN 1293519C
- Authority
- CN
- China
- Prior art keywords
- virtual
- coordinate system
- entity object
- dimensional space
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
一种允许用户在三维虚拟空间中轻松并且直观地操作信息的信息处理设备。在该信息处理设备中,主控制器在真实空间中根据与实体对象相关的信息设置第一坐标系统,并且进一步在第一坐标系统的基础上设置相应于真实空间的三维虚拟空间中的第二坐标系统。如果用户参照实体对象在第一坐标系统中的特定位置和角度放置输入设备,该主控制器就在三维虚拟空间中的第二坐标系统中相应于第一坐标系统中的输入设备的位置和角度的位置和角度放置对象,并且该主控制器在显示器上显示放置在三维虚拟空间中的对象的图像。
Description
技术领域
本发明涉及一种用于处理信息的设备、方法和程序,更特别地,涉及一种允许用户以简单且直观的方式处理与三维虚拟空间有关的信息的设备、方法和程序。
背景技术
近年来,信息处理技术已经获得很大发展,通过使用诸如个人计算机而不必是专用计算机的多用途信息处理设备的计算机图形(CG)方法,就可以轻松地表现和使用三维虚拟空间。
近年来,信息通信技术也获得很大发展,并且通过使用在诸如因特网的网络上的服务器来轻松地在多个客户机(例如,信息处理设备)之间共享和/或发布数据也成为可能。
此外,近年来,信息处理技术和信息通信技术的结合使大量客户机共享构建在服务器上的三维虚拟空间中的数据成为可能(可以找到特殊的例子,例如,公开号为2002-279284的日本未审专利申请)。并且提供了许多使用此技术的服务。
由CG表示的三维虚拟空间中的坐标系统通常由在服务器等上实现了三维虚拟空间的开发者设置。当用户使用专用输入设备操纵这样的三维虚拟空间中的对象时,该操作在开发者预先确定的坐标系统的基础上执行。
然而,当开发者在三维虚拟系统里设置坐标系统时,几乎不考虑与用户在其中操作输入设备的真实空间相关的任何东西。结果,用户不得不通过非直观的界面操作该三维虚拟空间中的对象。这使得该对象很难操作。
更具体地说,当连接到个人计算机的鼠标被用作操作该三维虚拟空间里的对象的输入设备时,显示在屏幕上的鼠标指针移动的距离(在该三维虚拟空间中),通常与鼠标在真实空间里实际移动的距离有很大差别。
例如,用户不能直观地预测鼠标在真实空间里要移动多少距离才可以在屏幕上(在该三维虚拟空间里)将鼠标指针移动一个需要的距离(例如从屏幕的一端到另一端)。这样,用户不得不多次移动鼠标来掌握使鼠标指针达到需要的动作所需的鼠标移动距离。
此外,由于三维虚拟空间里的视点和真实空间里的视点的差异(通常,该视点是在三维虚拟空间里任意设置的),用户不能直观地预测如何移动鼠标以使鼠标指针移向想要的方向。因此,用户不得不多次移动鼠标。
众所周知,人眼在远离视点方向(深度方向)的识别能力很差。因此,当表现三维虚拟空间的图像在诸如CRT(阴极射线管)的二维屏幕上显示时,用户很难在三维虚拟空间里远离视点的方向直观地识别。换句话说,在显示器的二维屏幕上显示表现三维虚拟空间的图像并且使用户可以在该三维虚拟空间里的远离视点的方向取得直观识别是很难的。
在许多情况下,在传统的基于三维CG模型(如"3ds max",其描述可在例如网页"http://www.discreet.jp/products/max5/index_max5.htm"(2002年11月8日可以访问到)中找到)的应用软件中,包含对象的三维虚拟空间通过三视图的方式显示。即,在前视图、俯视图和侧视图中显示包括该对象的三维虚拟空间。此技术允许用户在三维虚拟空间中远离视点的方向获得识别。
然而,在三视图中,必须在单个的屏幕中显示包括前视图、俯视图和侧视图的至少三个视图(即,屏幕被分成三部分)。这种显示对象的方式是不自然的。此外,尽管可以通过分析所有的三个视图进行识别,但是远离视点的方向的识别不是直观的。
发明内容
鉴于以上所述,本发明的目的是供应一种使用户在三维虚拟空间中简单和直观地处理信息的技术。
本发明提供一种用于控制三维虚拟空间中的图像的显示的信息处理设备,其包括:设置装置,其用于在预先输入的与一第一实体对象相关的信息的基础上,设置真实空间里的第一坐标系统,并且在所述第一坐标系统的基础上,设置所述三维虚拟空间里的第二坐标系统,该所述真实空间中包含该第一实体对象,所述三维虚拟空间相应于所述真实空间;构造装置,其用于利用所述设置装置中设置的所述第二坐标系统构造所述三维虚拟空间;显示控制装置,其用于控制相应于由所述构造装置构造的所述三维虚拟空间的图像的显示。
在此信息处理设备中,第一实体对象可以是至少在某一预定方向上具有大于预定值的横截面积的实体对象。
第一实体对象可以是一个纸张形状实体对象或一摞纸张形状实体对象。
该信息处理设备可进一步包括:输入装置,其用于输入指定所述三维虚拟空间中的特定虚拟对象的位置和角度的规格信息;以及确定装置,其用于根据输入装置输入的规格信息,在所述第二坐标系统中确定所述虚拟对象的位置和角度;其中,所述构造装置可以构造三维虚拟空间,所述三维虚拟空间包括设置在由所述确定装置确定的第二坐标系统中的所述位置和角度的虚拟对象。
在此信息处理设备中,如果相应于该虚拟对象的第二实体对象位于真实空间中,所述输入装置可利用不同于第一坐标系统的第三坐标系统测量所述第二实体对象在真实空间中的位置和角度,并将所述测量结果作为规格信息输入,所述确定装置可以将由所述输入装置输入的第二实体对象的位置和角度的坐标从第三坐标系统转换到第二坐标系统,其还可以采用在第二坐标系统中转换的第二实体对象的位置和角度作为第二坐标系统中的虚拟对象的位置和角度。
所述输入装置可以将所述输入装置本身的至少一部分作为第二实体对象。
所述输入装置可以将具有与所述虚拟对象的特定特征相似的特征的实体对象作为第二实体对象。
所述构造装置可以构造三维虚拟空间,使得在显示控制装置控制下显示的图像至少包括相应于所述第一实体对象的虚拟区域。
本发明还提供一种用于控制三维虚拟空间中的图像的显示的信息处理方法,其包括步骤:在预先输入的与实体对象相关的信息的基础上,设置真实空间中的第一坐标系统,并且在所述第一坐标系统的基础上,设置所述三维虚拟空间中的第二坐标系统,所述真实空间包括所述实体对象,所述三维虚拟空间相应于所述真实空间;利用所述设置步骤中设置的所述第二坐标系统构造所述三维虚拟空间;以及控制相应于在所述构造步骤中构造的所述三维虚拟空间的图像的显示。
本发明还提供一种使计算机执行控制三维虚拟空间中的图像的显示的处理的程序,该处理包括步骤:在预先输入的与实体对象相关的信息的基础上,设置真实空间中的第一坐标系统,并且在所述第一坐标系统的基础上,设置所述三维虚拟空间中的第二坐标系统,所述真实空间包括所述实体对象,所述三维虚拟空间相应于所述真实空间;利用在所述设置步骤中设置的所述第二坐标系统构造所述三维虚拟空间;以及控制相应于在所述构造步骤中构造的所述三维虚拟空间的图像的显示。
在根据本发明的用于处理信息的设备、方法和程序中,包含实体对象的真实空间中的第一坐标系统是在预输入的、与实体对象相关的信息的基础上设置的,并且在相应于真实空间的三维虚拟空间中的第二坐标系统是根据第一坐标系统设置的。利用第二坐标系统构造三维虚拟空间,并显示相应于所构造的三维虚拟空间的图像。
根据本发明,在信息处理设备控制下显示图像的显示器可以在信息处理设备本身上配置,或在信息处理设备外部独立配置。同样地,根据本发明,向信息处理设备输入信息的输入设备可以在信息处理设备本身上配置,或在信息处理设备外部独立配置。
附图说明
图1是根据本发明实施例的信息处理设备的硬件配置的实例的方框图;
图2是如图1所示信息处理设备的外观的框图;
图3是如图1所示信息处理设备的软件配置的例子的方框图;
图4是通过图3所示信息处理设备显示三维图像的控制过程的流程图;
图5是通过图3所示信息处理设备显示三维图像的控制过程的流程图;
图6是通过图3所示信息处理设备参照实体对象定义的真实空间坐标系统的图;
图7是由图3所示信息处理设备基于如图6所示真实空间坐标系统定义的三维虚拟空间的坐标系统的图;
图8是显示基于图7所示的坐标系统构造的三维虚拟空间的方式的实例图;
图9是表示通过在如图8所示的三维虚拟空间中放置对象而重建的显示的三维虚拟空间的实例的图,其中用户参照实体对象在特定的位置放置在相应于三维虚拟空间中放置的对象的输入设备的图;
图10是表示通过在如图8所示的三维虚拟空间中放置对象而重建显示的三维虚拟空间的实例的图,其中用户参照实体对象在与图9所示的位置不同的位置放置输入设备;
图11是由如图3所示信息处理设备构造的显示的三维虚拟空间的图,其中用书作为实体对象;
图12是由如图3所示信息处理设备构造的显示的三维虚拟空间的图,其中用模型和底板的组合作为实体对象;
图13是由如图3所示信息处理设备构造的显示的三维虚拟空间的图,其中用模型作为实体对象;
图14是另一个如图1所示信息处理设备的外观的实例的图。
具体实施方式
图1表示根据本发明实施例的信息处理设备的硬件结构。
如图1所示,信息处理设备1包括输入单元11、主控制器12和显示器13。该信息处理设备1与实体对象14结合使用。
在本实施例中,例如,主控制器12根据实体对象14的特定信息(例如表示形状、位置和/或角度的信息)构造三维虚拟空间,并且主控制器12在显示器13上显示相应于所构造的三维虚拟空间的图像。当该用户操作输入单元11时,主控制器12依照用户执行的操作,改变三维虚拟空间(即,主控制器12重建的三维虚拟空间)中的特定三维虚拟对象(以下简单称为对象)的位置和/或角度,并且主控制器12在显示器13上显示相应的图像。信息处理设备1的用途或使用不局限于本实施例中的情况,但是信息处理设备1可能被用于多种用途,其中用到以随后描述的方式所定义的三维虚拟空间的坐标系统。
输入单元11具有作为基本功能之一的第一功能,就是向主控制器12输入表示三维虚拟空间中的对象的位置和角度的规格信息。通过使用输入单元11的这个第一功能,用户可以在三维虚拟空间中自由地移动对象。
换句话说,输入单元11不局限于任何一种特定的类型,只要具有向主控制器12输入表示三维虚拟空间中的对象的位置和角度的规格信息的功能就可以。例如,输入单元11可以通过三维位置/角度传感器实现。更具体地说,磁、光学、超声波或机械类型的三维位置/角度传感器都能被用作输入单元11。当然,输入单元11并不局限于三维位置/角度传感器,也可使用其它类型的输入设备,如开/关输入设备(例如键盘或鼠标)或二维位置输入设备。
在本实施例中,正如随后将要描述的,信息处理设备1至少使用两个不同的坐标系统,其包括真实空间中的三维坐标系统(例如,随后将参考图6描述的真实空间31中的坐标系统(rx,ry,rz))和定义三维虚拟空间的坐标系统(例如,随后将参考图7描述的三维虚拟空间32中的坐标系统(vx,vy,vz))。这两个坐标系统间的对应关系是根据与实体对象14相关的特定信息(例如,形状、位置、角度等等)确定的。
由于所述原因,在定义这两个坐标系统之前,必须向主控制器12输入与实体对象14相关的信息。为了上述目的,输入单元11除了上述的第一功能外,还具有向主控制器12输入必要数据的第二功能,以便用户可以利用输入单元11的第二功能向主控制器12输入与实体对象14相关的信息。
在此,包含在输入单元11中并且具有第一功能的输入设备可以进一步包括上述的第二功能(即,输入单元11由单个输入设备组成)或除了具有第一功能的输入设备之外还在输入单元11中配置另一个具有第二功能的输入设备。更具体地说,诸如照相机的成像装置可以用作具有第二功能的输入设备。例如,用照相机拍摄实体对象14的图像,并由主控制器12处理所生成的实体对象14的图像数据,从而获得与实体对象14相关的信息。如上所述,输入单元11不是必须要由单个输入设备组成,而是可以用任意数量的设备任意配置组成输入单元11,只要能满足第一功能和第二功能就可以。
在给定实体对象14的形状等等信息的情况下,在用户使用信息处理设备1之前(例如,在信息处理设备1启运之前),表示形状的值可以作为与实体对象14相关的信息输入给信息处理设备1。这样的话,输入单元11不必具有输入与实体对象14相关的信息的第二功能。在信息处理设备1只用来定义坐标系统的情况下,第一功能也不是必需的。在这种情况下,信息处理设备1不必需具有输入单元11。
利用第二功能输入的数据并不局限于上述与实体对象14相关的信息。例如,在本实施例中,如随后将描述的,在显示器13上显示表示从三维虚拟空间的特定视点所看到的景像的图像。这样,可以利用第二功能向主控制器12输入表示视点的信息。
主控制器12由例如个人计算机的主要部分(除了诸如键盘的输入设备和诸如显示器之外的输出设备的个人计算机的其它部分)组成。主控制器12执行不同坐标系统间的变换并构造三维虚拟空间。主控制器12进一步产生表示构造的三维虚拟空间的图像,并将该得到的图像信号输出给显示器13。
在主控制器12中,CPU(中央处理器)21按照存储在ROM(只读存储单元)22中的程序或从存储单元26装入到RAM(随机存储单元)23中的程序执行各种处理。RAM23还用来储存CPU21在执行各种处理时所使用的数据。
CPU21、ROM22和RAM23通过总线24彼此连接。总线24还与输入/输出接口25连接。
上述输入单元11和随后将描述的显示器13与输入/输出接口25连接。
输入/输出接口25还与包括硬盘等等的存储单元26连接,并且和通信单元27连接,用以通过诸如因特网的网络与其它信息处理设备(未显示)通信。
更进一步地,根据需要,输入/输出接口25还与驱动装置28相连接。根据需要,可将诸如磁盘、光盘、磁光盘或半导体存储器的可移动存储介质29安装在驱动装置28上,根据需要,从可移动存储介质29读取计算机程序并安装到存储单元26中。
至于显示器13,可使用CRT(阴极射线管)显示器、液晶显示器或投影仪。显示器13根据主控制器12输出的数据显示相应于三维虚拟空间的图像。
实体对象14充当主控制器12在构造三维虚拟空间中所用的参照物。实体对象14是真实空间中实际存在的对象。实体对象14的材料不局限于某种特定的材料,只要从上面看实体对象14占有有限的区域即可(即,只要实体对象14具有在水平面上截取的横截面大于预定的面积即可)。更具体地说,纸张,书籍或立体模型都可以作为实体对象14。
如前面所述,根据与实体对象14相关的信息设置各种不同的坐标系统。因此,在输入与实体对象14相关的信息后,需要将实体对象14放置在输入与实体对象14相关的信息时用到的位置和角度。
图2显示信息处理设备1的构成的例子。
在图2所示例子中,用纸张形状的物体作为实体对象14。将台式个人计算机的主要部分作为主控制器12。主控制器12在预先输入的与实体对象14相关的信息的基础上构造三维虚拟空间。用阴极射线管显示器作为显示器13。显示器13显示主控制器12构造的相应于三维虚拟空间32的图像。将三维位置/角度传感器11-1作为包括在输入单元11内的具有第一功能的部件。该三维位置/角度传感器11-1测量将要被测量的物体(在图2所示例子中的三维位置/角度传感器11-1本身)在真实空间31中的位置和角度,并且该三维位置/角度传感器11-1将测量结果传给主控制器12。
对象(图像)33包含在显示器13上显示的三维虚拟空间(图像)32中,其中对象33与三维位置/角度传感器11-1相连。如前面所述,根据与实体对象14相关的信息定义三维虚拟空间32的坐标系统,因此实体对象14充当三维虚拟空间32的坐标系统的基准。
因此,如果用户在真实空间中参照实体对象14将三维位置/角度传感器11-1放置在理想的位置和角度时,该三维位置/角度传感器11-1的测量结果(该三维位置/角度传感器11-1本身的位置和角度)作为表示三维虚拟空间32中的对象33的位置和角度的规格信息输入给主控制器12。结果,对象33被放置在三维虚拟空间32中的指定位置和角度(相应于三维位置/角度传感器11-1的位置/角度)。也就是,在显示器13上显示包含被放置在用户指定的位置和角度上的对象33的三维虚拟空间32的图像。
图3显示信息处理设备1的主控制器12(图2)的各种功能的软件程序的实例,其执行以下功能:定义三维虚拟空间的坐标系统,利用已定义的坐标系统构造三维虚拟空间,以及控制相应于三维虚拟空间的图像的显示(该图像包括该对象的图像)(以下,控制显示此类图像的处理将被称为控制三维图像的处理)。
如图3所示,软件程序包括大量的模块,如坐标系统设置模块41、对象位置/角度确定模块42、虚拟空间构造模块43和显示控制模块44。每个模块有其各自的算法并根据该算法执行具体的操作。在需要时每个模块都被CPU21(图1)调用并执行。
坐标系统设置模块41根据预先输入的与实体对象14相关的特定信息(例如,实体对象14的形状、位置、角度等等)设置包括实体对象14的真实空间31中的第一坐标系统(例如,随后将参照图6描述的真实空间31的坐标系统(rx,ry,rz))。在生成的第一坐标系统的基础上,坐标系统设置模块41进一步设置与真实空间31相应的三维虚拟空间32的第二坐标系统(例如,随后将参照图7描述的三维虚拟空间32的坐标系统(vx,vy,vz))。坐标系统设置模块41还计算两个坐标系统的对应关系(坐标变换函数)。
对象位置/角度确定模块42根据利用上述输入单元11的第一功能输入的信息在设置模块41设置的第二坐标系统中确定对象33的位置和角度(以下,利用第一功能输入的信息将被称为位置/角度信息,以区别利用输入单元11的第二功能输入的信息,其中,在图3所示的例子中,三维位置/角度传感器11-1测量的结果就是位置/角度信息)。
在坐标系统设置模块41设置的第二坐标系统所定义的三维虚拟空间32中,虚拟空间构造模块43产生相应于从某一个特定视点(在图3所示例子中,由输入单元11输入的信息指定的视点)看到的景象的图像数据,并且虚拟空间构造模块43将生成的图像数据提供给显示控制模块44。下文中,产生此类的三维虚拟空间32的图像数据将被称为"构造三维虚拟空间32"。
当对象位置/角度确定模块42确定了第二坐标系统中对象33的位置和角度后,虚拟空间构造模块43构造在其中对象33被放置在该确定的位置和角度上的三维虚拟空间32,并且虚拟空间构造模块43将表示生成的三维虚拟空间32的数据提供给显示控制模块44。
显示控制模块44控制显示器13,以在其上显示与由虚拟空间构造模块43构造的三维虚拟空间32相应的图像。更具体地说,显示控制模块44将虚拟空间构造模块43提供的图像数据转换成适合显示器13的格式的图像信号,并将该生成的图像信号提供给显示器13。显示器13显示相应于收到的图像信号的图像(相应于三维虚拟空间32的图像)。
参照图4和图5所示流程图,下面将描述由信息处理设备1的主控制器12(图3)执行的、用以控制三维图像的显示处理的实例。
在这个例子里,假定信息处理设备1如图2所示配置。也就是说,特定三维位置/角度传感器11-1实现了具有输入单元11的第一功能的部件。在这个例子里,三维位置/角度传感器11-1检测该三维位置/角度传感器11-1自身的位置和角度(位置/角度信息),并将检测到的用特定于三维位置/角度传感器11-1的坐标系统(sx,sy,sz)表示的信息提供给主控制器12。图6显示特定于三维位置/角度传感器11-1的坐标系统(sx,sy,sz)的例子。
首先,在图4所示的步骤S1中,根据三维位置/角度传感器11-1的传感器信息,坐标系统设置模块41设置如图6所示的传感器坐标系统(sx,sy、sz)。即,在初始设置中,登记特定于三维位置/角度传感器11-1的传感器坐标系统(sx,sy,sz),以备其后的处理使用。
在步骤S2中,坐标系统设置模块41根据与实体对象14相关的信息(实体对象14的形状、位置、角度和/或其它信息),设置真实空间31中的第一坐标系统(rx,ry,rz)(以下,该类坐标系统将被称为实体对象坐标系统(rx,rx,rz),以将其与传感器坐标系统相区分)。
在本实施例中,假定实体对象14的形状、位置、角度已预先确定,并且表示实体对象14的形状、位置和角度的信息已经预先输入到主控制器12(并保存在如图1所示的存储单元26等设备中)。
应当注意的是,与实体对象14相关的信息并不局限于以上信息。例如,在步骤S2中,用户可以使用输入单元11(不同于三维位置/角度传感器11-1的诸如键盘的输入设备)输入信息以用作与实体对象14相关的信息。可以选择的,不使用三维位置/角度传感器11-1,而使用作为输入单元11的一个部件的照相机或类似的设备得到实体对象14的图像,并且该图像经过模式识别,由此产生用作与实体对象14相关的信息的信息。
在本实施例中,假定实体对象坐标系统(rx,ry,rz)如图6所示定义(设置)。在如图6所示的实体对象坐标系统(rx,ry,rz)中,实体对象14的纸张表面被作为X-Y平面,并且z轴取垂直于实体对象14的纸张表面的方向。原点(图6中所标的O点)取在实体对象14的左前角点(在图6中)。当然,X-Y平面和Z轴可以以不同于图6的方式定义,并且只要将某一个或多个与实体对象14相关的特定信息作为基准,就可以不同地定义坐标系统。
例如,当实体对象14是形状为矩形纸张的物体的情况下,原点可以取在任意一个角点,并且坐标轴可以沿着矩形纸张的侧边。当实体对象14为任意形状时,可将实体对象14上画的线或实体对象14上的不同颜色的分界或类似物作为基准。
这点也适用于随后描述的坐标系统的定义。
再参照图4,在步骤S3中,坐标系统设置模块41在利用实体对象14设置的实体对象坐标系统(rx,ry,rz)的基础上,设置在三维虚拟空间32中的第二坐标系统(vx,vy,vz)(以下称为虚拟空间坐标系统(vx,vy,vz))。
在本实施例中,虚拟空间坐标系统(vx,vy,vz)如图7所示设置。更具体地说,在图7所示的虚拟空间坐标系统(vx,vy,vz)中,设置了与如图6所示实体对象14相应的虚拟区域34(与纸张形状实体对象14所在的区域相对应),并且虚拟区域34的上表面(相应于实体对象14的表面)作为X-Y平面,并且Z轴取在与虚拟区域34的上表面垂直的方向。原点(图7中所标的O点)取在虚拟区域34上表面的左前角点(在图7中)。当然,X-Y平面和Z轴可以以不同于图6的方式定义,并且坐标系统也可定义为不同。
用户可参照作为基准面的实体对象14,通过移动三维位置/角度传感器11-1(图6)来移动三维虚拟空间32中的对象33。如果相应于实体对象14的图像显示在显示器13上,对于用户来说就可以更容易、直观地操作对象33。为了上述目的,就需要设置虚拟空间坐标系统(vx,vy、vz),使得相应于实体对象14的虚拟区域34显示在显示器13上。当然,虚拟区域可以明确地显示(以使用户可以看到)为如图8所示的房间地面等等或者可以显示为透明的区域(用户不能看到)。
再参照图4,在步骤S4中,坐标系统设置模块41确定坐标变换函数,该函数定义在步骤S1到S3中设置的传感器坐标系统(sx,sy,sz)、实体对象坐标系统(rx,ry,rz)和虚拟空间坐标系统(vx,vy,vz)间的对应关系。
也就是,这些坐标系统间的对应关系通过坐标变换函数以数学表达式的形式表现。
更具体说,在本实施例中,坐标变换函数由下列等式(1)和(2)给出。
等式(1)表示将传感器坐标系统(sx,sy,sz)变换为实体对象坐标系统(rx,ry,rz)的函数。在等式(1)中,m11到m44是变换矩阵的元素,通过该矩阵,传感器坐标系统(sx,sy,sz)变换为实体对象坐标系统(rx,ry,rz)。
等式(2)表示将实体对象坐标系统(rx,ry,rz)变换为虚拟空间坐标系统(vx,vy,vz)的函数。在等式(2)中,n11到n44是变换矩阵的元素,通过该矩阵,实体对象坐标系统(rx,ry,rz)被变换为虚拟空间坐标系统(vx,vy,vz)。
更具体地说,在本实施例中,坐标系统设置模块41通过例如最小二乘法确定m11到m44和n11到n44的各自的值,由此确定定义了传感器坐标系统(sx,sy,sz)、实体对象坐标系统(rx,ry,rz)和虚拟空间坐标系统(vx,vy,vz)间的对应关系的坐标变换函数。
应当注意的是,在步骤S4中确定的坐标变换函数和确定该坐标变换函数的方法并不局限于本实施例所描述的。例如,可以通过使用模拟人脑功能的神经网络的非线性变换来确定坐标变换函数。
如上所述,坐标系统设置模块41根据实体对象41,通过执行步骤S1到S4的处理,定义虚拟空间坐标系统(vx,vy,vz)。
在步骤S5中,坐标系统设置模块41定义虚拟空间坐标系统(vx,vy,vz)之后,虚拟空间构造模块43设置视点。该视点可以以任意方式设置,并可以采用预先登记的视点。在本特定的实施例中,假定根据输入单元11的第二功能输入的信息(用于设置视点的特定信息)设置该视点。
在步骤S6中,虚拟空间构造模块43根据虚拟空间坐标系统(vx,vy,vz)和前一步设置的视点来构造如图7所示的三维虚拟空间32。
在步骤S7中,显示控制模块44在显示器13上显示由虚拟空间构造模块43在步骤S6中构造的三维虚拟空间32的图像,作为初始图像。
这里,我们假定图8显示的图像作为初始图像显示在显示器13上。在图8的例子中,三维虚拟空间32构造在根据实体对象14(以下,称为纸张14-1,因为本例中实体对象14是纸张状的物体)定义的虚拟空间坐标系统(vx,vy,vz)中,并且相应于构造的三维虚拟空间32的图像作为初始图像显示在显示器13上。
在这个三维虚拟空间里32,显示了具有由相应于纸张14-1的虚拟区域34形成的地面的房间。在三维虚拟空间32中显示地面和墙仅仅是为了指示特定区域,并且它们不是必须显示的。
然而,最好显示地面,因为地面明确地指示了相应于纸张14-1的虚拟区域34。如后面将参照图9和图10的描述,显示相应于纸张14-1的地面34(虚拟区域)使得能够根据纸张14-1和地面34间的对应关系以及根据关于用作基准面的纸张14-1的位置和角度,轻松并且直观地识别虚拟空间坐标系统(vx,vy,vz)中的对象33的位置和角度与实体对象坐标系统(rx,ry,rz)中的三维位置/角度传感器11-1的位置和角度之间的对应关系。
当用户想在三维虚拟空间32中将对象33放置在需要的位置和角度上时,用户确定关于地面34的相对位置和角度,并且关于纸张14-1、相应于确定的位置和角度简单地将三维位置/角度传感器11-1放置到相应的地方和角度。结果,如随后将要描述的,对象33被放置在上述的关于三维虚拟空间32的地面34的位置和角度上,其中,该位置和角度相应于三维位置/角度传感器11-1关于纸张14-1的相对位置和角度。
在图8所示的例子中,在纸张14-1上画了椅子51和书桌52的图片。在虚拟空间坐标系统(vx,vy,vz)(三维虚拟空间32)中,在相应于实体对象坐标系统(rx,ry,rz)中椅子51的图片的位置的位置处放置椅子61的三维模型。类似地,在虚拟空间坐标系统(vx,vy,vz)(三维虚拟空间32)中,在相应于实体对象坐标系统(rx,ry,rz)中书桌52的图片的位置的位置处放置三维模型62。
在图8所示的例子中,为了使用户可以轻松且直观地识别椅子51的图片和书桌52的图片间的对应关系,使用了形状类似于椅子51的图片的椅子61的三维模型和形状类似于书桌52的图片的书桌62的三维模型。如果上述目的不是必需的,在放置椅子61的三维模型和书桌62的三维模型的地方(在虚拟空间坐标系统(vx,vy,vz)中)可以放置简单的三维模型。即,三维模型的形状不局限于如图8所示例子中的形状,而是可以采用任意形状。
有必要预先用任意方式、任意输入装置向主控制器12输入椅子61的三维模型和书桌62的三维模型。
在初始图像已显示在显示器13上(如图8所示的本例中)的状态下,如果三维位置/角度传感器11-1(图2)在真实空间31中移动,对象33(图2)也像前面所描述的那样响应于三维位置/角度传感器11-1的动作,在三维虚拟空间32中移动。响应三维位置/角度传感器11-1的动作(即响应用户的操作)而移动对象33的处理在如图5所示的步骤S8到步骤S15中进行。
例如,在图8的状态中,我们假定三维位置/角度传感器11-1的位置位于画在纸张14-1上的书桌52的图片上(即,三维位置/角度传感器11-1的状态从如图8所示的状态变化为随后参照图9描述的状态)。
作为响应,在图5的步骤S8中,位置/角度信息(在此特定的实施例中,为在传感器坐标系统(sx,sy,sz)中表示的三维位置/角度传感器11-1的位置和角度)由三维位置/角度传感器11-1提供给位置/角度确定模块42。
在步骤S9中,对象位置/角度确定模块42将收到的位置/角度信息从传感器坐标系统(sx,sy,sz)转换到实体对象坐标系统(rx,ry,rz)。更具体地说,使用等式(1)将位置/角度的坐标从传感器坐标系统(sx,sy,sz)转换到实体对象坐标系统(rx,ry,rz)。
在步骤S10中,对象位置/角度确定模块42进一步将位置/角度信息的坐标从实体对象坐标系统(rx,ry,rz)转换到虚拟空间坐标系统(vx,vy,vz)。更具体地说,使用等式(2)将位置/角度信息的坐标从实体对象坐标系统(rx,ry,rz)转换到虚拟空间坐标系统(vx,vy,vz)。
虽然在图5所示实施中,步骤S9和S10独立执行,但是步骤S9和S10可以同时执行。为此目的,在步骤S4中(图4),确定由等式(1)和等式(2)合并而成的等式(3)表示的坐标变换函数,来代替确定等式(1)和等式(2)的形式的各自独立的坐标变换函数。
等式(3)表示直接将坐标从传感器坐标系统(sx,sy,sz)转换到虚拟空间坐标系统(vx,vy,vz)的函数。在等式(3)中,m11到m44是类似于等式(1)中的将传感器坐标系统(sx,sy,sz)变换为实体对象坐标系统(rx,ry,rz)的变换矩阵中的元素的元素,n11到n44是类似于等式(2)中的将实体对象坐标系统(rx,ry,rz)变换为虚拟空间坐标系统(vx,vy,vz)的变换矩阵中的元素的元素。
对象位置/角度确定模块42执行相应于步骤S9和步骤S10的组合的处理,用以利用等式(3)直接(单步操作)将输入的位置/角度信息的坐标从传感器坐标系统(sx,sy,sz)变换到虚拟空间坐标系统(vx,vy,vz)。
在步骤S11中,对象位置/角度确定模块42根据变换成虚拟空间坐标系统(vx,vy,vz)的位置/角度信息,确定对象33的位置和角度。在本实施例中,由于对象33与三维位置/角度传感器11-1链接,直接采用变换成虚拟空间坐标系统(vx,vy,vz)的位置/角度信息作为虚拟空间坐标系统(vx,vy,vz)中的对象33的位置和角度。
在步骤S12中,虚拟空间构造模块43重建三维虚拟空间32,该三维虚拟空间32包括位于由对象位置/角度确定模块42确定的位置和角度(在虚拟空间坐标系统(vx,vy,vz)中)的对象33。
在步骤S13中,显示控制模块44在显示器13上显示由虚拟空间构造模块43在步骤S12中构造的三维虚拟空间32。
在该特定情况下,如上所述,三维位置/角度传感器11-1位于如图9所示画在纸张14-1上的书桌52的图片上。也就是,三维位置/角度传感器11-1与实体对象坐标系统(rx,ry,rz)的X-Y平面接触。因此,虽然并没有在图9中示出,但是显示了三维虚拟空间32中的对象33,这样,对象33就与地面(虚拟区域)34接触,并且由此对象33穿透书桌62的三维模型。在用户将三维位置/角度传感器11-1放在画在纸张14-1上的书桌52的图片上,以在椅子61的三维模型和书桌62的三维模型中仅仅选择书桌62的三维模型的情况下,采用这种显示对象33的方法没有任何问题。
然而,在用户为了将对象33放置在书桌62的三维模型上,而将三维位置/角度传感器11-1放在画在纸张14-1上的书桌52图片上的情况下,上述显示对象33的方式不能实现用户的意图。
在这种情况下,就需要在关于三维模型间是否穿透进行判断后,再由虚拟空间构造模块43重建三维虚拟空间32。用这种方式重建生成的三维虚拟空间32的图像被显示在显示器13上,例如,如图9所示。也就是,显示(在显示器13上)三维虚拟空间32中的对象33,这样,对象33就被放置在书桌62的三维模型上,而并没有穿透书桌62的三维模型。
再参照图5,在步骤S14中,显示控制模块44确定是否满足结束处理的条件。
在步骤S14中检查的结束处理的条件并不局限于某一特定条件。例如,用户输入结束命令或检测到软件或硬件的特殊状态如存储单元26(图1)的可用存储空间短缺都可作为结束处理的条件。
如果步骤S14中确定满足结束处理的条件,则处理结束。
然而,如果步骤S14中确定没满足结束处理的条件,则处理回到步骤S8并从步骤S8重复执行。
在此,我们假定用户例如将三维位置/角度传感器11-1从画在纸张14-1上的书桌52的图片的位置移动到如图10所示的椅子51的图片上的位置。即,三维位置/角度传感器11-1从图9所示的状态变化到图10所示的状态。
在这种情况下,步骤S14中确定没有发出结束命令,这样就重复步骤S8到S13。
因此,对象位置/角度确定模块42再次获得三维位置/角度传感器11-1的位置/角度信息,将其坐标转换到虚拟空间坐标系统(vx,vy,vz),并将在虚拟空间坐标系统(vx,vy,vz)中生成的位置和角度作为对象33的新位置和角度。然后,虚拟空间构造模块43重建包括位于新确定的位置和角度的对象33的三维虚拟空间32。显示控制模块44在显示器13上显示重建的三维虚拟空间32的图像。
更具体地说,在此特定情况下,在显示器13上显示如图10所示的图像。即,在显示在显示器13上的图像中,在三维虚拟空间32中的对象33从书桌62的三维模型上的先前位置移到椅子61的三维模型上的新位置。
在图10所示的例子中,和图9所示例子一样,也执行是否穿透的判断,对象33被放置在椅子61的三维模型上,使得不发生穿透。然而,如前面所述,并不是必须判断是否穿透。但是,如果不执行穿透的判断,显示对象33使得其与地面(虚拟区域)34接触,并且对象33穿透椅子61的三维模型。
通过以上述方式反复执行步骤S8到S13,三维虚拟空间32中的对象33通过与用户移动三维位置/角度传感器11-1的路径相对应的路径,从书桌62的三维模型移动到椅子61的三维模型,此过程与三维位置/角度传感器11-1的运动实际上没有延迟。
虽然以上已经参照如图2所示配置的信息处理设备1的例子描述了本发明,但是本发明并不局限于如图2所示的特定例子,可以用各种方式实现本发明。
例如,在虚拟空间坐标系统(vx,vy,vz)中用作参照物的实体对象14的形式并不局限于某一特定形式,诸如以上采用的纸张14-1,实体对象14可以有任意的形状,只要它至少在预定方向上具有大于预定值的面积。
例如,如图11所示,由大量纸张构成的书14-2也可以用作实体对象14。在这种情况下,信息处理设备1的主控制器12(图1)可以通过采用书14-2的页的表面作为X-Y平面,并且Z轴取垂直于该页表面的方向来定义真实空间31的实体对象坐标系统(rx,ry,rz)。此外,主控制器12根据定义的实体对象坐标系统(rx,ry,rz)定义三维虚拟空间32的虚拟空间坐标系统(vx,vy,vz)。当然,定义坐标系统的方式并不局限于上述方式,可以用各种方式定义坐标系统。
结果,如图11所示,三维虚拟空间32显示在显示器13上,使得与书14-2的该页表面(X-Y平面)相应的虚拟区域34显示为地面。如果三维位置/角度传感器11-1放在书桌52的图片上,对象33就被放在三维虚拟空间32中书桌62的三维模型上(在显示器13上显示的图像中)。在图11所示的例子中,假定执行了是否穿透的判断。
在如图8到图10的纸张14-1作为实体对象14的情况中,在三维虚拟空间32中只定义一个场景。相反,如图11所示,如果由大量纸张构成的书14-2被用作实体对象14,可通过翻书14-2的各个页在三维虚拟空间中定义很多不同的场景(画在各页上)。
如图12所示,包括底板71和放置在底板71上的模型72及73的对象14-3可用作实体对象14。底板71的材料不局限于如用作纸张14-1(图8到10)或书14-2(图11)的材料的纸,而是可以采用任意材料,只要它有面积就可以。
在这种情况下,如图12所示,三维虚拟空间32显示在显示器13上,使得与底板71相应的虚拟区域34就显示为地面。
在实体对象14不仅包括用来定义坐标系统的一个部件(图12所示例子中的底板71),还包括另一个不用来定义坐标系统的部件(图12所示例子中的模型72和模型73)的情况下,如图12所示实体对象14-3的情况,就需要三维虚拟空间32包括有相似形状的三维模型(在图12所示的例子中,相应于房子的模型72的房子的三维模型81和相应于树模型73的树的三维模型82),这是由于那些模型使用户可以轻松地识别真实空间31和三维虚拟空间32问的对应关系。即,那些模型使用户通过关于模型72或73进行操作而可以更轻松和直观地在三维虚拟空间32中进行操作。
具有如图13所示的任意形状的模型14-4也可被用作实体对象14。由于实体对象坐标系统(rx,ry,rz)可以以如前面所述的任意方式在真实空间31中定义,信息处理设备1的主控制器12(图1)可以根据具有任意形状的对象如模型14-4来定义实体对象坐标系统(rx,ry,rz)。在图13所示的例子中,可以通过如将模型14-4投影到地面的表面并采用生成的投影平面作为X-Y平面的方法定义真实空间31的实体对象坐标系统(rx,ry,rz)。当然,如前面所述,定义X、Y和Z轴的方法并不局限于这里所采用的方式。
在图13所示的例子中,三维虚拟空间32(三维虚拟空间32的图像)显示在显示器13上,使得与在真实空间31中定义的X-Y平面(模型14-4的投影平面)相应的虚拟区域34就显示在显示器13的屏幕的底部。
在图13所示的例子中,虚拟区域34表现得并不象前面例子中的虚拟区域34由底面或地面明确地表示。在这种情况下,就需要在三维虚拟空间32中显示形状类似于模型14-4(作为参照物)的三维模型91,如图13所示。这使用户能轻松地识别真实空间31和三维虚拟空间32间的对应关系,如图12中例子所示。因此,与前面的例子一样,用户可以利用模型14-4作为参照物在三维虚拟空间32中轻松且直观地进行操作。
不仅实体对象14而且具有第一功能的输入单元11也可以用多种方式实现。
例如,在图2所示的例子中,由于用来表示由三维位置/角度传感器11-1输出的位置/角度信息的坐标系统(传感器坐标系统(sx,sy,sz))不同于参照实体对象14定义的真实空间31的坐标系统(实体对象坐标系统(rx,ry,rz)),信息处理设备1通过图4中步骤S1和S4及图5中步骤S9,将坐标系统从传感器坐标系统(sx,sy,sz)变换到实体对象坐标系统(rx,ry,rz)。
坐标系统变换使用户能够参照实体对象14(使用真实空间座标系统(rx,ry,rz))轻松地操作三维位置/角度传感器11-1,而即使三维位置/角度传感器11-1有其自己的传感器坐标系统(sx,sy,sz),也无需了解传感器坐标系统(sx,sy,sz)。
在用作具有第一功能的输入单元11的输入设备输出以坐标系统(传感器坐标系统(sx,sy,sz))表示的位置/角度信息,且该坐标系统(传感器坐标系统(sx,sy,sz))与真实空间31的坐标系统相同的情况下,不必将坐标系统从传感器坐标系统(sx,sy,sz)变换到实体对象坐标系统(rx,ry,rz)。
如图14所示,独立于三维位置/角度传感器的任意实体对象101可被用作与对象33相连的实体对象,并可使用相机11-2等等输入实体对象101在真实空间31中的位置和角度。即,在图14所示的例子中,照相机11-2充当具有第一功能的输入单元11,并且主控制器12通过在照相机11-2拍摄的实体对象101的图像上进行图像处理,检测在真实空间31中的实体对象101的位置和角度。
虽然任意的实体对象都能被用作实体对象101,但是最好使用那些能使用户记起对象33的实体对象,因为实体对象101与对象33相连。即,最好实体对象101与对象33具有相似的特征。在图14所示的例子中,鉴于以上所述,使用形状类似于对象33的对象作为实体对象101。对象33的特征不仅包括形状,还有可以是其它的特征,如颜色或在三维虚拟空间32中的相对大小,由此,就可使用具有与对象33的特征之一类似的特征的对象作为实体对象101。
换句话说,尽管实体对象101自身在信息处理设备1中没有特定功能,但是与对象33类似的特征能使用户记起对象33。如果用户在真实空间31中改变对象101的位置或角度,在三维虚拟空间32中的对象33的位置或角度就根据实体对象101的位置或角度的变化而变化,由此,实体对象101就可以在实际上起到作为与照相机11-2协同工作的输入设备(可代替三维位置/角度传感器11-1使用)的作用。在该情况下,对于输入单元11,不仅通过照相机11-2而且还可以通过照相机11-2和实体对象101的结合来实现具有第一功能的部件。
如上所述,在本发明的信息处理设备中,参照特定实体对象在真实空间中定义第一坐标系统(例如,实体对象坐标系统(rx,ry,rz)),并且在第一坐标系统的基础上在三维虚拟空间中定义第二坐标系统(例如,虚拟空间坐标系统(vx,vy,vz)),这样用户可利用实体对象作参照物在三维虚拟空间中轻松且直观地操作对象。这一点很有用,尤其是用户可在一个远离视点的方向上获得感知的能力,而其它的方法不能获得该能力。
在传统技术中,用户操作的输入设备有特定于输入设备且与三维虚拟空间中的第二坐标系统无关的第三坐标系统(例如,在三维位置/角度传感器被用作输入设备的情况下的传感器坐标系统(sx,sy,sz)),由此用户不能直观地操作输入设备。这使得用户很难操作三维虚拟空间中的对象。
相反,在本发明中,第一坐标系统参照实体对象定义,并且三维虚拟空间中的第二坐标系统参照第一坐标系统定义。因此,在第二坐标系统中表示的三维虚拟空间和在第一坐标系统中表示的真实空间相互对应。在该情况下,操作的输入设备的位置和角度在直接与第二坐标系统相关的第一坐标系统中表示,由此,用户可轻松和直观地在表示在第二坐标系统中的三维虚拟空间中操作对象,(即使传统技术的输入设备有第三坐标系统的情况下,由于该坐标系统已被变换,用户仍可操作输入设备而无须了解该第三坐标系统,)。
当由软件执行该处理序列时,可从存储介质或通过网络将该软件程序安装到作为专用硬件的计算机或将该软件程序安装到能够根据安装在其上的不同程序执行各种程序的通用计算机上。
可用于上述目的的存储介质的例子包括,如图1所示,可移动存储介质(包装介质)29,例如磁盘(如,软盘)、光盘(如,CD-ROM(光盘-只读存储器)或DVD(数字化通用盘))、磁光盘(如,MD(小磁盘))和半导体存储器,其中存储了程序且独立于计算机提供给用户。程序也可以通过预装在嵌入式ROM22或如计算机中的硬盘的存储单元26中而提供给用户。
图3所示的坐标系统设置模块41、对象位置/角度确定模块42、虚拟空间构造模块43和显示控制模块44并不局限于特定类型,只要达到它们的功能就可以。例如,这些模块可用硬件装置实现。当用硬件实现这些模块时,厂商可以制造与坐标系统设置模块41、对象位置/角度测定模块42、虚拟空间构造模块43和显示控制模块44相应的硬件,并将它们如图3所示彼此连接,从而以不同于图1所示的方式实现了本发明的信息处理设备1。
上述模块并不局限于图3中的例子,而是可以不同的方式配置(它们可以被分成子模块),只要它们作为一个整体能执行与图4和图5中的流程图相一致的过程就行。或者,这些模块可以合并成具有单一算法的单个软件程序。
在本说明书中,在存储于存储介质中的程序中描述的步骤,可以根据程序的次序按时间顺序执行,或并行或单独执行。
可从上述说明书中可以理解,本发明使构造三维虚拟空间并显示相应于所构造的三维虚拟空间的图像成为可能。用户能轻松并直观地操作三维虚拟空间中的信息。
Claims (9)
1.一个用于控制三维虚拟空间中的图像的显示的信息处理设备,其包括:
设置装置,用于在预先输入的与一第一实体对象相关的信息的基础上,设置真实空间中的第一坐标系统,并且在该第一坐标系统的基础上,设置所述三维虚拟空间中的第二坐标系统,所述真实空间中包含该第一实体对象,所述三维虚拟空间相应于所述真实空间;
构造装置,用于利用所述设置装置设置的第二坐标系统构造所述三维虚拟空间;以及
显示控制装置,用于控制相应于由所述构造装置构造的所述三维虚拟空间的图像的显示。
2.根据权利要求1所述的信息处理设备,其中所述第一实体对象是至少在预定方向上具有大于预定值的横截面积的实体对象。
3.根据权利要求2所述的信息处理设备,其中所述第一实体对象是纸张形状的实体对象或是一摞纸张形状的实体对象。
4.根据权利要求1所述的信息处理设备,进一步包括:
输入装置,用于输入指定所述三维虚拟空间中的特定虚拟对象的位置和角度的规格信息;以及
确定装置,用于根据所述输入装置输入的所述规格信息,在所述第二坐标系统中确定所述虚拟对象的位置和角度,
其中,所述构造装置构造三维虚拟空间,所述三维虚拟空间包括位于由所述确定装置确定的第二坐标系统中的所述位置和角度的虚拟对象。
5.根据权利要求4所述的信息处理设备,其中
如果相应于所述虚拟对象的第二实体对象位于所述真实空间中,所述输入装置利用不同于所述第一坐标系统的一第三坐标系统测量所述第二实体对象在所述真实空间中的位置和角度,并输入所述测量结果作为规格信息;和
所述确定装置将由所述输入装置输入的所述第二实体对象的位置和角度的坐标从第三坐标系统转换到第二坐标系统,其还采用转换到第二坐标系统中的第二实体对象的位置和角度作为第二坐标系统中的所述虚拟对象的位置和角度。
6.根据权利要求5所述的信息处理设备,其中所述输入装置使用所述输入装置本身的至少一部分作为所述第二实体对象。
7.根据权利要求5所述的信息处理设备,其中所述输入装置使用具有与所述虚拟对象的特定特征相似的特征的实体对象作为第二实体对象。
8.根据权利要求1所述的信息处理设备,其中所述构造装置构造所述三维虚拟空间,使得在显示控制装置的控制下显示的图像至少包括相应于所述第一实体对象的虚拟区域。
9.一种用于控制三维虚拟空间中的图像显示的信息处理方法,包括步骤:
在预先输入的与实体对象相关的信息的基础上,设置真实空间中的第一坐标系统,并且在所述第一坐标系统的基础上,设置所述三维虚拟空间中的第二坐标系统,所述真实空间包括所述实体对象,所述三维虚拟空间相应于所述真实空间;
利用所述设置步骤中设置的所述第二坐标系统构造所述三维虚拟空间;以及
控制相应于在所述构造步骤中构造的所述三维虚拟空间的图像的显示。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002368664A JP2004199496A (ja) | 2002-12-19 | 2002-12-19 | 情報処理装置および方法、並びにプログラム |
JP368664/2002 | 2002-12-19 | ||
JP368664/02 | 2002-12-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1508759A CN1508759A (zh) | 2004-06-30 |
CN1293519C true CN1293519C (zh) | 2007-01-03 |
Family
ID=32677125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2003101097720A Expired - Fee Related CN1293519C (zh) | 2002-12-19 | 2003-12-19 | 用于处理信息的设备、方法和程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7724250B2 (zh) |
JP (1) | JP2004199496A (zh) |
CN (1) | CN1293519C (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101727175B (zh) * | 2008-10-29 | 2012-07-04 | 财团法人工业技术研究院 | 计算机系统及其控制方法 |
CN102947766A (zh) * | 2010-04-23 | 2013-02-27 | 西门子公司 | 将制造装置的空间结构输入计算机辅助的规划程序中的方法和其优化 |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7254271B2 (en) * | 2003-03-05 | 2007-08-07 | Seadragon Software, Inc. | Method for encoding and serving geospatial or other vector data as images |
US7042455B2 (en) * | 2003-05-30 | 2006-05-09 | Sand Codex Llc | System and method for multiple node display |
US7546419B2 (en) * | 2004-06-01 | 2009-06-09 | Aguera Y Arcas Blaise | Efficient data cache |
US7930434B2 (en) * | 2003-03-05 | 2011-04-19 | Microsoft Corporation | System and method for managing communication and/or storage of image data |
US7912299B2 (en) * | 2004-10-08 | 2011-03-22 | Microsoft Corporation | System and method for efficiently encoding data |
US7075535B2 (en) * | 2003-03-05 | 2006-07-11 | Sand Codex | System and method for exact rendering in a zooming user interface |
US7133054B2 (en) * | 2004-03-17 | 2006-11-07 | Seadragon Software, Inc. | Methods and apparatus for navigating an image |
US20060235941A1 (en) * | 2005-03-29 | 2006-10-19 | Microsoft Corporation | System and method for transferring web page data |
JP4304639B2 (ja) * | 2007-01-16 | 2009-07-29 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2008210276A (ja) * | 2007-02-27 | 2008-09-11 | Canon Inc | 三次元モデル情報の生成方法及び装置 |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
TWI370418B (en) * | 2008-10-27 | 2012-08-11 | Ind Tech Res Inst | Computer system and controlling method thereof |
DE102009007477A1 (de) * | 2009-01-30 | 2010-08-05 | Siemens Aktiengesellschaft | Modellaufbau einer Fertigungsstätte mit maßstabsgerechten Modellen von Fertigungseinrichtungen sowie Verfahren zur Eingabe eines räumlichen Aufbaus von Fertigungseinrichtungen in ein rechnergestütztes Planungsprogramm |
US20110164032A1 (en) * | 2010-01-07 | 2011-07-07 | Prime Sense Ltd. | Three-Dimensional User Interface |
US9201501B2 (en) | 2010-07-20 | 2015-12-01 | Apple Inc. | Adaptive projector |
JP5791131B2 (ja) | 2010-07-20 | 2015-10-07 | アップル インコーポレイテッド | 自然な相互作用のための相互作用的現実拡張 |
US8666978B2 (en) | 2010-09-16 | 2014-03-04 | Alcatel Lucent | Method and apparatus for managing content tagging and tagged content |
US20120067954A1 (en) * | 2010-09-16 | 2012-03-22 | Madhav Moganti | Sensors, scanners, and methods for automatically tagging content |
US8655881B2 (en) | 2010-09-16 | 2014-02-18 | Alcatel Lucent | Method and apparatus for automatically tagging content |
US8533192B2 (en) | 2010-09-16 | 2013-09-10 | Alcatel Lucent | Content capture device and methods for automatically tagging content |
US8959013B2 (en) | 2010-09-27 | 2015-02-17 | Apple Inc. | Virtual keyboard for a non-tactile three dimensional user interface |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
US9285874B2 (en) | 2011-02-09 | 2016-03-15 | Apple Inc. | Gaze detection in a 3D mapping environment |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US9122311B2 (en) | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
US9218063B2 (en) | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
WO2013032955A1 (en) | 2011-08-26 | 2013-03-07 | Reincloud Corporation | Equipment, systems and methods for navigating through multiple reality models |
DE102011112618A1 (de) * | 2011-09-08 | 2013-03-14 | Eads Deutschland Gmbh | Interaktion mit einem dreidimensionalen virtuellen Szenario |
US9606992B2 (en) * | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
CN104137030A (zh) * | 2011-12-28 | 2014-11-05 | 菲托尼克斯公司 | 通过包含激光扫描显微镜的测量装置测量三维样品的方法及该测量装置 |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
CN104246682B (zh) | 2012-03-26 | 2017-08-25 | 苹果公司 | 增强的虚拟触摸板和触摸屏 |
US20140002443A1 (en) * | 2012-06-29 | 2014-01-02 | Blackboard Inc. | Augmented reality interface |
CN102901488B (zh) * | 2012-09-07 | 2015-12-16 | 曹欢欢 | 一种自动生成房间平面图的方法及设备 |
US20140078137A1 (en) * | 2012-09-14 | 2014-03-20 | Nagabhushanam Peddi | Augmented reality system indexed in three dimensions |
WO2014129105A1 (ja) * | 2013-02-22 | 2014-08-28 | ソニー株式会社 | ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ及びヘッドマウントディスプレイ制御プログラム |
JP2014191718A (ja) | 2013-03-28 | 2014-10-06 | Sony Corp | 表示制御装置、表示制御方法および記録媒体 |
JP5981591B1 (ja) * | 2015-03-17 | 2016-08-31 | 株式会社コロプラ | 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム |
BE1023079B1 (fr) * | 2015-10-06 | 2016-11-17 | Next-Tech Sprl | Système de conception pour aider à la conception d'un aménagement d'un espace |
JP6888411B2 (ja) * | 2017-05-15 | 2021-06-16 | 富士フイルムビジネスイノベーション株式会社 | 三次元形状データの編集装置、及び三次元形状データの編集プログラム |
US11113887B2 (en) * | 2018-01-08 | 2021-09-07 | Verizon Patent And Licensing Inc | Generating three-dimensional content from two-dimensional images |
CN110083226B (zh) * | 2018-01-25 | 2022-08-09 | 财团法人资讯工业策进会 | 虚空间定位方法及装置 |
JP2021051537A (ja) * | 2019-09-25 | 2021-04-01 | ミストウォーカー・コーポレーション | 画像表示システム、方法、およびプログラム |
US11373374B2 (en) * | 2019-11-07 | 2022-06-28 | Volvo Car Corporation | Aligning the augmented reality or virtual reality world with the real world using natural position understanding |
US11335070B2 (en) * | 2020-02-10 | 2022-05-17 | Magic Leap, Inc. | Dynamic colocation of virtual content |
CN118276683A (zh) | 2020-02-14 | 2024-07-02 | 奇跃公司 | 工具桥 |
EP4104002A4 (en) | 2020-02-14 | 2023-08-09 | Magic Leap, Inc. | 3D OBJECT ANNOTATION |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6278418B1 (en) * | 1995-12-29 | 2001-08-21 | Kabushiki Kaisha Sega Enterprises | Three-dimensional imaging system, game device, method for same and recording medium |
US6384823B1 (en) * | 1999-01-05 | 2002-05-07 | C. Michael Donoghue | System and method for real-time mapping and transfer of coordinate position data from a virtual computer-aided design workspace to the real workspace |
Family Cites Families (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4902229A (en) * | 1984-01-23 | 1990-02-20 | Ez Designer, Inc. | Modular layout assembly |
JPS62229380A (ja) * | 1986-03-29 | 1987-10-08 | Toshiba Corp | 3次元物体表示装置 |
JPH0194420A (ja) | 1987-10-06 | 1989-04-13 | Shiga Pref Gov | コンピュータへの3次元入力装置 |
US5237647A (en) * | 1989-09-15 | 1993-08-17 | Massachusetts Institute Of Technology | Computer aided drawing in three dimensions |
US5355314A (en) * | 1990-03-26 | 1994-10-11 | Hammond Incorporated | Method and apparatus for automatically generating symbol images against a background image without collision utilizing distance-dependent attractive and repulsive forces in a computer simulation |
US5261041A (en) * | 1990-12-28 | 1993-11-09 | Apple Computer, Inc. | Computer controlled animation system based on definitional animated objects and methods of manipulating same |
US5227985A (en) * | 1991-08-19 | 1993-07-13 | University Of Maryland | Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object |
JP3318680B2 (ja) * | 1992-04-28 | 2002-08-26 | サン・マイクロシステムズ・インコーポレーテッド | 画像生成方法及び画像生成装置 |
US5287437A (en) * | 1992-06-02 | 1994-02-15 | Sun Microsystems, Inc. | Method and apparatus for head tracked display of precomputed stereo images |
US5629594A (en) * | 1992-12-02 | 1997-05-13 | Cybernet Systems Corporation | Force feedback system |
US5495576A (en) * | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5394202A (en) * | 1993-01-14 | 1995-02-28 | Sun Microsystems, Inc. | Method and apparatus for generating high resolution 3D images in a head tracked stereo display system |
US5347459A (en) * | 1993-03-17 | 1994-09-13 | National Research Council Of Canada | Real time collision detection |
US5297061A (en) * | 1993-05-19 | 1994-03-22 | University Of Maryland | Three dimensional pointing device monitored by computer vision |
US5418712A (en) * | 1993-06-04 | 1995-05-23 | Matsushita Electric Industrial Co., Ltd. | Manipulation performance evaluating apparatus for evaluating manipulation performance of a commodity having operating parts |
US6411266B1 (en) * | 1993-08-23 | 2002-06-25 | Francis J. Maguire, Jr. | Apparatus and method for providing images of real and virtual objects in a head mounted display |
US5423554A (en) * | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
JP2552427B2 (ja) * | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US6004134A (en) * | 1994-05-19 | 1999-12-21 | Exos, Inc. | Interactive simulation including force feedback |
US5846086A (en) * | 1994-07-01 | 1998-12-08 | Massachusetts Institute Of Technology | System for human trajectory learning in virtual environments |
US5766016A (en) * | 1994-11-14 | 1998-06-16 | Georgia Tech Research Corporation | Surgical simulator and method for simulating surgical procedure |
US5548694A (en) * | 1995-01-31 | 1996-08-20 | Mitsubishi Electric Information Technology Center America, Inc. | Collision avoidance system for voxel-based object representation |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
US6072902A (en) * | 1995-05-03 | 2000-06-06 | Apple Computer, Inc. | Method and system for color matching between digital display devices |
US6016147A (en) * | 1995-05-08 | 2000-01-18 | Autodesk, Inc. | Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device |
JP3029553B2 (ja) | 1995-05-22 | 2000-04-04 | 株式会社ハドソン | 3次元図形処理装置 |
US5913727A (en) * | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
RU2109336C1 (ru) * | 1995-07-14 | 1998-04-20 | Нурахмед Нурисламович Латыпов | Способ погружения пользователя в виртуальную реальность и устройство для его реализации |
JP3622094B2 (ja) | 1995-10-05 | 2005-02-23 | 株式会社日立製作所 | 地図更新支援装置および地図情報の編集方法 |
US6308565B1 (en) * | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US5847710A (en) * | 1995-11-24 | 1998-12-08 | Imax Corp. | Method and apparatus for creating three dimensional drawings |
US6028593A (en) * | 1995-12-01 | 2000-02-22 | Immersion Corporation | Method and apparatus for providing simulated physical interactions within computer generated environments |
US5923318A (en) * | 1996-04-12 | 1999-07-13 | Zhai; Shumin | Finger manipulatable 6 degree-of-freedom input device |
US6084587A (en) * | 1996-08-02 | 2000-07-04 | Sensable Technologies, Inc. | Method and apparatus for generating and interfacing with a haptic virtual reality environment |
JP3558104B2 (ja) * | 1996-08-05 | 2004-08-25 | ソニー株式会社 | 3次元仮想物体表示装置および方法 |
US6151009A (en) * | 1996-08-21 | 2000-11-21 | Carnegie Mellon University | Method and apparatus for merging real and synthetic images |
US6308144B1 (en) * | 1996-09-26 | 2001-10-23 | Computervision Corporation | Method and apparatus for providing three-dimensional model associativity |
US6069634A (en) * | 1997-01-08 | 2000-05-30 | Mitsubishi Electric Information Technology Center America, Inl | System for rapidly deforming a graphical object |
WO1998033151A1 (fr) * | 1997-01-24 | 1998-07-30 | Sony Corporation | Dispositif, procede et support permettant de generer des donnees graphiques |
US6307563B2 (en) * | 1997-04-30 | 2001-10-23 | Yamaha Corporation | System for controlling and editing motion of computer graphics model |
US5903271A (en) * | 1997-05-23 | 1999-05-11 | International Business Machines Corporation | Facilitating viewer interaction with three-dimensional objects and two-dimensional images in virtual three-dimensional workspace by drag and drop technique |
US6034739A (en) * | 1997-06-09 | 2000-03-07 | Evans & Sutherland Computer Corporation | System for establishing a three-dimensional garbage matte which enables simplified adjusting of spatial relationships between physical and virtual scene elements |
US5883628A (en) * | 1997-07-03 | 1999-03-16 | International Business Machines Corporation | Climability: property for objects in 3-D virtual environments |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6226004B1 (en) * | 1997-09-12 | 2001-05-01 | Autodesk, Inc. | Modeling system using surface patterns and geometric relationships |
FR2768528B1 (fr) * | 1997-09-18 | 2001-01-12 | Aerospatiale | Peripherique d'entree pour ordinateur, a commutation automatique entre des modes de fonctionnement 3d et 2d, et son procede d'interaction avec un ecran d'affichage |
US6191796B1 (en) * | 1998-01-21 | 2001-02-20 | Sensable Technologies, Inc. | Method and apparatus for generating and interfacing with rigid and deformable surfaces in a haptic virtual reality environment |
JP3415438B2 (ja) * | 1998-05-12 | 2003-06-09 | 富士通株式会社 | 干渉チェック装置および方法 |
JP3646969B2 (ja) * | 1998-05-25 | 2005-05-11 | 富士通株式会社 | 3次元画像表示装置 |
JP3420504B2 (ja) | 1998-06-30 | 2003-06-23 | キヤノン株式会社 | 情報処理方法 |
US6421048B1 (en) * | 1998-07-17 | 2002-07-16 | Sensable Technologies, Inc. | Systems and methods for interacting with virtual objects in a haptic virtual reality environment |
US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
JP3024968B1 (ja) * | 1998-12-25 | 2000-03-27 | 川崎重工業株式会社 | 模擬加工方法および装置 |
US6480190B1 (en) * | 1999-01-29 | 2002-11-12 | Mitsubishi Electric Research Laboratories, Inc | Graphical objects represented as surface elements |
DE19917660A1 (de) * | 1999-04-19 | 2000-11-02 | Deutsch Zentr Luft & Raumfahrt | Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts |
WO2001095061A2 (en) * | 1999-12-07 | 2001-12-13 | Frauenhofer Institut Fuer Graphische Datenverarbeitung | The extended virtual table: an optical extension for table-like projection systems |
JP2001256511A (ja) * | 2000-01-06 | 2001-09-21 | Canon Inc | データ処理システム、プリンタ、画像記録システム及び画像記録方法 |
US20010024533A1 (en) * | 2000-03-08 | 2001-09-27 | Mitchell Kriegman | System & method for compositing of real and virtual images in a cinematographic puppetry production |
JP2001266175A (ja) * | 2000-03-15 | 2001-09-28 | Sony Corp | 3次元モデル処理装置および3次元モデル処理方法、並びにプログラム提供媒体 |
JP2001291119A (ja) | 2000-04-11 | 2001-10-19 | Sony Corp | ユーザインタフェース制御装置およびユーザインタフェース制御方法、並びにプログラム提供媒体 |
JP2001307134A (ja) * | 2000-04-19 | 2001-11-02 | Sony Corp | 三次元モデル処理装置および三次元モデル処理方法、並びにプログラム提供媒体 |
US7193633B1 (en) * | 2000-04-27 | 2007-03-20 | Adobe Systems Incorporated | Method and apparatus for image assisted modeling of three-dimensional scenes |
US7224357B2 (en) * | 2000-05-03 | 2007-05-29 | University Of Southern California | Three-dimensional modeling based on photographic images |
JP2001325614A (ja) * | 2000-05-15 | 2001-11-22 | Sony Corp | 3次元モデル処理装置および3次元モデル処理方法、並びにプログラム提供媒体 |
JP2001325611A (ja) * | 2000-05-15 | 2001-11-22 | Sony Corp | 3次元モデル処理装置および3次元モデル処理方法、並びにプログラム提供媒体 |
JP4389350B2 (ja) * | 2000-05-18 | 2009-12-24 | ソニー株式会社 | オブジェクト属性変更処理装置、オブジェクト属性変更処理方法、および3次元モデル処理装置、3次元モデル処理方法、並びにプログラム提供媒体 |
JP4701479B2 (ja) * | 2000-07-05 | 2011-06-15 | ソニー株式会社 | リンク情報表示装置及びその表示方法 |
US20020024517A1 (en) * | 2000-07-14 | 2002-02-28 | Komatsu Ltd. | Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space |
US6795068B1 (en) * | 2000-07-21 | 2004-09-21 | Sony Computer Entertainment Inc. | Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program |
US7043695B2 (en) * | 2000-09-19 | 2006-05-09 | Technion Research & Development Foundation Ltd. | Object positioning and display in virtual environments |
WO2002035909A2 (en) * | 2000-11-03 | 2002-05-10 | Siemens Corporate Research, Inc. | Video-supported planning and design with physical marker objects sign |
JP2002157607A (ja) * | 2000-11-17 | 2002-05-31 | Canon Inc | 画像生成システム、画像生成方法および記憶媒体 |
JP2002279284A (ja) | 2001-03-15 | 2002-09-27 | Sony Corp | コミュニティサービス提供方法、コミュニティサービス提供装置、プログラム格納媒体およびプログラム |
JP4009433B2 (ja) * | 2001-03-29 | 2007-11-14 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲームプログラム及びゲームシステム |
US7136786B2 (en) * | 2001-04-12 | 2006-11-14 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for modeling interaction of objects |
US6798415B2 (en) * | 2001-06-21 | 2004-09-28 | Intel Corporation | Rendering collisions of three-dimensional models |
JP4635392B2 (ja) * | 2001-08-09 | 2011-02-23 | コニカミノルタホールディングス株式会社 | 3次元物体の表面形状モデリング装置、および、プログラム |
JP4028708B2 (ja) * | 2001-10-19 | 2007-12-26 | 株式会社コナミデジタルエンタテインメント | ゲーム装置及びゲームシステム |
JP3805231B2 (ja) * | 2001-10-26 | 2006-08-02 | キヤノン株式会社 | 画像表示装置及びその方法並びに記憶媒体 |
US6791549B2 (en) * | 2001-12-21 | 2004-09-14 | Vrcontext S.A. | Systems and methods for simulating frames of complex virtual environments |
US20030117398A1 (en) * | 2001-12-21 | 2003-06-26 | Hubrecht Alain Yves Nestor | Systems and methods for rendering frames of complex virtual environments |
US20030117397A1 (en) * | 2001-12-21 | 2003-06-26 | Hubrecht Alain Yves Nestor | Systems and methods for generating virtual reality (VR) file(s) for complex virtual environments |
US7427996B2 (en) * | 2002-10-16 | 2008-09-23 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2004287699A (ja) * | 2003-03-20 | 2004-10-14 | Tama Tlo Kk | 画像合成装置及びその合成方法 |
US7277572B2 (en) * | 2003-10-10 | 2007-10-02 | Macpearl Design Llc | Three-dimensional interior design system |
-
2002
- 2002-12-19 JP JP2002368664A patent/JP2004199496A/ja active Pending
-
2003
- 2003-12-19 US US10/742,701 patent/US7724250B2/en not_active Expired - Fee Related
- 2003-12-19 CN CNB2003101097720A patent/CN1293519C/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6278418B1 (en) * | 1995-12-29 | 2001-08-21 | Kabushiki Kaisha Sega Enterprises | Three-dimensional imaging system, game device, method for same and recording medium |
US6384823B1 (en) * | 1999-01-05 | 2002-05-07 | C. Michael Donoghue | System and method for real-time mapping and transfer of coordinate position data from a virtual computer-aided design workspace to the real workspace |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101727175B (zh) * | 2008-10-29 | 2012-07-04 | 财团法人工业技术研究院 | 计算机系统及其控制方法 |
CN102947766A (zh) * | 2010-04-23 | 2013-02-27 | 西门子公司 | 将制造装置的空间结构输入计算机辅助的规划程序中的方法和其优化 |
CN102947766B (zh) * | 2010-04-23 | 2015-07-22 | 西门子公司 | 将制造装置的空间结构输入计算机辅助的规划程序中的方法和其优化 |
Also Published As
Publication number | Publication date |
---|---|
CN1508759A (zh) | 2004-06-30 |
US20040130579A1 (en) | 2004-07-08 |
JP2004199496A (ja) | 2004-07-15 |
US7724250B2 (en) | 2010-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1293519C (zh) | 用于处理信息的设备、方法和程序 | |
Santi et al. | Augmented reality in industry 4.0 and future innovation programs | |
CN1200246C (zh) | 图像处理装置及其辅助装置提供方法 | |
CN100340960C (zh) | 用于操纵三维对象的数字表示的方法和系统 | |
US20110029903A1 (en) | Interactive virtual reality image generating system | |
CN1875398A (zh) | 图像显示装置及图像显示方法 | |
JP2020510934A (ja) | 追加の次元のデータを用いたエンハンスト画像の生成 | |
de Freitas et al. | Benefits and challenges of virtual-reality-based industrial usability testing and design reviews: A patents landscape and literature review | |
Danyluk et al. | Touch and beyond: Comparing physical and virtual reality visualizations | |
CN1910500A (zh) | 三维显示方法、装置及程序 | |
CN107168534B (zh) | 一种基于cave系统的渲染优化方法及投影方法 | |
JP5496032B2 (ja) | 触感呈示装置及び触感呈示装置の制御方法 | |
CN1190235A (zh) | 三维视窗显示设备及其方法 | |
US20190340807A1 (en) | Image generating device and method of generating image | |
US20160063765A1 (en) | Image processing apparatus and image processing method | |
Kuťák et al. | State of the art of molecular visualization in immersive virtual environments | |
EP1533683A2 (en) | Mixed reality simulation system | |
FR3025917A1 (fr) | Dispositif et procede d'orchestration de surfaces d'affichage, de dispositifs de projection et de dispositifs d'interaction spatialises 2d et 3d pour la creation d'environnements interactifs | |
Runji et al. | Switchable glass enabled contextualization for a cyber-physical safe and interactive spatial augmented reality PCBA manufacturing inspection system | |
Caruso et al. | Interactive augmented reality system for product design review | |
Blach | Virtual reality technology-an overview | |
Lin et al. | The accuracy of the frontal extent in stereoscopic environments: A comparison of direct selection and virtual cursor techniques | |
Kaswan et al. | AI‐Based AR/VR Models in Biomedical Sustainable Industry 4.0 | |
Arora et al. | Introduction to 3d sketching | |
Ulusoy et al. | Beyond the physical: Examining scale and annotation in virtual reality visualizations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20070103 Termination date: 20111219 |