CN104794757A - 信息处理设备和信息处理方法 - Google Patents

信息处理设备和信息处理方法 Download PDF

Info

Publication number
CN104794757A
CN104794757A CN201510023416.XA CN201510023416A CN104794757A CN 104794757 A CN104794757 A CN 104794757A CN 201510023416 A CN201510023416 A CN 201510023416A CN 104794757 A CN104794757 A CN 104794757A
Authority
CN
China
Prior art keywords
section
virtual object
dimensional virtual
unit
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201510023416.XA
Other languages
English (en)
Inventor
上松太郎
田中靖己
中原努
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN104794757A publication Critical patent/CN104794757A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B7/00Measuring arrangements characterised by the use of electric or magnetic techniques
    • G01B7/003Measuring arrangements characterised by the use of electric or magnetic techniques for measuring position, not involving coordinate determination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/58Wireless transmission of information between a sensor or probe and a control or evaluation unit
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供一种信息处理设备和信息处理方法。信息处理设备包括:获取单元,用于获取对虚拟空间中所配置的并且至少具有一个断面的第一三维虚拟物体进行观察的观察者的视点位置;获取单元,用于获取所述第一三维虚拟物体的第一断面的法线矢量;图像生成单元,用于基于所述观察者的视点位置和所述第一断面的法线矢量,生成具有法线矢量与所述第一断面的法线矢量不同的第二断面的第二三维虚拟物体;以及输出单元,用于输出所述图像生成单元所生成的第二三维虚拟物体的图像。

Description

信息处理设备和信息处理方法
技术领域
本发明涉及一种信息处理设备和信息处理方法。
背景技术
通常,三维CAD系统被用于制造和设计领域,并且可以在三维显示组件及其断面时设计组件及其断面。例如,已知这样一种技术:在观察断面时,设置用作为基准的断面平面的位置和方向(以下称为“断面操作”)、通过CAD画面上的操作来改变组件的断面位置、并且观察断面。
还研究了虚拟现实(VR)系统,其中,通过使用头戴式显示器(HMD)在虚拟现实空间使用三维CAD系统来进行设计(日本特开2012-53631)。此外,提出了使用混合现实(MR)系统,其中,通过使用HMD组合现实空间和虚拟空间(日本特开2010-66898)。在观察者佩戴HMD、并且在现实空间来回走动的同时观察虚拟物体的环境下,代替鼠标或者键盘,还使用通过用手等进行把持来操作的操作装置,如游戏控制器。
然而,在VR或者MR中的显示期间的断面操作中,利用游戏控制器的预定按钮来操作断面。当观察者的视线方向不同于预定方向时,断面的操作方向变得与观察者观察断面时的方向相反,并且观察者可能不能直观操作断面。
例如,考虑这样一种情况:在由用于定义空间的坐标系的原点和三个轴(X轴、Y轴和Z轴)所定义的坐标系下,操作断面。假定游戏控制器被配置成:将向上按钮与+Y方向上的移动相关联、将向下按钮与-Y方向上的移动相关联、并且在Y轴方向上操作与X-Z平面平行的断面平面。在这种情况下,当观察者站在X-Y平面上、并且视线朝向+Y方向时,利用表示+Y方向的向上按钮,断面平面向纵深(即,远离观察者)移动,并且利用表示-Y方向的向下按钮,断面平面向前(即,朝向观察者)移动。在这种情况下,观察者的操作方向和移动方向相互一致,因而观察者可以自然地进行操作。相反,当观察者的视线朝向-Y方向(例如,他转身180°)时,利用表示+Y方向的向上按钮,断面平面朝向观察者移动,并且利用表示-Y方向的向下按钮,断面平面向更纵深(远离观察者)移动。也就是说,移动方向变得与观察者的操作方向相反。这使得观察者感觉不自然,并且他不能直观地操作断面。在一些情况下,当断面法线方向不是朝向观察者(即,在与观察者和断面之间的线的方向垂直的平面上)时,他不能确认断面。
发明内容
根据本发明的一个方面,一种信息处理设备,其包括:第一获取单元,用于获取对虚拟空间中所配置的、至少具有一个断面的第一三维虚拟物体进行观察的观察者的视点位置;第二获取单元,用于获取所述第一三维虚拟物体的第一断面的法线矢量;图像生成单元,用于基于所述观察者的视点位置和所述第一断面的法线矢量,生成具有法线矢量与所述第一断面的法线矢量不同的第二断面的第二三维虚拟物体;以及输出单元,用于输出所述图像生成单元所生成的第二三维虚拟物体的图像。
根据本发明的另一方面,一种信息处理方法,其通过图像处理设备来执行,所述信息处理方法包括以下步骤:获取对虚拟空间中所配置的、至少具有一个断面的第一三维虚拟物体进行观察的观察者的视点位置;获取所述第一三维虚拟物体的第一断面的法线矢量;基于所述观察者的视点位置和所述第一断面的法线矢量,生成具有法线矢量与所述第一断面的法线矢量不同的第二断面的第二三维虚拟物体;以及输出所生成的第二三维虚拟物体的图像。
本发明提供一种用于旨在对于虚拟空间中所配置的三维虚拟物体提供自然断面操作的技术。
通过以下(参考附图)对典型实施例的说明,本发明的其它特征将显而易见。
附图说明
包含在说明书中、并构成说明书的一部分的附图,示出本发明的实施例,并与说明书一起用来解释本发明的原理。
图1是示出根据第一实施例的系统的整体结构的框图;
图2是示出根据第一实施例的系统的外观的图;
图3是用于说明视点和虚拟物体的断面的切割方向(以下称为断面法线方向)之间的关系的图;
图4示出步骤S8030的操作;
图5是用于说明步骤S8080的对于向上断面的操作的图;
图6是用于说明步骤S8080的对于向下断面的操作的图;
图7是用于说明步骤S8080的对于横断面的操作的图;
图8是示出通过根据第一实施例的信息处理设备1040所要进行的处理的流程图;
图9是另一形式的操作装置的图;
图10是示出根据第二实施例的系统的整体结构的框图;
图11是根据第二实施例的头戴式显示器(HMD)的外观的图;
图12是示出通过根据第二实施例的信息处理设备10040所要进行的处理的流程图;
图13是示出根据第三实施例的系统的整体结构的框图;
图14是示出根据第三实施例的系统的外观的图;
图15是示出通过根据第三实施例的信息处理设备13040所要进行的处理的流程图;
图16是示出根据第四实施例的系统的整体结构的框图;
图17是示出根据第四实施例的系统的外观的图;
图18是示出通过根据第四实施例的信息处理设备16040所要进行的处理的流程图;以及
图19是用于说明步骤S18040的操作的图。
具体实施方式
现参考附图详细说明本发明的优选实施例。注意,下面的实施例仅是例子,并且并非旨在限制本发明的范围。
第一实施例
作为根据本发明的显示控制设备的第一实施例,示例性说明包括头戴式显示器(HMD)的信息处理系统。
设备结构
图1是示出根据第一实施例的系统的整体结构的框图。图2是示出根据第一实施例的信息处理系统的外观的图。如上所述,该信息处理系统使用头戴式显示器(HMD),其中,HMD包括位置姿势测量单元和显示单元。注意,用于生成磁场的磁场生成器2050被配置在现实空间中的预定位置处。传感器控制器2070控制磁场生成器2050的操作。
头戴式显示器(HMD)1010包括用作为磁性传感器的头位置姿势测量单元1020、以及一个显示单元1030。头位置姿势测量单元1020测量与头位置姿势测量单元1020自身的位置姿势(位置和方向)相对应的磁场的变化。然后,头位置姿势测量单元1020将测量结果发送给传感器控制器2070。传感器控制器2070基于所输入的测量结果,生成表示头位置姿势测量单元1020在传感器坐标系2060中的位置姿势的信号值,并且将信号值发送给信息处理设备1040。传感器坐标系2060(预定坐标系),是以磁场生成器2050的位置作为原点、并且以在该原点处相互垂直的三个轴作为X轴、Y轴和Z轴的坐标系。
信息处理设备1040的视点位置姿势计算单元1050计算显示在显示单元1030上的虚拟空间的图像在虚拟空间坐标系2080中的视点的位置姿势。然后,视点位置姿势计算单元1050更新虚拟信息管理单元1060。虚拟空间坐标系2080是以用于对配置三维虚拟物体的虚拟空间进行定义的坐标系的原点和三个轴作为原点及X轴、Y轴和Z轴的坐标系。
注意,采用使用磁性传感器的测量方法作为位置姿势测量方法。然而,本发明不依赖于位置姿势测量方法,因而可以采用使用除磁性传感器以外的、诸如光学传感器或者超声波传感器等的传感器的位置姿势测量方法。还可以采用用于将摄像装置安装至HMD 1010、并且根据通过摄像装置所拍摄的图像估计摄像装置的位置姿势的方法。还可以组合使用多个位置姿势测量方法。
虚拟信息管理单元1060保持通过视点位置姿势计算单元1050所计算出的视点的位置姿势。此外,虚拟信息管理单元1060从信息存储单元1065读出虚拟物体2090和断面平面2040的多个信息。虚拟物体2090和断面平面2040的多个位置信息,是虚拟空间坐标系2080中的坐标值。
头上佩戴HMD 1010的观察者(操作者)经由操作单元1160(例如,游戏控制器),控制虚拟物体2090和断面平面2040在虚拟空间中的位置,其中,操作单元1160用作为利用手等所把持和操作的指示器。操作单元1160包括被配置为能够至少表示两个轴向(在该情况下,上下方向和左右方向)的四向选择器按键的方向输入单元1150。操作单元1160判断向方向输入单元1150的输入,并且将判断结果发送给信息处理设备1040。
操作方向获取单元1090获取通过方向输入单元1150所发送的输入方向。断面位置方向获取单元1070从虚拟信息管理单元1060获取断面平面2040,并且计算断面平面2040的法线2100。
图3是用于说明视点和虚拟物体的断面的法线方向(由于该法线方向是沿观察者和正在处理的断面之间的法线的方向,因而以下将其称为断面法线方向)之间的关系的图。在状态300a下,在虚拟空间中断面法线方向3020未朝向观察者视点3025。在状态300b下,在虚拟空间中断面法线方向3030朝向视点3025。在另一状态300c下,在虚拟空间中断面法线方向3020未朝向视点3025。
当断面法线方向3020未朝向视点3025时,如300a所示,断面法线方向调整单元1080反转断面法线方向3020,并且改变其以使得断面法线方向3030朝向视点3025,如300b下的断面法线方向3030一样。断面法线方向调整单元1080然后更新虚拟信息管理单元1060。
断面操作方向确定单元1100根据通过视点位置姿势计算单元1050所计算出的视点的位置姿势、以及通过断面位置方向获取单元1070所获取的断面平面2040和法线2100,确定断面操作方向。当通过操作方向获取单元1090所获取的输入方向与通过断面操作方向确定单元1100所确定的断面操作方向一致时,断面位置改变单元1110移动断面平面2040,并且更新虚拟信息管理单元1060。
虚拟图像生成单元1120生成从具有通过视点位置姿势计算单元1050所获得的位置姿势的视点所观察的虚拟空间的图像。图像输出单元1140将从虚拟图像生成单元1120所接收到的虚拟空间的图像,输出给HMD 1010的显示单元1030。因此,将与观察者的视点的位置姿势相对应的虚拟空间的图像呈现在头上佩戴HMD 1010的观察者的眼前。
图9是示出另一形式的操作装置的图。图9示出下面形式的操作装置:观察者把持具有显示单元1030的操作单元1160,并且在观察显示在显示单元上的虚拟物体2090和断面平面2040时操作方向输入单元1150。
设备操作
图8是示出通过根据第一实施例的信息处理设备1040所要进行的处理的流程图。
在步骤S8010,虚拟信息管理单元1060从信息存储单元1065读出虚拟物体2090和断面平面2040的多个信息。
在步骤S8030,视点位置姿势计算单元1050计算传感器坐标系2060中的视点的位置姿势(位置和视线方向)。注意,根据HMD 1010的形状预先获知、并且可以容易地计算出头位置姿势测量单元1020和用作为视点的观察者的眼的相对位置姿势。
图4是用于说明步骤S8030的操作的图。由于预先已知虚拟空间坐标系2080和传感器坐标系2060的相对位置姿势,因而将传感器坐标系2060中的视点的位置姿势转换成虚拟空间坐标系中的坐标值。然后,如图4所示,获得视点位置4010、以及在该点处相互垂直的三个轴,即,在水平方向上与视轴垂直的Cx轴4020、在垂直方向上与视轴垂直的Cy轴4030和沿视轴的Cz轴4040。
如果在步骤S8040判断为操作方向获取单元1090接收到了来自方向输入单元1150的输入,则处理进入步骤S8050。如果判断为操作方向获取单元1090没有接收到输入,则处理进入步骤S8100。
在步骤S8050,断面位置方向获取单元1070从虚拟信息管理单元1060获取当前所设置的断面平面的位置姿势,并且计算断面平面的法线矢量。可以通过根据断面平面的任意三个连续顶点计算两个矢量、并且导出这两个矢量的外积,来获得法线矢量。可以将断面平面的法线矢量预先保存在信息存储单元1065中。
在步骤S8060,如图3中的300a所示,断面法线方向调整单元1080根据以断面上的任意一个点3015作为起点、并且以通过视点位置姿势计算单元1050所计算出的视点3025作为终点的矢量,获得视点方向单位矢量3010。此外,断面法线方向调整单元1080获得通过断面位置方向获取单元1070所计算出的断面平面的法线方向单位矢量3020。然后,断面法线方向调整单元1080计算视点方向单位矢量3010和断面平面的法线方向单位矢量3020的数量积。
负的数量积表示用作为虚拟物体的断面的切割方向的断面法线方向3020未朝向视线方向。因此反转断面法线方向3020,从而使得观察者可以从视点位置观察断面。更具体地,改变虚拟物体的断面的切割方向,从而使其朝向视点3025,如300b中的断面法线方向3030。当数量积是0或者正的时,断面朝向视线方向,并且不做任何事情。
当虚拟物体的断面的切割方向未朝向视线方向时,如300c一样,即使反转断面法线方向3020、并且使其朝向视点3025,视线方向也未朝向断面的切割方向。为此,在HMD 1010上既不会显示虚拟物体,也不会显示虚拟物体的断面。然而,HMD 1010被装配在头上,并且可以始终改变视点的位置姿势。由于观察者很可能采取使得视线方向3040朝向虚拟物体和断面的姿势,因而即使在如300c所示的情况下,也优选预先反转断面的切割方向。
在步骤S8080,断面操作方向确定单元1100计算由与观察者的视线垂直的方向和断面的法线方向所形成的角度α,其中,当观察者以正常方式站立时,与观察者的视线垂直的方向是相对观察者的“向上”方向。此时,获得根据视点位置姿势计算单元1050所计算出的视点的位置姿势所获得的相对视线向上方向单位矢量4030与断面位置方向获取单元1070所计算出的断面法线单位矢量2100的数量积,如图4所示。这两个单位矢量的数量积是由这两个矢量所形成的角度的余弦值,因而可以根据该余弦值获得所形成的角度α。
图5是用于说明在步骤S8080对朝向向上方向的断面的操作的图。当断面平面朝向相对于视线的向上方向4030时,如500a和500b所示,将断面的法线单位矢量2100的方向与对方向输入单元1150的“向上”输入相关联。另外,将与断面的法线单位矢量2100相反的方向,与对方向输入单元1150的“向下”(也就是说,与“向上”相反的方向)输入相关联。当角度α落在预定角度范围内(例如,0°≤α≤45°)时,判断为断面平面朝向视线的向上方向。
图6是用于说明在步骤S8080对朝向向下方向的断面的操作的图。当断面平面朝向视线的向下方向时,如600a和600b所示,将断面的法线单位矢量2100的方向与对方向输入单元1150的“向下”输入相关联。因此,将与断面的法线单位矢量2100相反的方向与对方向输入单元1150的“向上”输入相关联。当角度α落在预定角度范围内(例如,135°≤α≤180°)时,判断为断面平面朝向相对于视点的向下方向。
图7是用于说明在步骤S8080对朝向横方向(相对于观察者的凝视方向的侧向)的断面的操作的图。当断面平面朝向相对于视线的横方向时,如700a~700d所示,根据视线方向单位矢量7010和断面的法线单位矢量2100的数量积(或者内积),获得所形成的角度β。当角度β落在预定角度范围内(例如,45°<β<135°)时,判断为断面平面朝向相对于视线的横方向。视线方向7010是与根据通过视点位置姿势计算单元1050所计算出的视点的位置姿势所获得的、图4中的视点的视轴方向矢量4040(Cz)相反的方向(-Cz)。
当断面法线方向和视线方向朝向相同方向时,如700a所示,将断面的法线单位矢量2100的方向与对方向输入单元1150的“向前”输入相关联。然后,将与断面法线单位矢量2100相反的方向,与对方向输入单元1150的“向后”输入相关联。当角度β落在预定角度范围内(例如,0°≤β<45°)时,判断为断面平面和视线方向处于相同方向。
当断面法线方向和视线方向朝向相反方向时(即,当它们相互相对时),如700b所示,将断面的法线单位矢量2100的方向与对方向输入单元1150的“向后”输入相关联。另外,将与断面法线单位矢量2100相反的方向与对方向输入单元1150的“向前”输入相关联。当角度β落在预定角度范围内(例如,135°<β≤180°)时,判断为断面平面和视线方向处于相反方向上。
当断面平面朝向相对于在从观察者观察时的视线方向的左方向或者右方向时,如700c或者700d所示,计算视线方向单位矢量7010的x和y成分与断面法线单位矢量2100的x和y成分的外积。在这种情况下,当角度β落在预定角度范围内(例如,45°≤β≤135°)时,判断为断面平面朝向相对于在从观察者观看时的视线方向的“左”或者“右”方向。如果外积(或者张量积)的符号是负的,则可以判断为断面朝向相对于视线方向的“右”。如果符号是正的,则可以判断为断面朝向相对于视线方向的“左”。
当断面朝向相对于视线方向的右方向时,将断面的法线单位矢量2100的方向与对方向输入单元1150的“向右”输入相关联。另外,将与断面的法线单位矢量2100相反的方向与对方向输入单元1150的“向左”输入相关联。相反,当断面朝向相对于视线方向的左方向时,将断面法线单位矢量2100的方向与对方向输入单元1150的“向左”输入相关联。另外,将与断面法线单位矢量2100相反的方向与对方向输入单元1150的“向右”输入相关联。
在步骤S8090,如果通过操作方向获取单元1090所获取的输入方向与通过断面操作方向确定单元1100所确定的断面操作方向一致,则断面位置改变单元1110移动断面平面2040,并且更新在虚拟信息管理单元1060中所管理的信息。
在步骤S8100,虚拟图像生成单元1120生成从通过视点位置姿势计算单元1050所获得的视点的位置姿势所观看的虚拟空间的图像。在步骤S8110,图像输出单元1140将从虚拟图像生成单元1120所接收到的虚拟空间的图像输出给HMD 1010的显示单元1030。
如果在步骤S8120判断为从观察者接收到了结束请求,则结束该处理。如果判断为没有接收到结束请求,则处理返回至步骤S8030、并且重复该处理。
如上所述,根据第一实施例,基于观察者(操作者)的视点位置和虚拟物体的断面所朝向的断面法线方向之间的关系,控制断面法线方向。另外,基于观察者(操作者)的视线方向和虚拟物体的断面所朝向的断面法线方向之间的关系,控制改变向方向输入单元的输入和操作方向之间的关联。因此,第一实施例可以实现对虚拟空间中配置的三维虚拟物体的自然断面操作。
第二实施例
第二实施例说明头戴式显示器包括两个显示单元的形式,如图10所示。更具体地,HMD 10010包括用于右眼和左眼的两个显示单元10030,以向观察者提供三维(3D)显示。
设备结构
图10是示出根据第二实施例的系统的整体结构的框图。图11是示出根据第二实施例的头戴式显示器(HMD)的外观的图。在图10和11中,与图1和图2中相同的附图标记表示相同部件,并且不再重复对其的说明。
头戴式显示器(HMD)10010包括用于分别向头上佩戴HMD 10010的观察者的右眼和左眼呈现图像的显示单元10030,如1100a所示。头上佩戴HMD10010的观察者通过他的左眼观察左眼显示单元10030(左侧),并且通过他的右眼观察右眼显示单元10030(右侧)。显示单元10030显示从信息处理设备10040所发送的虚拟空间的图像。结果,将与观察者的左视点和右视点的位置姿势相对应的虚拟空间的三维图像呈现在头上佩戴HMD 10010的观察者的眼前。注意,HMD 10010可以包括三个以上的显示单元,并且可以采用呈现与各个显示单元的视点的位置姿势相对应的虚拟空间图像的结构。
信息处理设备10040的视点位置姿势计算单元10050计算右眼和左眼在虚拟空间的图像的虚拟空间坐标系2080中的位置姿势(例如,位置和视线方向)。注意,预先根据HMD 10010的形状,获知头位置姿势测量单元1020和用作为视点的观察者的眼的相对位置姿势,并且可以容易地计算出该相对位置姿势。注意,可以被配置成计算代表两个位置姿势的一个位置姿势,并且更新虚拟信息管理单元1060。
虚拟图像生成单元10020生成与显示单元10030的左视点和右视点的位置姿势相对应的虚拟空间的图像。图像输出单元10140输出与左和右显示单元10030相对应的图像。
设备操作
图12是示出通过根据第二实施例的信息处理设备10040所要进行的处理的流程图。在图12所示的流程图中,与图8中相同的附图标记表示相同处理,并且不再重复对其的说明。
在步骤S12030,视点位置姿势计算单元10050(参考图10)计算视点的代表位置姿势(位置和视线方向)。如在步骤S8030一样,获得显示单元10030的左视点位置11021和在此点相互垂直的三个轴,即,在水平方向上与视轴垂直的Cx轴11031、在垂直方向上与视轴垂直的Cy轴11041和沿视轴的Cz轴11051,如图11的1100b所示。此外,获得显示单元10030的右视点位置11022和在该点相互垂直的三个轴,即,在水平方向上与视轴垂直的Cx轴11032、在垂直方向上与视轴垂直的Cy轴11042和沿视轴的Cz轴11052。然后,根据左视点和右视点各自的位置姿势,计算出一个代表位置姿势。
首先,获得连接位置11021和11022的直线的中点,并且将其设置为代表位置11020。计算Cy轴11041和11042的矢量的和以获得单位矢量,并且将其设置为代表姿势Cy轴11140。然后,计算Cz轴11051和11052的矢量的和以获得单位矢量,并且将其设置为代表姿势Cz轴11150。此外,计算Cy轴11140和Cz轴11150的外积,以获得与Cy轴11140和Cz轴11150垂直的代表姿势Cx轴11130。
在包括三个以上的显示单元的HMD 10010中,将各显示单元的视点位置的重心设置为代表位置。计算各个代表姿势轴Cy和Cz的矢量的和以获得单位矢量。
在步骤S12100,虚拟图像生成单元10020生成从显示单元10030的左视点和右视点的位置姿势观看时的虚拟空间的图像。在步骤S12110,图像输出单元10140将从虚拟图像生成单元10020所接收到的、显示单元10030的左视点和右视点处的虚拟空间的图像,输出给HMD 10010的左和右显示单元10030。
如上所述,根据第二实施例,可以通过三维(3D)显示器将虚拟空间中所配置三维虚拟物体呈现给观察者(操作者)。如在第一实施例中一样,第二实施例可以针对虚拟空间中所配置的三维虚拟物体实现自然的断面操作。
第三实施例
第三实施例说明头戴式显示器还包括如图13和14所示被配置在右眼和左眼的位置处的两个摄像单元这样一种形式。更具体地,HMD 13010包括摄像单元13020以向观察者提供混合现实(MR)显示,其中,在MR显示器中,将虚拟空间中所配置的三维虚拟物体的图像叠加显示在实际空间的场景上。
设备结构
图13是示出根据第三实施例的系统的整体结构的框图。图14是示出根据第三实施例的系统的外观的图。在图13和14中,与图2、10和11中相同的附图标记表示相同部件,并且不再重复对其的说明。
头戴式显示器(HMD)13010被配置成还向HMD 10010添加两个摄像单元13020。摄像单元13020拍摄现实空间的运动图像,并且将拍摄图像(现实空间的图像)顺序输入至信息处理设备13040的拍摄图像获取单元13050。配置用于头上佩戴HMD 13010的观察者的右眼和左眼的两个摄像单元13020。将通过右眼摄像单元13020所拍摄的现实空间的图像显示在右眼显示单元10030,并且将通过左眼摄像单元13020所拍摄的现实空间的图像显示在左眼显示单元10030。
拍摄图像获取单元13050将所获取的现实空间的图像发送给图像合成单元13030。图像合成单元13030通过叠加通过虚拟空间生成单元10020所生成的虚拟空间的图像和从拍摄图像获取单元13050所获取的现实空间的图像,生成合成图像。此时,创建用于右眼和左眼的两个合成图像。图像合成单元13030将所生成的合成图像输出给图像输出单元10140,并且图像输出单元10140将合成图像输出给显示单元10030。
设备操作
图15是示出通过根据第三实施例的信息处理设备13040所要进行的处理的流程图。在图15所示的流程图中,与图12中相同的附图标记表示相同处理,并且不再重复对其的说明。
在步骤S15010,拍摄图像获取单元13050将所获取的现实空间的图像发送给图像合成单元13030。在步骤S15020,图像合成单元13030生成通过虚拟图像生成单元10020所生成的虚拟空间的图像和从拍摄图像获取单元13050所获取的现实空间的图像的合成图像。图像合成单元13030将所生成的合成图像输出给图像输出单元10140,并且图像输出单元10140将合成图像输出给显示单元10030。
如上所述,第三实施例可以向观察者(操作者)提供混合现实(MR)现实,其中,在MR显示中,将虚拟空间中所配置的三维虚拟物体的图像叠加显示在现实空间的场景上。如第一实施例一样,第三实施例可以针对虚拟空间中所配置的三维虚拟物体实现自然的断面操作。
第四实施例
第四实施例说明基于操作单元自身的位置姿势的变化来使用操作单元(指示器)以进行操作这一形式。特别地,操作单元包括类似于第一实施例的头位置姿势测量单元1020的磁性传感器,并且被配置成能够测量操作单元的位置姿势。
设备结构
图16是示出根据第四实施例的系统的整体结构的框图。图17是示出根据第四实施例的系统的外观的图。在图16和17中,与图1和2中相同的附图标记表示相同组件,并且不再重复对其的说明。
与以上所述相同,操作单元16160包括作为与头位置姿势测量单元1020类似的磁性传感器的操作单元位置姿势测量单元16020。操作单元位置姿势测量单元16020测量与操作单元位置姿势测量单元16020的位置姿势相对应的磁场的变化,并且将测量结果发送给传感器控制器2070。传感器控制器2070根据测量结果,生成表示操作单元位置姿势测量单元16020在传感器坐标系中的位置姿势的信号值,并且将信号值发送给信息处理设备16040。
操作单元16160还包括通过用户操作以生成事件的事件输入单元16150。例如,事件输入单元16150是可以按下的按钮。当用户想要生成事件,则他按下该按钮。如果该按钮被按下,则操作单元16160生成事件,并且将事件输出给信息处理设备16040。
设备操作
图18是示出通过根据第四实施例的信息处理设备16040所要进行的处理的流程图。在图18所示的流程图中,与图8中相同的附图标记表示相同处理,并且不再重复对其的说明。
在步骤S18040,与步骤S8030中的视点位置姿势计算单元1050相同,操作方向获取单元16090计算操作单元16160在虚拟空间坐标系2080中的位置姿势。
图19是用于说明步骤S18040中的操作的图。首先,如1900a所示,计算点19030,其中在点19030处,用于连接操作单元16160的位置19010和视点19020的直线穿过投影平面19035,其中在投影平面19035上,投影虚拟空间中从视点观看的虚拟物体。
然后,如1900b所示,计算以操作单元16160在投影平面上的前一位置19040作为起点、并且以在投影平面上的当前位置19050作为终点的直线的矢量,以判断投影平面上的上、下、左或者右输入方向。当投影平面上的前一位置和投影平面上的当前位置完全相同时,优选不开始计算,直到投影平面上的当前位置改变成不同位置为止。由于直线的矢量是投影平面上的二维矢量,因而基于矢量的X和Y成分的绝对值足以判断上、下、左或者右输入方向。也就是说,将绝对值增大的方向判断为输入方向。
注意,作为用于通过操作方向获取单元判断操作方向的方法,可以考虑各种其它方法。例如,在判断为上、下、左和右输入方向时,可以直接使用通过将操作单元16160的当前指示方向投影在投影平面19035上所获得的矢量。
可选地,可以将键盘的特定按键分配给上、下、左和右方向,并且在判断上、下、左和右输入方向时使用该特定按键。在判断上、下、左或者右输入方向时,还可以使用鼠标的移动方向和点击事件。音频输入也可用于判断上、下、左或者右输入方向。此外,可以拍摄手的运动,并且在判断上、下、左或者右输入方向时,可以使用根据连续的手图像所判断的手势。
如上所述,根据第四实施例,观察者(操作者)可以通过使用基于操作单元自身的位置姿势的变化而进行操作的操作单元(指示器),来操作虚拟空间中所配置的三维虚拟物体。如第一实施例一样,第四实施例可以针对配置在虚拟空间中的三维虚拟物体实现自然的断面操作。
其它实施例
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
尽管参考典型实施例说明了本发明,但是应该理解,本发明不局限于所公开的典型实施例。所附权利要求书的范围符合最宽的解释,以包含所有这类修改、等同结构和功能。

Claims (13)

1.一种信息处理设备,其包括:
第一获取单元,用于获取对虚拟空间中所配置的、至少具有一个断面的第一三维虚拟物体进行观察的观察者的视点位置;
第二获取单元,用于获取所述第一三维虚拟物体的第一断面的法线矢量;
图像生成单元,用于基于所述观察者的视点位置和所述第一断面的法线矢量,生成具有法线矢量与所述第一断面的法线矢量不同的第二断面的第二三维虚拟物体;以及
输出单元,用于输出所述图像生成单元所生成的第二三维虚拟物体的图像。
2.根据权利要求1所述的信息处理设备,其中,所述第二断面的法线矢量是通过反转所述第一断面的法线矢量而获得的矢量。
3.根据权利要求1或者2所述的信息处理设备,其中,所述图像生成单元能够工作,从而基于所述第一断面的法线矢量与用于连接所述观察者的视点位置和所述第一断面内的预定区域的矢量的数量积,确定所述第二断面的法线矢量,并且生成具有所述第二断面的所述第二三维虚拟物体。
4.根据权利要求1所述的信息处理设备,其中,还包括操作单元,所述操作单元用于接受来自用户的、用以移动所述第二断面的指示,
其中,所述图像生成单元能够工作,从而基于所述操作单元的操作,生成在所述第二断面的法线矢量的方向上将所述第二断面移动预定距离的状态下的所述第二三维虚拟物体。
5.根据权利要求4所述的信息处理设备,其中,
所述第一获取单元还能够工作,从而获取所述观察者的视线方向,
所述操作单元从所述用户至少接受第一方向的指示和与所述第一方向相反的第二方向的指示,以及
在所述第一断面的法线方向和与所述视线方向垂直的相对于所述观察者的向上方向之间所形成的角度α落在第一角度范围内的情况下,
所述图像生成单元能够工作,从而基于所述操作单元中的所述第一方向的指示,生成在第一移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体,以及基于所述操作单元中的所述第二方向的指示,生成在与所述第一移动方向相反的第二移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体,以及
在所述角度α落在与所述第一角度范围不同的第二角度范围内的情况下,
所述图像生成单元能够工作,从而基于所述操作单元中的所述第一方向的指示,生成在所述第二移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体,以及基于所述操作单元中的所述第二方向的指示,生成在所述第一移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体。
6.根据权利要求5所述的信息处理设备,其中,
所述操作单元还从所述用户接受与所述第一方向垂直的第三方向的指示和与所述第三方向相反的第四方向的指示,以及
在由所述视线方向和所述第一断面的法线方向所形成的角度β落在第三角度范围内的情况下,
所述图像生成单元能够工作,从而基于所述操作单元中的所述第一方向的指示,生成在所述第一移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体,以及基于所述操作单元中的所述第二方向的指示,生成在所述第二移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体,
在所述角度β落在与所述第三角度范围不同的第四角度范围内的情况下,
所述图像生成单元能够工作,从而基于所述操作单元中的所述第一方向的指示,生成在所述第二移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体,以及基于所述操作单元中的所述第二方向的指示,生成在所述第一移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体,
在所述角度β落在与所述第三角度范围和所述第四角度范围不同的第五角度范围内、并且所述视线方向的矢量和所述第一断面的法线方向的矢量的外积的值的符号是正的情况下,
所述图像生成单元能够工作,从而基于所述操作单元中的所述第三方向的指示,生成在第三移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体,以及基于所述操作单元中的所述第四方向的指示,生成在与所述第三移动方向相反的第四移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体,以及
在所述角度β落在所述第五角度范围内、并且所述符号是负的情况下,
所述图像生成单元能够工作,从而基于所述操作单元中的所述第三方向的指示,生成在所述第四移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体,以及基于所述操作单元中的所述第四方向的指示,生成在所述第三移动方向上移动所述第二断面的状态下的所述第二三维虚拟物体。
7.根据权利要求5所述的信息处理设备,其中,
所述第一角度范围是0°≤α<(90-A)°,其中,0<A<90,以及
所述第二角度范围是(90+A)°<α≤180°。
8.根据权利要求6所述的信息处理设备,其中,
所述第三角度范围是0°≤β<(90-B)°,其中,0<B<90,
所述第四角度范围是(90+B)°<β≤180°,以及
所述第五角度范围是(90-B)°≤β<(90+B)°。
9.根据权利要求4所述的信息处理设备,其中,所述操作单元是能够指示两个轴向的四向选择器按键。
10.根据权利要求1所述的信息处理设备,其中,所述输出单元将所述第二三维虚拟物体的图像输出在作为头戴式显示器的显示装置上。
11.根据权利要求10所述的信息处理设备,其中,
所述头戴式显示器包括用于分别向用户的右眼和左眼呈现图像的两个显示单元,以及
所述图像生成单元能够工作,从而生成分别与所述两个显示单元相对应的两个图像。
12.根据权利要求11所述的信息处理设备,其中,
所述头戴式显示器还包括用于分别拍摄相对于所述用户的右眼和左眼的位置的现实空间的场景的两个摄像单元,以及
所述图像生成单元能够工作,从而生成将所述虚拟空间中的所述第二三维虚拟物体叠加显示在所述两个摄像单元所获得的两个拍摄图像上的图像,作为分别与所述两个显示单元相对应的两个图像。
13.一种信息处理方法,其通过图像处理设备来执行,所述信息处理方法包括以下步骤:
获取对虚拟空间中所配置的、至少具有一个断面的第一三维虚拟物体进行观察的观察者的视点位置;
获取所述第一三维虚拟物体的第一断面的法线矢量;
基于所述观察者的视点位置和所述第一断面的法线矢量,生成具有法线矢量与所述第一断面的法线矢量不同的第二断面的第二三维虚拟物体;以及
输出所生成的第二三维虚拟物体的图像。
CN201510023416.XA 2014-01-16 2015-01-16 信息处理设备和信息处理方法 Withdrawn CN104794757A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-006217 2014-01-16
JP2014006217A JP5824537B2 (ja) 2014-01-16 2014-01-16 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
CN104794757A true CN104794757A (zh) 2015-07-22

Family

ID=53485137

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510023416.XA Withdrawn CN104794757A (zh) 2014-01-16 2015-01-16 信息处理设备和信息处理方法

Country Status (6)

Country Link
US (1) US9607439B2 (zh)
JP (1) JP5824537B2 (zh)
KR (1) KR20150085797A (zh)
CN (1) CN104794757A (zh)
DE (1) DE102015100540A1 (zh)
GB (1) GB2524144A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109313511A (zh) * 2016-07-20 2019-02-05 Colopl株式会社 提供虚拟空间的方法、提供虚拟体验的方法、程序以及记录介质
CN110337681A (zh) * 2017-03-01 2019-10-15 三菱电机株式会社 信息处理系统
CN113870403A (zh) * 2021-09-23 2021-12-31 埃洛克航空科技(北京)有限公司 用于图像渲染的信息处理方法及装置

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6193195B2 (ja) * 2014-09-17 2017-09-06 株式会社東芝 移動支援装置、方法及びプログラム
US10217189B2 (en) * 2015-09-16 2019-02-26 Google Llc General spherical capture methods
JP6532393B2 (ja) * 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
WO2017169272A1 (ja) * 2016-03-29 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
EP3264286B1 (en) * 2016-06-28 2020-11-18 Dassault Systèmes Querying a database with morphology criterion
EP3321817A1 (en) 2016-11-14 2018-05-16 Dassault Systèmes Querying a database based on a parametric view function
JP6275809B1 (ja) * 2016-12-09 2018-02-07 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
CN111108530B (zh) * 2017-09-25 2023-05-12 三菱电机株式会社 信息显示装置和方法以及记录介质
WO2019092685A1 (en) * 2017-11-13 2019-05-16 Arkio Ehf. Virtual/augmented reality modeling application for architecture
JP2019101513A (ja) * 2017-11-29 2019-06-24 株式会社カプコン 仮想空間表示装置、ゲームシステムおよび仮想空間における仮想オブジェクトの向き判定方法
US11281824B2 (en) 2017-12-13 2022-03-22 Dassault Systemes Simulia Corp. Authoring loading and boundary conditions for simulation scenarios
CN110554784B (zh) * 2018-05-31 2023-07-14 广东虚拟现实科技有限公司 输入方法、装置、显示设备及存储介质
US11320911B2 (en) * 2019-01-11 2022-05-03 Microsoft Technology Licensing, Llc Hand motion and orientation-aware buttons and grabbable objects in mixed reality
JP7413077B2 (ja) * 2020-02-27 2024-01-15 キヤノン株式会社 ヘッドマウントディスプレイ、制御方法、情報処理装置、情報処理方法、およびプログラム
CN112446952B (zh) * 2020-11-06 2024-01-26 杭州易现先进科技有限公司 三维点云法向量的生成方法、装置、电子设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3026716B2 (ja) * 1994-03-16 2000-03-27 株式会社日立製作所 立体型表示装置
JPH10334275A (ja) * 1997-05-29 1998-12-18 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP3647691B2 (ja) * 1999-09-30 2005-05-18 コナミ株式会社 ポリゴン画像表示方法、ポリゴン画像作成装置及び記録媒体
JP3792541B2 (ja) 2001-06-07 2006-07-05 富士通株式会社 3次元モデル表示プログラムおよび3次元モデル表示装置
JP4757115B2 (ja) * 2006-06-28 2011-08-24 キヤノン株式会社 画像処理装置、画像処理方法
JP4919887B2 (ja) * 2007-07-09 2012-04-18 任天堂株式会社 画像処理プログラムおよび画像処理装置
JP5226360B2 (ja) 2008-04-08 2013-07-03 株式会社東芝 超音波診断装置
JP5438936B2 (ja) * 2008-08-29 2014-03-12 株式会社東芝 超音波診断装置、画像処理装置及び画像処理プログラム
JP5403974B2 (ja) 2008-09-09 2014-01-29 キヤノン株式会社 三次元cadシステム
US8745536B1 (en) 2008-11-25 2014-06-03 Perceptive Pixel Inc. Volumetric data exploration using multi-point input controls
JP5769392B2 (ja) 2010-08-26 2015-08-26 キヤノン株式会社 情報処理装置およびその方法
JP5709440B2 (ja) 2010-08-31 2015-04-30 キヤノン株式会社 情報処理装置、情報処理方法
JP5550496B2 (ja) * 2010-08-31 2014-07-16 富士フイルム株式会社 文書作成支援装置、文書作成支援方法、並びに文書作成支援プログラム
JP5736285B2 (ja) 2011-09-21 2015-06-17 Kddi株式会社 被写体の3次元形状を復元する装置、方法およびプログラム
JP5845211B2 (ja) 2013-06-24 2016-01-20 キヤノン株式会社 画像処理装置、画像処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109313511A (zh) * 2016-07-20 2019-02-05 Colopl株式会社 提供虚拟空间的方法、提供虚拟体验的方法、程序以及记录介质
CN110337681A (zh) * 2017-03-01 2019-10-15 三菱电机株式会社 信息处理系统
CN113870403A (zh) * 2021-09-23 2021-12-31 埃洛克航空科技(北京)有限公司 用于图像渲染的信息处理方法及装置
CN113870403B (zh) * 2021-09-23 2023-01-10 埃洛克航空科技(北京)有限公司 用于图像渲染的信息处理方法及装置

Also Published As

Publication number Publication date
US20150199850A1 (en) 2015-07-16
GB2524144A (en) 2015-09-16
KR20150085797A (ko) 2015-07-24
JP2015135573A (ja) 2015-07-27
US9607439B2 (en) 2017-03-28
GB201500628D0 (en) 2015-03-04
DE102015100540A1 (de) 2015-07-16
JP5824537B2 (ja) 2015-11-25

Similar Documents

Publication Publication Date Title
CN104794757A (zh) 信息处理设备和信息处理方法
US10506218B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP4667111B2 (ja) 画像処理装置、画像処理方法
JP5845211B2 (ja) 画像処理装置、画像処理方法
US9086742B2 (en) Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
CN106454311B (zh) 一种led三维成像系统及方法
JP5167439B1 (ja) 立体画像表示装置及び立体画像表示方法
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
US9007399B2 (en) Information processing apparatus and method for generating image of virtual space
WO2014016992A1 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
US8952956B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
CN102622081B (zh) 一种实现体感交互的方法和系统
JP7005224B2 (ja) 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
JP6364389B2 (ja) 検査方法及び検査システム
JP6800599B2 (ja) 情報処理装置、方法及びプログラム
CN107884930B (zh) 头戴式装置及控制方法
JP7451084B2 (ja) 情報処理装置および情報処理方法
WO2013121468A1 (ja) 立体画像表示装置及び立体画像表示方法
JP2019045997A (ja) 情報処理装置及びその方法、プログラム
JP2019032713A (ja) 情報処理装置、情報処理方法及びプログラム
JP2021131490A (ja) 情報処理装置、情報処理方法、プログラム
CN106385578B (zh) 一种显示方法
CN206892844U (zh) 一种三维成像的led显示屏
JP6744543B2 (ja) 情報処理システム、その制御方法、及びプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
C04 Withdrawal of patent application after publication (patent law 2001)
WW01 Invention patent application withdrawn after publication

Application publication date: 20150722