CN110275297B - 头部佩戴型显示装置、显示控制方法以及记录介质 - Google Patents

头部佩戴型显示装置、显示控制方法以及记录介质 Download PDF

Info

Publication number
CN110275297B
CN110275297B CN201910183333.5A CN201910183333A CN110275297B CN 110275297 B CN110275297 B CN 110275297B CN 201910183333 A CN201910183333 A CN 201910183333A CN 110275297 B CN110275297 B CN 110275297B
Authority
CN
China
Prior art keywords
display
distance
image
user
virtual screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910183333.5A
Other languages
English (en)
Other versions
CN110275297A (zh
Inventor
藤卷由贵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of CN110275297A publication Critical patent/CN110275297A/zh
Application granted granted Critical
Publication of CN110275297B publication Critical patent/CN110275297B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/33Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being semiconductor devices, e.g. diodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • H04N5/642Disposition of sound reproducers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

提供头部佩戴型显示装置、显示控制方法以及记录介质,减少因会聚角偏差和焦距偏差而引起的光学不匹配。该头部佩戴型显示装置具有:显示部,其分别显示按照预先确定的多个焦距中的每个焦距而设定的虚拟画面;按距离分类图像生成部,其生成按距离分类显示图像,所述按距离分类显示图像用于使表示存在于相邻的两个焦距之间的显示对象物的显示对象显示在虚拟画面上;以及显示控制部,其使所生成的各按距离分类显示图像显示在与相邻的两个焦距中的、靠头部佩戴型显示装置的使用者的视野方向上的里侧的焦距对应的虚拟画面上。

Description

头部佩戴型显示装置、显示控制方法以及记录介质
技术领域
本发明涉及头部佩戴型显示装置。
背景技术
作为佩戴于头部并在使用者的视野区域内显示图像等的头部佩戴型显示装置(头戴显示器(Head Mounted Display、HMD)),公知有在佩戴时能够与显示图像一起透视地看到外界风景的透过型头部佩戴型显示装置。当在透过型头部佩戴型显示装置中使外界风景和显示图像重叠显示的情况下,有时因外界风景与显示图像的会聚角偏差和焦距偏差而产生光学不匹配,从而导致使用者感到眼睛疲劳或给使用者带来不舒适感。因此,以往提出了各种降低透过型头部佩戴型显示装置中的光学不匹配的技术。例如,在专利文献1中提出了与透过型头部佩戴型显示装置的使用者的注视点距离相匹配地对影像显示单元的会聚角进行变更的技术。
专利文献1:日本特开2010-139589号公报
但是,专利文献1所记载的技术实际上没有对焦距开展充分的研究。例如,在使专利文献1所记载的影像显示单元与使用者的注视点距离匹配而向使用者的视线方向移动的情况下,存在无法同时对注视点距离不同的位置处所存在的多个显示对象物的显示图像进行显示的问题,或者在使用者的注视点发生移动的情况下,存在显示发生延迟的问题。这样的课题并不限于透过型头部佩戴型显示装置,在外界风景的透过被遮挡的头部佩戴型显示装置中也存在这样的课题。
发明内容
根据本发明的一个实施方式,提供头部佩戴型显示装置。该头部佩戴型显示装置具有:显示部,其分别显示按照预先确定的多个焦距中的每个焦距而设定的虚拟画面;按距离分类图像生成部,其生成按距离分类显示图像,所述按距离分类显示图像用于使表示存在于相邻的两个所述焦距之间的显示对象物的显示对象显示在所述虚拟画面上;以及显示控制部,其使所生成的各所述按距离分类显示图像显示在与所述相邻的两个焦距中的、靠所述头部佩戴型显示装置的使用者的视野方向上的里侧的焦距对应的所述虚拟画面上。
附图说明
图1是示出作为本发明实施方式的头部佩戴型显示装置的概略结构的说明图。
图2是示出显示部所具有的光学系统的结构的主要部分俯视图。
图3是示意性地示出右光学系统的详细结构的说明图。
图4是示出使用者观察到的显示部的主要部分结构的图。
图5是用于说明照相机的视场角的图。
图6是功能性地示出HMD的结构的框图。
图7是功能性地示出控制装置的结构的框图。
图8是示出HMD所进行的增强现实显示的一例的说明图。
图9是示意性地示出显示对象的一例的说明图。
图10是示意性地示出显示对象的显示距离的说明图。
图11是示出显示控制处理的处理步骤的流程图。
图12是示意性地示出3DCG对象映射图的说明图。
图13是示意性地示出执行了步骤S130后的使用者的视野的说明图。
图14是示意性地示出注视着第1按距离分类显示图像的情况下的使用者的视野的说明图。
图15是示意性地示出注视着第2按距离分类显示图像的情况下的使用者的视野的说明图。
图16是示意性地示出注视着第3按距离分类显示图像的情况下的使用者的视野的说明图。
图17是示意性地示出第2实施方式的显示对象的显示距离的说明图。
图18是示出第2实施方式的显示控制处理的处理步骤的流程图。
图19是示意性地示出执行了步骤S135后的使用者的视野的说明图。
图20是示出第3实施方式的显示控制处理的处理步骤的流程图。
图21是示意性地示出执行了步骤S135a后的使用者的视野的说明图。
标号说明
10:控制装置;12:点亮部;14:触控板;16:方向键;17:确定键;18:电源开关;19:振动器;20:显示部;21:右保持部;22:右显示单元;23:左保持部;24:左显示单元;26:右导光板;27:前部框架;28:左导光板;30:头戴式耳机话筒;32:右耳机;34:左耳机;40:连接线缆;46:连接器;61:照相机;62:视线检测部;63:话筒;65:照度传感器;67:LED指示器;100:头部佩戴型显示装置;110:操作部;111:6轴传感器;113:磁传感器;115:GNSS接收器;117:无线通信部;118:存储器;120:控制器基板;121:非易失性存储部;122:存储功能部;123:设定数据;124:内容数据;130:电源部;132:电池;134:电源控制电路;140:主处理器;145:图像处理部;147:显示控制部;149:摄像控制部;150:控制功能部;151:输入输出控制部;153:按距离分类图像生成部;155:中间距离图像生成部;157:注视点距离计算部;180:语音编解码器;182:语音接口;184:外部连接器;186:外部存储器接口;188:USB连接器;192:传感器中枢;196:接口;210:显示单元基板;211:接口;213:接收部;215:EEPROM;217:温度传感器;221:OLED单元;223:OLED面板;225:OLED驱动电路;230:显示单元基板;231:接口;233:接收部;235:6轴传感器;237:磁传感器;239:温度传感器;241:OLED单元;243:OLED面板;245:OLED驱动电路;251:右光学系统;252:左光学系统;261:半透半反镜;281:半透半反镜;AI:对象图像;CL:左眼用虚拟照相机;CR:右眼用虚拟照相机;EL:端部;ER:端部;Im1:第1按距离分类显示图像;Im2:第2按距离分类显示图像;Im3:第3按距离分类显示图像;Im4:第4按距离分类显示图像;Im5:第5按距离分类显示图像;L:图像光;L1:投射透镜;LE:左眼;LL:远距离光学系统;LL1:准直透镜;LL2:焦距变更透镜;ML:中距离光学系统;ML1:准直透镜;ML2:焦距变更透镜;OB:对象物;OL:外部光;OM:3DCG对象映射图;Ob1:第1显示对象;Ob2:第2显示对象;Ob3:第3显示对象;Ob4:第4显示对象;Ob5:第5显示对象;PN:显示区域;PSM:棱镜;RD:视线;RE:右眼;RIm1:按连续距离分类显示图像;RIm2:按连续距离分类显示图像;RIm2a:按连续距离分类显示图像;RIm2b:按连续距离分类显示图像;RIm2c:按连续距离分类显示图像;ROb1:连续显示对象;SC:外景;SL:近距离光学系统;SL1:准直透镜;SL2:焦距变更透镜;VS1:第1虚拟画面;VS2:第2虚拟画面;VS3:第3虚拟画面;VT:视野;W1:第1显示距离;W2:第2显示距离;W3:第3显示距离;m1:第1反射膜;m2:第2反射膜。
具体实施方式
A.第1实施方式:
A1.头部佩戴型显示装置的整体结构:
图1是示出作为本发明实施方式的头部佩戴型显示装置100的概略结构的说明图。头部佩戴型显示装置100是佩戴于使用者的头部的显示装置,也称为头戴式显示器(HeadMounted Display、HMD)。HMD 100是在透过玻璃而看到的外界之中浮现出图像的透视型(透过型)头部佩戴型显示装置。
HMD 100具有供使用者看到图像的显示部20和对显示部20进行控制的控制装置10。
显示部20是佩戴于使用者的头部的佩戴体,在本实施方式中具有眼镜形状。在本实施方式中,在显示部20按照预先确定的多个焦距中的每个焦距设定有虚拟画面。显示部20在支承体上具有右显示单元22、左显示单元24、右导光板26以及左导光板28,其中,该支承体具有右保持部21、左保持部23、前部框架27。
右保持部21以及左保持部23分别从前部框架27的两端部向后方延伸,如眼镜的镜腿(边撑)那样,将显示部20保持于使用者的头部。这里,将前部框架27的两端部中的、在显示部20的佩戴状态下位于使用者右侧的端部设为端部ER,将位于使用者左侧的端部设为端部EL。右保持部21设置为从前部框架27的端部ER延伸至显示部20的佩戴状态下的、与使用者的右侧头部对应的位置处。左保持部23设置为从前部框架27的端部EL延伸至显示部20的佩戴状态下的、与使用者的左侧头部对应的位置处。
右导光板26以及左导光板28设置于前部框架27。右导光板26位于显示部20的佩戴状态下的使用者的右眼的眼前,使右眼看到图像。左导光板28位于显示部20的佩戴状态下的使用者的左眼的眼前,使左眼看到图像。
前部框架27具有将右导光板26的一端与左导光板28的一端相互连结的形状。该连结位置与显示部20的佩戴状态下的使用者的眉间位置对应。可以在前部框架27上的右导光板26与左导光板28的连结位置处,设置有在显示部20的佩戴状态下抵靠于使用者的鼻子的鼻托部。在该情况下,能够通过鼻托部、右保持部21和左保持部23将显示部20保持于使用者的头部。此外,可以对右保持部21以及左保持部23连结在显示部20的佩戴状态下与使用者的后头部接触的带。在该情况下,能够通过带将显示部20牢固地保持于使用者的头部。
右显示单元22进行基于右导光板26的图像显示。右显示单元22设置于右保持部21,位于显示部20的佩戴状态下的使用者的右侧头部的附近。左显示单元24进行基于左导光板28的图像显示。左显示单元24设置于左保持部23,位于显示部20的佩戴状态下的使用者的左侧头部的附近。
本实施方式的右导光板26以及左导光板28是由透光性的树脂等形成的光学部(例如棱镜),将右显示单元22以及左显示单元24输出的图像光引导至使用者的眼睛。另外,也可以在右导光板26和左导光板28的表面设置调光板。调光板是透过率根据光的波段而不同的薄板状的光学元件,作为所谓的波长滤波器而发挥功能。调光板例如被配置成将前部框架27的表面(与使用者的眼睛对置的面的相反侧的面)覆盖。通过适当选择调光板的光学特性,能够对可见光、红外光和紫外光等任意波段的光的透过率进行调整,并能够对从外部入射到右导光板26和左导光板28并透过右导光板26和左导光板28的外部光的光量进行调整。
显示部20将右显示单元22和左显示单元24分别生成的图像光引导至右导光板26和左导光板28,利用该图像光令使用者在看到透过该显示部20看到的外界风景的同时看到图像(增强现实(Augmented Reality、AR)图像)(也称此为“显示图像”)。在外部光从使用者的前方透过右导光板26和左导光板28入射到使用者的眼睛的情况下,构成图像的图像光和外部光入射到使用者的眼睛。因此,使用者对图像的可视性受到外部光的强度影响。
因此,例如能够通过在前部框架27上安装调光板,并适当选择或调整调光板的光学特性来调整图像被看到的容易度。在典型的例子中,可以选择如下的调光板:该调光板具有使佩戴了HMD 100的使用者至少能够看到外部景色的程度的透光性。并且,能够抑制太阳光而提高图像的可见性。并且,当使用调光板时,可以期待如下的效果:保护右导光板26和左导光板28,从而抑制右导光板26和左导光板28的损伤或污物的附着等。也可以是,调光板能够分别相对于前部框架27或右导光板26和左导光板28进行拆装。并且,可以更换多种调光板来进行拆装,也可以省略调光板。
照相机61配置于显示部20的前部框架27。照相机61在前部框架27的前表面上设置于不遮挡透过右导光板26以及左导光板28的外部光的位置处。在图1的例子中,照相机61配置于前部框架27的端部ER侧。照相机61也可以配置于前部框架27的端部EL侧,还可以配置于右导光板26与左导光板28的连结部。
照相机61是具有CCD、CMOS等摄像元件以及摄像镜头等的数码照相机。本实施方式的照相机61是单眼照相机,但也可以采用立体照相机。照相机61拍摄HMD 100的表侧方向(换言之,在显示部20的佩戴状态下使用者所看到的视野方向)的、至少一部分外界(真实空间)。换言之,照相机61拍摄与使用者的视野重叠的范围或方向,拍摄使用者所看到的方向。照相机61的视场角的宽度能够适当设定。在本实施方式中,照相机61的视场角的宽度被设定为拍摄使用者能够透过右导光板26以及左导光板28而看到的、使用者的整个视野。照相机61根据控制功能部150(图7)的控制来执行摄像,将得到的摄像数据向控制功能部150输出。
HMD 100也可以具有测距传感器,该测距传感器对到达位于预先设定的测量方向上的测量对象物的距离进行检测。测距传感器例如能够配置在前部框架27的右导光板26与左导光板28的连结部分。测距传感器的测量方向可以是HMD 100的表侧方向(与照相机61的拍摄方向重叠的方向)。测距传感器例如可以由LED或激光二极管等发光部、和接收光源所发出的光在测量对象物上反射的反射光的受光部构成。在该情况下,通过三角测距处理或基于时间差的测距处理来求出距离。测距传感器例如也可以由发出超声波的发送部、和接收在测量对象物上反射的超声波的接收部构成。在该情况下,通过基于时间差的测距处理来求出距离。测距传感器与照相机61同样,根据控制功能部150的指示来进行测距,并将检测结果向控制功能部150输出。
图2是示出显示部20所具有的光学系统的结构的主要部分俯视图。为了便于说明,在图2中图示出了使用者的右眼RE以及左眼LE。如图2所示,右显示单元22与左显示单元24构成为左右对称。
作为使右眼RE看到图像(AR图像)的结构,右显示单元22具有OLED(Organic LightEmitting Diode:有机电致发光二极管)单元221以及右光学系统251。另外,在图2中,省略了右光学系统251的详细结构的图示。
OLED单元221发出图像光。OLED单元221具有OLED面板223以及驱动OLED面板223的OLED驱动电路225。OLED面板223是由通过有机电致发光而发光并分别发出R(红)、G(绿)、B(蓝)的色光的发光元件构成的自发光型的显示面板。在OLED面板223中,以各包含1个R、G、B的元件的单位为1个像素的多个像素配置为矩阵状。
OLED驱动电路225按照后述的控制功能部150(图7)的控制来执行OLED面板223所具有的发光元件的选择以及通电,使发光元件发光。OLED驱动电路225通过粘接等固定于OLED面板223的背面、即发光面的背面侧。OLED驱动电路225例如可以由驱动OLED面板223的半导体器件构成,并安装于固定在OLED面板223的背面的基板上。在该基板上安装有后述的温度传感器217(图6)。另外,OLED面板223可以采用如下结构:将发出白色光的发光元件配置为矩阵状,并重叠配置与R、G、B的各色对应的滤色器。此外,除了分别放射R、G、B的色光的发光元件之外,也可以采用具有放射W(白)的光的发光元件的WRGB结构的OLED面板223。
图3是示意性地示出右光学系统251的详细结构的说明图。右光学系统251按照多个焦距的各个焦距具有光学系统SL、ML和LL,并具有棱镜PSM以及投射透镜L1。OLED单元221所发出的图像光L在被各光学系统SL、ML和LL变更了焦距后经由棱镜PSM和投射透镜L1引导至右导光板26。在本实施方式中,作为焦距,预先被确定为“第1焦距”、“第2焦距”、“第3焦距”这3个阶段的距离。
各光学系统SL、ML和LL具有彼此相同的结构。具体来说,近距离光学系统SL具有准直透镜SL1和焦距变更透镜SL2。准直透镜SL1配置在图2所示的OLED面板223侧,焦距变更透镜SL2配置在图3所示的棱镜PSM侧。准直透镜SL1和焦距变更透镜SL2相互并排配置。准直透镜SL1使从OLED单元221射出的图像光L为平行状态的光束而入射到焦距变更透镜SL2。焦距变更透镜SL2将图像光L的焦距变更为第1焦距,并使焦距变更后的图像光L入射到棱镜PSM。在本实施方式中,第1焦距被设定为50厘米。
中距离光学系统ML具有准直透镜ML1和焦距变更透镜ML2。各透镜ML1和ML2的结构与近距离光学系统SL的各透镜SL1和SL2相同。从OLED单元221射出的图像光L在准直透镜ML1中成为平行状态的光束而入射到焦距变更透镜ML2。焦距变更透镜ML2将图像光L的焦距变更为第2焦距,并使焦距变更后的图像光L入射到棱镜PSM。在本实施方式中,第2焦距被设定为1米。
远距离光学系统LL具有准直透镜LL1和焦距变更透镜LL2。各透镜LL1和LL2的结构与近距离光学系统SL的各透镜SL1和SL2相同。从OLED单元221射出的图像光L在准直透镜LL1中成为平行状态的光束而入射到焦距变更透镜LL2。焦距变更透镜LL2将图像光L的焦距变更为第3焦距,并使焦距变更后的图像光L入射到棱镜PSM。在本实施方式中,第3焦距被设定为2米。
棱镜PSM使从各光学系统SL、ML和LL射出的图像光L入射到投射透镜L1。棱镜PSM是所谓的十字分色棱镜,由将彼此的直角面贴合在一起的4个直角棱镜构成。在棱镜PSM的中心呈十字状地形成有第1反射膜m1和第2反射膜m2。第1反射膜m1仅使从中距离光学系统ML射出的图像光L向投射透镜L1的方向进行全反射。第1反射膜m1不使从近距离光学系统SL和远距离光学系统LL射出的图像光L反射。第2反射膜m2仅使从远距离光学系统LL射出的图像光L向投射透镜L1的方向进行全反射。第2反射膜m2不使从近距离光学系统SL和中距离光学系统ML射出的图像光L反射。从近距离光学系统SL射出的图像光L通过第1反射膜m1和第2反射膜m2而直接入射到投射透镜L1。
投射透镜L1使从棱镜PSM射出的焦距相互不同的多个图像光L为平行状态的光束而向右导光板26射出。另外,也可以省略投射透镜L1。
如上所述,利用各光学系统SL、ML、LL以及棱镜PSM将从OLED单元221射出的图像光L向右导光板26引导,由此,能够在显示部20中按照第1焦距、第2焦距和第3焦距来设定虚拟画面。在之后的说明中,将与第1焦距对应的虚拟画面称为第1虚拟画面,将与第2焦距对应的虚拟画面称为第2虚拟画面,将与第3焦距对应的虚拟画面称为第3虚拟画面。
在右导光板26的内部引导光的光路上形成有反射图像光L的多个反射面。图像光L在右导光板26的内部经过多次反射而被引导至右眼RE侧。在右导光板26上形成有位于右眼RE的眼前的半透半反镜261(反射面)。图像光L被半透半反镜261反射后从右导光板26向右眼RE射出,该图像光L在右眼RE的视网膜成像,由此,令使用者看到图像。
左显示单元24具有OLED单元241以及左光学系统252,作为使左眼LE看到图像(AR图像)的结构。OLED单元241发出图像光。左光学系统252具有透镜组等,将OLED单元241发出的图像光L引导至左导光板28。OLED单元241具有OLED面板243以及驱动OLED面板243的OLED驱动电路245。各部分的细节与OLED单元221、OLED面板223、OLED驱动电路225相同。在固定于OLED面板243的背面的基板上安装有温度传感器239(图6)。此外,左光学系统252的细节与上述的右光学系统251相同。
根据以上说明的结构,HMD 100能够作为透视型的显示装置而发挥功能。即,被半透半反镜261反射后的图像光L以及透过右导光板26的外部光OL入射到使用者的右眼RE。被半透半反镜281反射后的图像光L以及透过左导光板28的外部光OL入射到使用者的左眼LE。这样,HMD 100使在内部处理后的图像的图像光L与外部光OL重叠地入射到使用者的眼睛中。其结果是,使用者能够透过右导光板26以及左导光板28而看到外界风景(真实世界),并且与该外界重叠地看到了基于图像光L的虚像(虚像图像、AR图像)。
另外,将右光学系统251和右导光板26也统称为“右导光部”,将左光学系统252和左导光板28也统称为“左导光部”。右导光部和左导光部的结构并不限于上述例子,只要使用图像光在使用者的眼前形成图像,则能够使用任意的方式。例如,右导光部以及左导光部可以使用衍射光栅,也可以使用半透过反射膜。
在图1中,控制装置10和显示部20利用连接线缆40连接。连接线缆40以能够拆装的方式与设置于控制装置10的下部的连接器连接,从左保持部23的末端连接到显示部20内部的各种电路。连接线缆40具有传输数字数据的金属线缆或光纤线缆。连接线缆40还可以包含传输模拟数据的金属线缆。在连接线缆40的中途设置有连接器46。
连接器46是连接立体声迷你插头的插孔,连接器46和控制装置10例如用传输模拟语音信号的线连接。在图1所示的本实施方式的例子中,连接器46与头戴式耳机话筒30连接,该头戴式耳机话筒30具有构成立体声耳机的右耳机32和左耳机34、以及话筒63。
例如,如图1所示,话筒63被配置成使话筒63的语音采集部朝向使用者的视线方向。话筒63采集语音,将语音信号输出到语音接口182(图6)。话筒63可以是单声道话筒,也可以是立体声话筒,可以是定向话筒,也可以是全向话筒。
控制装置10是用于控制HMD 100的装置。控制装置10包含点亮部12、触控板14、方向键16、确定键17以及电源开关18。点亮部12利用其发光状态来通知HMD 100的工作状态(例如,电源的接通/断开等)。作为点亮部12,例如,可以使用LED(Light Emitting Diode:发光二极管)。
触控板14检测触控板14的操作面上的接触操作而输出与检测内容对应的信号。作为触控板14,可以采用静电式、压力检测式或光学式之类的各种触控板。方向键16检测针对与上下左右方向对应的键的按下操作而输出与检测内容对应的信号。确定键17检测按下操作而输出用于确定在控制装置10中所操作的内容的信号。电源开关18通过检测开关的滑动操作来切换HMD 100的电源的状态。
图4是示出由使用者看到的显示部20的主要部分结构的图。在图4中,省略了连接线缆40、右耳机32、左耳机34的图示。在图4的状态下,能够看到右导光板26以及左导光板28的背面侧,并且能够看到大致四边形区域的、用于向右眼RE照射图像光的半透半反镜261以及用于向左眼LE照射图像光的半透半反镜281。使用者可透过包含这些半透半反镜261、281的右导光板26、左导光板28的整体而看到外界的风景,并且在半透半反镜261、281的位置处看到矩形的显示图像。
图5是用于说明照相机61的视场角的图。在图5中,俯视地示意性示出照相机61、使用者的右眼RE以及左眼LE,并且用θ来表示照相机61的视场角(拍摄范围)。另外,照相机61的视场角θ除了如图示那样沿水平方向扩展之外,还与通常的数码照相机同样地沿铅直方向扩展。
如上述那样,照相机61在显示部20中配置于右侧的端部,拍摄使用者的视野的方向(即使用者的前方)。因此,照相机61的光轴处于包含右眼RE以及左眼LE的视线方向的方向上。使用者在佩戴着HMD 100的状态下能够看到的外界的风景不限于无限远。例如,当使用者使用双眼注视对象物OB时,使用者的视线如图中的标号RD、LD所示那样朝向对象物OB。在该情况下,从使用者至对象物OB的距离大多情况下为30cm~10m左右,更多情况下为1m~4m。因此,关于HMD 100,可以确定通常使用时的从使用者至对象物OB的距离的上限以及下限的基准。该基准可以预先求得并预设置在HMD 100中,使用者也可以设定该基准。照相机61的光轴以及视场角优选被设定为:使得在这样的通常使用时的、与对象物OB的距离对应于所设定的上限以及下限的基准的情况下,对象物OB包含在视场角内。
另外,一般情况下,人的视野角在水平方向上大约为200度、在垂直方向上大约为125度。其中,信息接受能力优异的有效视野在水平方向上为30度左右、垂直方向上为20度左右。人注视的注视点能够迅速地稳定观察到的稳定注视视野在水平方向上为60~90度、在垂直方向上为45~70度左右。在该情况下,当注视点为对象物OB(图5)时,以视线RD、LD为中心而在水平方向上为30度、在垂直方向上为20度左右是有效视野。此外,在水平方向上为60~90度、在垂直方向上为45~70度左右是稳定注视视野。将使用者透过显示部20的右导光板26以及左导光板28而看到的实际视野称为真实视野(FOV:Field Of View)。真实视野比视野角以及稳定注视视野窄,但比有效视野宽。
本实施方式的照相机61的视场角θ被设定为能够拍摄比使用者的视野宽的范围。照相机61的视场角θ优选被设定为至少能够拍摄比使用者的有效视野宽的范围,更优选被设定为能够拍摄比真实视野宽的范围。照相机61的视场角θ进一步优选被设定为能够拍摄比使用者的稳定注视视野宽的范围,最优选被设定为能够拍摄比使用者的双眼的视野角宽的范围。因此,照相机61可以采用如下结构:具有所谓的广角镜头作为摄像镜头从而能够拍摄较宽的视场角。广角镜头可以包含被称为超广角镜头以及准广角镜头的镜头。此外,照相机61可以包含单焦点镜头,也可以包含变焦镜头,还可以包含由多个镜头组成的镜头组。
图6是功能性地示出HMD 100的结构的框图。控制装置10具有:主处理器140,其执行程序而控制HMD 100;存储部;输入输出部;传感器类;接口;以及电源部130。主处理器140分别与这些存储部、输入输出部、传感器类、接口以及电源部130连接。主处理器140安装于内置有控制装置10的控制器基板120。
存储部包含存储器118以及非易失性存储部121。存储器118构成了临时存储由主处理器140执行的计算机程序以及由主处理器140处理的数据的工作区。非易失性存储部121由闪存或eMMC(embedded Multi Media Card:嵌入式多媒体卡)构成。非易失性存储部121存储有主处理器140执行的计算机程序以及由主处理器140处理的各种数据。在本实施方式中,这些存储部安装于控制器基板120。
输入输出部包含触控板14和操作部110。操作部110包含控制装置10所具有的方向键16、确定键17和电源开关18。主处理器140对这各个输入输出部进行控制,并且取得从各输入输出部输出的信号。
传感器类包含6轴传感器111、磁传感器113以及GNSS(Global NavigationSatellite System:全球导航卫星系统)接收器115。6轴传感器111是具有3轴加速度传感器和3轴陀螺仪(角速度)传感器的运动传感器(惯性传感器)。6轴传感器111可以采用将这些传感器模块化而得的IMU(Inertial Measurement Unit:惯性测量装置)。磁传感器113例如是3轴地磁传感器。GNSS接收器115根据从构成GNSS的人造卫星接收的导航信号来检测控制装置10的当前位置(经度/纬度)。这些传感器类(6轴传感器111、磁传感器113、GNSS接收器115)根据预先指定的采样频率将检测值输出到主处理器140。各传感器输出检测值的时刻可以基于来自主处理器140的指示。
接口包含无线通信部117、语音编解码器180、外部连接器184、外部存储器接口186、USB(Universal Serial Bus:通用串行总线)连接器188、传感器中枢192、FPGA 194以及接口196。它们作为与外部的接口而发挥功能。
无线通信部117执行HMD 100与外部设备之间的无线通信。无线通信部117构成为具有未图示的天线、RF电路、基带电路以及通信控制电路等,或者作为将它们整合而得的器件。无线通信部117进行基于例如包含Bluetooth(注册商标)和Wi-Fi(注册商标)的无线LAN等标准的无线通信。
语音编解码器180与语音接口182连接,进行经由语音接口182输入输出的语音信号的编码/解码。语音接口182是输入输出语音信号的接口。语音编解码器180可以具有进行从模拟语音信号向数字语音数据的转换的A/D转换器、以及进行从数字语音数据向模拟语音信号的转换的D/A转换器。本实施方式的HMD 100从右耳机32以及左耳机34输出语音,并通过话筒63采集语音。语音编解码器180将主处理器140输出的数字语音数据转换为模拟语音信号,并经由语音接口182而输出。此外,语音编解码器180将输入到语音接口182的模拟语音信号转换为数字语音数据并输出到主处理器140。
外部连接器184是用于将与主处理器140进行通信的外部装置(例如,个人计算机、智能手机、游戏设备等)连接到主处理器140的连接器。与外部连接器184连接的外部装置除了能够作为内容的供给方之外,还能够用于主处理器140执行的计算机程序的调试、HMD100的工作日志的收集。外部连接器184能够采用各种方式。作为外部连接器184,例如能够采用USB接口、微型USB接口、存储卡用接口等与有线连接对应的接口,或者无线LAN接口、Bluetooth接口等与无线连接对应的接口。
外部存储器接口186是能够用于连接可移动型的存储器件的接口。外部存储器接口186例如包含用于安装卡型记录介质而进行数据的读写的存储卡槽、以及接口电路。卡型记录介质的尺寸、形状、规格等能够适当选择。USB连接器188是能够连接基于USB标准的存储器件、智能手机、个人计算机等的接口。USB连接器188例如包含基于USB标准的连接器以及接口电路。USB连接器188的尺寸、形状、USB标准的版本等能够适当选择。
并且,HMD 100具有振动器19。振动器19具有未图示的电机以及偏芯的转子等,根据主处理器140的控制而产生振动。例如在检测到对操作部110的操作的情况下、或HMD 100的电源接通断开的情况下等,HMD 100使振动器19按照规定的振动模式产生振动。也可以代替将振动器19设置于控制装置10的结构,而采用将振动器19设置于显示部20侧、例如图像显示部的右保持部21(镜腿的右侧部分)的结构。
传感器中枢192以及FPGA 194经由接口(I/F)196与显示部20连接。传感器中枢192取得显示部20所具有的各种传感器的检测值,并输出到主处理器140。FPGA 194执行在主处理器140与显示部20的各部分之间收发的数据的处理以及经由接口196的传送。接口196分别与显示部20的右显示单元22和左显示单元24连接。在本实施方式的例子中,连接线缆40与左保持部23连接,与该连接线缆40相连的布线铺设在显示部20内部,右显示单元22和左显示单元24分别与控制装置10的接口196连接。
电源部130包含电池132以及电源控制电路134。电源部130供给用于供控制装置10动作的电力。电池132是能够充电的电池。电源控制电路134进行电池132的剩余容量的检测以及对OS 143(图7)的充电的控制。电源控制电路134与主处理器140连接,将电池132的剩余容量的检测值、电池132的电压的检测值输出到主处理器140。另外,可以根据电源部130所供给的电力而从控制装置10向显示部20供给电力。可以构成为:能够通过主处理器140来控制从电源部130向控制装置10的各部分以及显示部20的电力的供给状态。
右显示单元22具有显示单元基板210、OLED单元221、照相机61、照度传感器65、LED指示器67以及温度传感器217。在显示单元基板210上安装有与接口196连接的接口(I/F)211、接收部(Rx)213以及EEPROM(Electrically Erasable Programmable Read-OnlyMemory:电可擦可编程只读存储器)215。接收部213接收经由接口211而从控制装置10输入的数据。接收部213在接收到OLED单元221所显示的图像的图像数据的情况下,将接收到的图像数据输出到OLED驱动电路225(图2)。
EEPROM 215以主处理器140能够读取的方式存储各种数据。EEPROM 215例如存储显示部20的与OLED单元221、241的发光特性、显示特性相关的数据、与右显示单元22或者左显示单元24的传感器特性相关的数据等。具体而言,例如,存储与OLED单元221、241的伽马校正相关的参数、对后述的温度传感器217、239的检测值进行补偿的数据等。这些数据通过HMD 100的工厂出货时的检查而生成,并被写入EEPROM 215中。在出货后,主处理器140读入EEPROM 215的数据而将其用于各种处理。
照相机61根据经由接口211输入的信号执行拍摄,并将拍摄图像数据或者表示拍摄结果的信号输出到控制装置10。如图1所示,照度传感器65设置于前部框架27的端部ER,配置为接受来自佩戴有显示部20的使用者的前方的外部光。照度传感器65输出与受光量(受光强度)对应的检测值。如图1所示,LED指示器67在前部框架27的端部ER配置于照相机61的附近。LED指示器67在照相机61执行拍摄的过程中点亮,从而告知处于拍摄中。
温度传感器217检测温度,并输出与检测到的温度对应的电压值或者电阻值。温度传感器217安装于OLED面板223(图2)的背面侧。温度传感器217例如可以与OLED驱动电路225安装于同一基板。通过该结构,温度传感器217主要检测OLED面板223的温度。另外,温度传感器217可以内置于OLED面板223或者OLED驱动电路225(图2)。例如,在将OLED面板223作为Si-OLED而与OLED驱动电路225一起安装为集成半导体芯片上的集成电路的情况下,可以将温度传感器217安装于该半导体芯片。
左显示单元24具有显示单元基板230、OLED单元241以及温度传感器239。在显示单元基板230上安装有与接口196连接的接口(I/F)231、接收部(Rx)233、6轴传感器235以及磁传感器237。接收部233接收经由接口231而从控制装置10输入的数据。接收部233在接收到OLED单元241所显示的图像的图像数据的情况下,将接收到的图像数据输出到OLED驱动电路245(图2)。
6轴传感器235是具有3轴加速度传感器以及3轴陀螺仪(角速度)传感器的运动传感器(惯性传感器)。6轴传感器235可以采用将上述传感器模块化而得的IMU。磁传感器237例如是3轴的地磁传感器。6轴传感器235与磁传感器237设置于显示部20,因此,在显示部20被佩戴于使用者的头部时,检测使用者的头部的运动。根据检测出的头部的运动来确定显示部20的朝向(即,使用者的视野)。
温度传感器239检测温度,并输出与检测的温度对应的电压值或者电阻值。温度传感器239安装于OLED面板243(图2)的背面侧。温度传感器239例如可以与OLED驱动电路245安装于同一基板。通过该结构,温度传感器239主要检测OLED面板243的温度。温度传感器239可以内置于OLED面板243或者OLED驱动电路245(图2)。细节与温度传感器217相同。
右显示单元22的照相机61、照度传感器65、温度传感器217以及左显示单元24的6轴传感器235、磁传感器237、温度传感器239与控制装置10的传感器中枢192连接。传感器中枢192根据主处理器140的控制,进行各传感器的采样周期的设定以及初始化。传感器中枢192按照各传感器的采样周期来执行对各传感器的通电、控制数据的发送、检测值的取得等。传感器中枢192在预先设定的时刻,将右显示单元22以及左显示单元24所具有的各传感器的检测值输出到主处理器140。传感器中枢192可以具有临时保存各传感器的检测值的缓存功能。传感器中枢192可以具有各传感器的检测值的信号形式、数据形式的转换功能(例如,向统一形式的转换功能)。传感器中枢192根据主处理器140的控制使对LED指示器67的通电开始以及停止,由此,使LED指示器67点亮或熄灭。
视线检测部62分别配置在与使用者的左右外眼角的下方对应的位置。左右的视线检测部62分别具有未图示的红外线发光部和红外线受光部。右侧的视线检测部62接收从红外线发光部射出并与使用者的右眼接触后反射的红外线。左侧的视线检测部62接收从红外线发光部射出并与使用者的左眼接触后反射的红外线。左右的视线检测部62分别根据接收到的红外线的强度,检测使用者的左眼和右眼的视线。视线检测部62经由接口196将检测到的视线向控制装置10输出。红外线的反射率在红外线与虹膜(黑眼珠)接触的情况、红外线与眼皮接触的情况以及红外线与眼白接触的情况下分别不同。因此,视线检测部62能够根据接收到的红外线的强度来取得使用者的视线的运动。另外,视线检测部62可以不分别左右设置,也可以设置在左右任意一侧。
图7是功能性地示出控制装置10的结构的框图。控制装置10在功能上具有存储功能部122以及控制功能部150。存储功能部122是由非易失性存储部121(图6)构成的逻辑存储部。对于存储功能部122,可以代替仅使用存储功能部121的结构,而采用与非易失性存储部121组合使用EEPROM 215、存储器118的结构。控制功能部150是通过主处理器140执行计算机程序、即硬件与软件协作而构成的。
存储功能部122存储有用于控制功能部150的处理的各种数据。具体而言,本实施方式的存储功能部122存储有设定数据123以及内容数据124。设定数据123包含与HMD 100的动作相关的各种设定值。例如,设定数据123包含控制功能部150控制HMD 100时的参数、行列式、运算式、LUT(Look Up Table:查找表)等。
内容数据124包含内容数据(图像数据、影像数据、语音数据等),该内容数据包含显示部20通过控制功能部150的控制而显示的图像、影像。另外,内容数据124可以包含双向型的内容数据。双向型的内容是指如下类型的内容:通过操作部110取得使用者的操作,由控制功能部150执行与所取得的操作内容对应的处理,并将与处理内容对应的内容显示在显示部20上。在该情况下,内容数据可以包含用于取得使用者的操作的菜单画面的图像数据、对与菜单画面所包含的项目对应的处理进行确定的数据等。
控制功能部150利用存储功能部122所存储的数据来执行各种处理,从而执行作为OS(Operating System:操作系统)143、图像处理部145、显示控制部147、摄像控制部149、输入输出控制部151、按距离分类图像生成部153、中间距离图像生成部155、注视点距离计算部157的功能。在本实施方式中,OS 143以外的各功能部作为在OS 143上执行的计算机程序而构成。
图像处理部145根据显示部20显示的图像/影像的图像数据,生成发送到右显示单元22以及左显示单元24的信号。图像处理部145生成的信号可以是垂直同步信号、水平同步信号、时钟信号、模拟图像信号等。除了主处理器140执行计算机程序而实现的结构之外,图像处理部145也可以由与主处理器140不同的硬件(例如,DSP(Digital Signal Processor:数字信号处理器))构成。
另外,图像处理部145可以根据需要执行分辨率转换处理、图像调整处理、2D/3D转换处理等。分辨率转换处理是将图像数据的分辨率转换为与右显示单元22以及左显示单元24相适应的分辨率的处理。图像调整处理是调整图像数据的亮度、饱和度的处理。2D/3D转换处理是根据三维图像数据生成二维图像数据,或者,根据二维图像数据生成三维图像数据的处理。图像处理部145在执行了这些处理的情况下,根据处理后的图像数据生成用于显示图像的信号,并经由连接线缆40发送到显示部20。
显示控制部147生成对右显示单元22以及左显示单元24进行控制的控制信号,并通过该控制信号来控制右显示单元22和左显示单元24各自的图像光的生成和射出。具体而言,显示控制部147控制OLED驱动电路225、245,执行基于OLED面板223、243的图像显示。显示控制部147根据图像处理部145输出的信号,进行OLED驱动电路225、245在OLED面板223、243上进行描绘的时刻的控制、OLED面板223、243的亮度的控制等。并且,显示控制部147在后述的显示控制处理中,使显示部20的各虚拟画面上显示由按距离分类图像生成部153生成的后述的按距离分类显示图像。
摄像控制部149对照相机61进行控制而使其执行拍摄,生成拍摄图像数据,并临时存储到存储功能部122中。并且,在照相机61构成为包含生成拍摄图像数据的电路的照相机单元的情况下,摄像控制部149从照相机61取得拍摄图像数据,并临时存储到存储功能部122中。
输入输出控制部151对触控板14(图1)、方向键16和确定键17进行适当控制而受理来自它们的输入指令。所受理的输入指令被输出到OS 143、或在输出到OS 143的同时被输出到在OS 143上运行的计算机程序。
按距离分类图像生成部153生成用于使存在于上述3个阶段的各焦距中的相邻的两个焦距之间的显示对象显示在上述虚拟画面上的显示图像(以下,称为“按距离分类显示图像”)。另外,在后面对与按距离分类显示图像相关的详细说明进行叙述。
中间距离图像生成部155生成用于使表示存在于上述3个阶段的各焦距的中间位置处的显示对象物的显示对象显示在上述虚拟画面上的显示图像(以下,称为“中间距离显示图像”)。此时,中间距离图像生成部155对分别存在于第1焦距、第2焦距和第3焦距的显示对象的颜色进行合成,将合成而得的颜色设定为中间距离显示图像的颜色。另外,此时,中间距离图像生成部155也可以对分别存在于第1焦距、第2焦距和第3焦距的显示对象的亮度(明亮度)进行合成,将合成而得的亮度(明亮度)设定为中间距离显示图像的颜色。
注视点距离计算部157计算注视点距离。在本实施方式中,“注视点距离”是指使用者与使用者所注视的注视点之间的距离。并且,“注视点”是指连接使用者的中心眼窝(视网膜中视力最高的场所)与虹膜的中心的左右虚拟线所相交的点。注视点距离计算部157根据视线检测部62所检测的使用者的视线来检测使用者的注视点,将检测到的注视点与使用者的眼睛之间的距离计算为注视点距离。另外,注视点距离计算部157也可以反复执行注视点距离的计算。由此,能够实时确定注视点距离。
A2.增强现实表示:
图8是示出基于HMD 100的增强现实显示的一例的说明图。在图8中,例示了使用者的视野VT。如上所述,通过使被引导至HMD 100的使用者的双眼的图像光在使用者的视网膜上成像,使用者在显示区域PN内将显示对象的对象图像AI看作增强现实(AR)。在图8所示的例子中,对象图像AI是HMD 100的OS的菜单画面。在菜单画面中例如包含用于启动“模拟钟表”、“消息”、“音乐”、“导航”、“照相机”、“浏览器”、“日历”、“电话”的各应用程序的图标图像IC。并且,右导光板26、左导光板28通过使来自外界的光透过而令使用者看到外景SC。这样,本实施方式的HMD 100的使用者能够使视野VT中的显示有对象图像AI的部分与外景SC重叠而看到对象图像AI。并且,对于视野VT中的不显示对象图像AI的部分,能够仅看到外景SC。
图9是示意性地示出显示对象的一例的说明图。视野VT是透过HMD 100的使用者所佩戴的HMD 100的显示部20而被使用者看到的。另外,在图9中,省略了外景SC的图示。在显示区域PN中显示有3个显示对象Ob1、Ob2和Ob3。在本实施方式中,“显示对象”是指表示显示对象物的立体(3D)的显示图像。具体来说,第1显示对象Ob1是表示作为显示对象物的“苹果”的立体的显示图像。第2显示对象Ob2是表示作为显示对象物的“电视”的立体的显示图像。第3显示对象Ob3是表示作为显示对象物的“钟表”的立体的显示图像。
如图9所示,3个显示对象Ob1、Ob2和Ob3被显示为在HMD 100的使用者的视野方向上从显示部20侧(靠近使用者的一侧)起按照第1显示对象Ob1、第2显示对象Ob2、第3显示对象Ob3的顺序配置。此时,HMD 100的使用者的左眼LE和右眼RE到各显示对象Ob1、Ob2和Ob3的距离按照每个显示对象Ob1、Ob2和Ob3而不同。
图10是示意性地示出显示对象Ob1、Ob2和Ob3的显示距离的说明图。在本实施方式中,“显示距离”是指使用者的右眼RE和左眼LE的视点位置与显示对象的显示位置之间的距离。如图10所示,第1显示对象Ob1的显示距离是第1显示距离W1。第1显示距离W1与上述显示部20中的近距离光学系统SL的焦距变更透镜SL2所设定的第1焦距相同,为50厘米。第2显示对象Ob2的显示距离是第2显示距离W2。第2显示距离W2与上述显示部20中的中距离光学系统ML的焦距变更透镜ML2所设定的第2焦距相同,为1米。第3显示对象Ob3的显示距离是第3显示距离W3。第3显示距离W3与上述显示部20中的远距离光学系统LL的焦距变更透镜LL2所设定的第3焦距相同,为2米。
如图9和图10所示,当使显示距离不同的显示对象Ob1、Ob2和Ob3显示在与单一焦距对应的显示画面上时,会因各显示对象Ob1、Ob2和Ob3的焦距的不同以及各显示对象Ob1、Ob2和Ob3的会聚角的不同而产生光学不匹配。但是,在本实施方式中,在后述的显示控制处理中,在每个焦距之间切取显示对象Ob1、Ob2和Ob3而生成显示图像,在与相邻的两个焦距中的、靠HMD 100的使用者的视野方向上的里侧的焦距对应的虚拟画面上显示所生成的显示图像,由此能够减少上述光学不匹配。以下,对具体的处理内容进行说明。
A3.显示控制处理:
图11是示出显示控制处理的处理步骤的流程图。当使用者将控制装置10的电源开关18设定为接通时,开始显示控制处理。按距离分类图像生成部153生成3DCG对象映射图(步骤S100)。3DCG对象映射图是将3维计算机图形对象与该对象的位置(坐标)映射起来而得的。3DCG对象映射图可以利用公知的方法来生成,例如,可以根据各显示对象Ob1、Ob2和Ob3相对于透过显示部20而看到的外景SC中的物体(存在于真实空间的物体)的位置,通过在3维计算机图形的虚拟环境内配置各显示对象Ob1、Ob2和Ob3而生成。
图12是示意性地示出3DCG对象映射图OM的说明图。如图12所示,在3DCG对象映射图OM的XYZ空间中配置有显示对象Ob1、Ob2和Ob3。各显示对象Ob1、Ob2和Ob3被配置成与图9和图10所示的位置关系同样的位置关系。按距离分类图像生成部153通过确定在从使用者的视点位置观察存在于真实空间的物体时以该物体为基准的各显示对象Ob1、Ob2和Ob3的显示位置,能够在3DCG对象映射图OM中,在存在于真实空间的物体的位置与各显示对象物的位置一致的位置处配置各显示对象Ob1、Ob2和Ob3。另外,如图12所示,在3DCG对象映射图OM中设定有左眼用虚拟照相机CL和右眼用虚拟照相机CR。各虚拟照相机CL和CR在生成后述的按距离分类显示图像时使用。
如图11所示,按距离分类图像生成部153设定左眼LE和右眼RE的视点位置(步骤S110)。具体来说,按距离分类图像生成部153将设定在3DCG对象映射图OM中的左眼用虚拟照相机CL的位置设定在HMD 100的使用者的左眼LE的视点位置,将右眼用虚拟照相机CR的位置设定在HMD 100的使用者的右眼RE的视点位置。此时,按距离分类图像生成部153将各虚拟照相机CL和CR的朝向设定为HMD 100的使用者的视野方向。另外,也可以与步骤S100同时地执行步骤S110。
如图11所示,按距离分类图像生成部153生成按距离分类显示图像(步骤S120)。具体来说,按距离分类图像生成部153利用虚拟照相机CL和CR对各显示对象Ob1、Ob2和Ob3进行拍摄,从拍摄图像中切取存在于相邻的两个焦距之间的显示对象Ob1、Ob2和Ob3。更具体来说,按距离分类图像生成部153在3DCG对象映射图OM中切取焦距处于0厘米到第1焦距的显示对象而生成与第1焦距对应的按距离分类显示图像(以下,称为“第1按距离分类显示图像”)。在本实施方式中,“焦距为0厘米”是指到使用者的视点位置的距离为0厘米。如上所述,各虚拟照相机CL和CR的位置被设定在HMD 100的使用者的左眼LE和右眼RE的视点位置,因此按距离分类图像生成部153切取存在于各虚拟照相机CL和CR到第1焦距之间的显示对象。
并且,按距离分类图像生成部153在3DCG对象映射图OM中切取处于第1焦距到第2焦距的显示对象而生成与第2焦距对应的按距离分类显示图像(以下,称为“第2按距离分类显示图像”)。并且,按距离分类图像生成部153在3DCG对象映射图OM中切取处于第2焦距到第3焦距的显示对象而生成与第3焦距对应的按距离分类显示图像(以下,称为“第3按距离分类显示图像”)。
例如,在图12所示的例子中,生成切取了第1显示对象Ob1的图像来作为第1按距离分类显示图像。并且,生成切取了第2显示对象Ob2的图像来作为第2按距离分类显示图像,生成切取了第3显示对象Ob3的图像来作为第3按距离分类显示图像。另外,除了存在于第2焦距与第3焦距之间的显示对象之外,还可以在第3按距离分类显示图像中切取在使用者的视野方向上存在于比第3焦距靠里侧的显示对象。
另外,在上述步骤S120中,在从使用者的视野的方向来看显示对象Ob1、Ob2和Ob3完全重叠的情况下,按距离分类图像生成部153仅切取位于视野方向的近前侧的显示对象,不切取位于视野方向的里侧的显示对象。并且,在从使用者的视野方向来看显示对象Ob1、Ob2和Ob3的一部分出现重叠的情况下,按距离分类图像生成部153切取位于视野方向的近前侧的显示对象,并且,切取位于视野方向的里侧的显示对象中的、与位于视野方向的近前侧的显示对象不重叠的部分。此时,按距离分类图像生成部153从位于视野方向的里侧的显示对象中切去与位于视野方向的近前侧的显示对象重叠的部分,从而切取出除重叠部分之外的部分。这是为了仅切取虚拟照相机CL和CR可见的部分而不切取虚拟照相机CL和CR看不到的部分,由此减轻给使用者带来的不舒适感。
如图11所示,显示控制部147使所生成的按距离分类显示图像显示在虚拟画面上(步骤S130)。具体来说,显示控制部147使各按距离分类图像同时显示在与相邻的两个焦距中的、靠使用者的视野方向上的里侧的焦距对应的虚拟画面上。例如,与第1按距离分类显示图像对应的焦距是0厘米和第1焦距,靠使用者的视野方向上的里侧的焦距是第1焦距。因此,第1按距离分类显示图像显示在与第1焦距对应的第1虚拟画面上。并且,例如,与第2按距离分类显示图像对应的焦距是第1焦距和第2焦距,靠使用者的视野方向上的里侧的焦距是第2焦距。因此,第2按距离分类显示图像显示在与第2焦距对应的第2虚拟画面上。并且,例如,与第3按距离分类显示图像对应的焦距是第2焦距和第3焦距,靠使用者的视野方向上的里侧的焦距是第3焦距。因此,第3按距离分类显示图像显示在与第3焦距对应的第3虚拟画面上。
图13是示意性地示出执行了步骤S130后的使用者的视野VT的说明图。在图13中,与图9同样,省略了外景SC的图示。如图13所示,在显示区域PN中显示有按距离分类显示图像Im1、Im2和Im3。第1按距离分类显示图像Im1显示在单点划线所示的第1虚拟画面VS1上。第2按距离分类显示图像Im2显示在虚线所示的第2虚拟画面VS2上。第3按距离分类显示图像Im3显示在双点划线所示的第3虚拟画面VS3上。如上所述,由于各按距离分类显示图像Im1、Im2和Im3显示在与相互不同的焦距对应的虚拟画面VS1、VS2和VS3上,所以当使用者注视各按距离分类显示图像Im1、Im2和Im3时,能够减小焦距偏差、会聚角偏差,并且能够看到各按距离分类显示图像Im1、Im2和Im3。
图14是示意性地示出注视着第1按距离分类显示图像Im1的情况下的使用者的视野VT的说明图。在图14中,与图13同样,省略了外景SC的图示。如图14所示,在使用者注视着第1按距离分类显示图像Im1的情况下,由于第1显示对象Ob1的显示距离(第1显示距离W1)与第1焦距相同,所以第1按距离分类显示图像Im1对焦在第1虚拟画面VS1上。在该情况下,第2按距离分类显示图像Im2显示在与比第1显示距离W1大的第2焦距对应的第2虚拟画面VS2上,第3按距离分类显示图像Im3显示在与比第1显示距离W1大的第3焦距对应的第3虚拟画面VS3上,因此第2按距离分类显示图像Im2和第3按距离分类显示图像Im3被模糊地看到。另外,在图14中,通过对第2按距离分类显示图像Im2和第3按距离分类显示图像Im3施加阴影,示意性地示出了模糊地看到的情形。
图15是示意性地示出注视着第2按距离分类显示图像Im2的情况下的使用者的视野VT的说明图。在图15中,与图14同样地省略了外景SC的图示。在图15中,通过与图14同样地对第1按距离分类显示图像Im1和第3按距离分类显示图像Im3施加阴影,示意性地示出了焦距偏差而被模糊地看到的情形。如图15所示,在使用者注视着第2按距离分类显示图像Im2的情况下,由于第2显示对象Ob2的显示距离(第2显示距离W2)与第2焦距相同,所以第2按距离分类显示图像Im2对焦在第2虚拟画面VS2上。在该情况下,第1按距离分类显示图像Im1显示在与比第2显示距离W2小的第1焦距对应的第1虚拟画面VS1上,第3按距离分类显示图像Im3显示在与比第2显示距离W2大的第3焦距对应的第3虚拟画面VS3上,因此第1按距离分类显示图像Im1和第3按距离分类显示图像Im3被模糊地看到。
图16是示意性地示出注视着第3按距离分类显示图像Im3的情况下的使用者的视野VT的说明图。在图16中,与图14同样地省略了外景SC的图示。在图16中,通过与图14同样地对第1按距离分类显示图像Im1和第2按距离分类显示图像Im2施加阴影,示意性地示出了因焦距偏差而模糊看到的情形。如图16所示,在使用者注视着第3按距离分类显示图像Im3的情况下,由于第3显示对象Ob3的显示距离(第3显示距离W3)与第3焦距相同,所以第3按距离分类显示图像Im3对焦在第3虚拟画面VS3上。在该情况下,第1按距离分类显示图像Im1显示在与比第3显示距离W3小的第1焦距对应的第1虚拟画面VS1上,第2按距离分类显示图像Im2显示在与比第3显示距离W3小的第2焦距对应的第2虚拟画面VS2上,因此第1按距离分类显示图像Im1和第2按距离分类显示图像Im2被模糊地看到。
如图11所示,在执行了步骤S130之后,返回到上述步骤S100。
根据以上说明的本实施方式的HMD 100,生成用于使表示存在于相邻的两个焦距之间的显示对象物的显示对象Ob1、Ob2和Ob3显示在虚拟画面VS1、VS2和VS3上的按距离分类显示图像Im1、Im2和Im3。并且,所生成的各按距离分类显示图像Im1、Im2和Im3显示在与相邻的两个焦距中的、靠HMD 100的使用者的视野方向上的里侧的焦距对应的虚拟画面上,能够减少因会聚角偏差和焦距偏差而引起的光学不匹配。
此外,在多个显示对象Ob1、Ob2和Ob3从视野方向来看重叠的情况下,由于该多个显示对象Ob1、Ob2和Ob3中的、位于视野方向的里侧的显示对象Ob1、Ob2和Ob3的一部分是不显示的,所以与显示位于视野方向的里侧的显示对象Ob1、Ob2和Ob3的结构相比,能够减轻给使用者带来的不舒适感。
B.第2实施方式:
第2实施方式的头部佩戴型显示装置100与第1实施方式的头部佩戴型显示装置100相同,因此省略其详细的说明。
第2实施方式的控制功能部在如下的点上与第1实施方式的控制功能部150不同:显示控制部147使表示连续存在于多个焦距内的显示对象物的显示对象(以下,称为“连续显示对象”)的整体显示在与注视点距离最相近的焦距所对应的虚拟画面上。第2实施方式的控制功能部的其他结构与第1实施方式的控制功能部150相同,因此省略其详细的说明。
图17是示意性地示出第2实施方式的显示对象Ob4、Ob5和ROb1的显示距离的说明图。如图17所示,第4显示对象Ob4是表示作为显示对象物的“观叶植物”的立体显示图像。连续显示对象ROb1是表示作为显示对象物的“台子”的立体显示图像。第5显示对象Ob5是表示作为显示对象物的“飞机”的立体显示图像。第4显示对象Ob4的显示距离是第1显示距离W1。连续显示对象ROb1的显示距离是从第1显示距离W1到第3显示距离W3的整个范围的距离。第5显示对象Ob5的显示距离是第3显示距离W3。与第1实施方式同样,各显示距离W1、W2和W3分别与上述第1焦距、第2焦距和第3焦距对应。
图18是示出第2实施方式的显示控制处理的处理步骤的流程图。第2实施方式的显示控制处理在追加执行步骤S125、步骤S131和步骤S135的点上与图11所示的第1实施方式的显示控制处理的处理步骤不同。第2实施方式的显示控制处理的其他步骤与第1实施方式的显示控制处理相同,因此对相同的步骤赋予相同的标号并省略其详细的说明。
如图18所示,当生成按距离分类显示图像时(步骤S120),按距离分类图像生成部153判定显示对象是否为连续显示对象ROb1(步骤S125)。具体来说,按距离分类图像生成部153对各虚拟照相机CL和CR所拍摄到的图像进行分析以确定显示对象是否在多个焦距内连续。在判定为显示对象不是连续显示对象ROb1的情况下(步骤S125:否),执行上述步骤S130。另一方面,在判定为显示对象为连续显示对象ROb1的情况下(步骤S125:是),注视点距离计算部157计算注视点距离(步骤S131)。具体来说,首先,视线检测部62检测使用者的视线。接着,注视点距离计算部157根据所检测出的视线来计算注视点,从而计算注视点距离。
显示控制部147使按距离分类显示图像缩小而显示(步骤S135)。具体来说,显示控制部147使连续显示对象ROb1的按距离分类显示图像(以下,称为“按连续距离分类显示图像”)显示在上述第1焦距、第2焦距和第3焦距中的与计算出的注视点距离最相近的焦距所对应的虚拟画面上。由于连续显示对象ROb1跨越多个焦距而连续,所以为了显示在单一的虚拟画面上,显示控制部147使按连续距离分类显示图像与虚拟画面的大小相匹配地缩小而显示。
图19是示意性地示出执行了步骤S135后的使用者的视野VT的说明图。在图19中,与图13同样地省略了外景SC的图示。如图19所示,在显示区域PN中显示有按距离分类显示图像Im4、RIm1和Im5。如图17所示,由于第4显示对象Ob4不是连续显示对象ROb1,所以执行上述步骤S130,如图19所示,使第4按距离分类显示图像Im4显示在与第1焦距对应的第1虚拟画面VS1上。同样,由于第5显示对象Ob5不是连续显示对象ROb1,所以执行上述步骤S130,使第5按距离分类显示图像Im5显示在与第3焦距对应的第3虚拟画面VS3上。
另一方面,如图17所示,由于连续显示对象ROb1是从第1显示距离W1到第3显示距离W3的整个范围的显示对象,所以执行上述步骤S135,使按连续距离分类显示图像RIm1显示在与计算出的注视点距离最相近的焦距所对应的虚拟画面(在图19所示的例子中为第1虚拟画面VS1)上。并且,按连续距离分类显示图像RIm1被缩小显示为在第1虚拟画面VS1中显示出连续显示对象ROb1的整体。
根据以上说明的第2实施方式的HMD 100,起到与第1实施方式同样的效果。此外,由于跨越多个焦距连续存在的连续显示对象ROb1的整体显示在与注视点距离最相近的焦距所对应的第1虚拟画面VS1上,所以能够高精度地显示连续显示对象ROb1。
C.第3实施方式:
第3实施方式的头部佩戴型显示装置100与第1实施方式的头部佩戴型显示装置100相同,因此省略其详细的说明。
第3实施方式的控制功能部在以下的点上与第1实施方式的控制功能部150不同:显示控制部147按照每个焦距对连续显示对象ROb1进行划分,从而划分成与各焦距对应的虚拟画面VS1、VS2和VS3而进行显示。第3实施方式的控制功能部的其他结构与第1实施方式的控制功能部150相同,因此省略其详细的说明。
图20是示出第3实施方式的显示控制处理的处理步骤的流程图。第3实施方式的显示控制处理在追加执行步骤S115和步骤S133的点、省略步骤S125的点以及代替步骤S135而执行步骤S135a的点上与图18所示的第2实施方式的显示控制处理的处理步骤不同。由于第3实施方式的显示控制处理的其他步骤与第2实施方式的显示控制处理相同,所以对相同的步骤赋予相同的标号,并省略其详细的说明。另外,步骤S115和图18所示的步骤S125是相同的步骤,但为了方便说明处理步骤,赋予了不同的标号。
如图20所示,当设定左眼LE和右眼RE的视点位置时(步骤S110),按距离分类图像生成部153判定显示对象是否为连续显示对象ROb1(步骤S115)。步骤S115的处理内容与上述步骤S125相同。在判定为显示对象不是连续显示对象ROb1的情况下(步骤S115:否),执行上述步骤S120。另一方面,当判定为显示对象是连续显示对象ROb1时(步骤S115:是),按距离分类图像生成部153划分并生成按距离分类显示图像(步骤S133)。具体来说,按距离分类图像生成部153分别生成按连续距离分类显示图像中的、从虚拟照相机CL和CR到第1焦距的部分的图像、从第1焦距到第2焦距的图像以及从第2焦距到第3焦距的图像,从而生成按连续距离分类显示图像。
显示控制部147划分并显示按距离分类显示图像(步骤S135a)。具体来说,显示控制部147使按连续距离分类显示图像中的、从虚拟照相机CL和CR到第1焦距的部分的图像显示在第1虚拟画面VS1上。并且,显示控制部147使按连续距离分类显示图像中的、从第1焦距到第2焦距的部分的图像显示在第2虚拟画面VS2上。并且,显示控制部147使按连续距离分类显示图像中的、从第2焦距到第3焦距的部分的图像显示在第3虚拟画面VS3上。
图21是示意性地示出执行了步骤S135a后的使用者的视野VT的说明图。在图21中,与图19同样地省略了外景SC的图示。并且,在图21中,省略了图19所示的按距离分类显示图像Im4和Im5的图示。如图21所示,在显示区域PN中显示有按连续距离分类显示图像RIm2。按连续距离分类显示图像RIm2由3个按连续距离分类显示图像RIm2a、RIm2b和RIm2c构成。各按连续距离分类显示图像RIm2a、RIm2b和RIm2c分别显示在不同的虚拟画面上。具体来说,按连续距离分类显示图像RIm2a显示在第1虚拟画面VS1上,按连续距离分类显示图像RIm2b显示在第2虚拟画面VS2上,按连续距离分类显示图像RIm2c显示在第3虚拟画面VS3上。
通过比较图17和图21可以理解,在第3实施方式中,以不改变显示对象物的大小的方式显示连续显示对象ROb1。并且,在使用者分别注视着各虚拟画面VS1、VS2和VS3的情况下,能够与显示在所注视的虚拟画面VS1、VS2和VS3上的任意的按连续距离分类显示图像RIm2a、RIm2b和RIm2c对焦。
根据以上说明的第3实施方式的HMD 100,起到与第1实施方式同样的效果。此外,跨越多个焦距连续存在的连续显示对象ROb1按照每个焦距进行划分而显示于各虚拟画面VS1、VS2和VS3,因此在使用者的焦点对焦在任意的虚拟画面VS1、VS2和VS3上的情况下,使用者能够高精度地看到连续显示对象ROb1。
D.其他实施方式:
D1.其他实施方式1:
在上述第1实施方式中,显示控制部147也可以使中间距离显示图像显示在与注视点距离最相近的焦距所对应的虚拟画面上。例如,当在图10所示的第1显示对象Ob1与第2显示对象Ob2之间存在显示对象的情况下,根据第1实施方式,作为该显示对象的显示图像的按中间距离分类显示图像显示在与按中间距离分类显示图像对应的第1焦距和第2焦距中的、使用者的视线方向的里侧的第2焦距所对应的第2虚拟画面VS2上。
也可以取而代之,显示控制部147使按中间距离分类显示图像显示在与注视点距离计算部157所计算出的注视点距离最相近的焦距所对应的虚拟画面上。并且,例如,显示控制部147也可以使按中间距离分类显示图像显示在第1虚拟画面VS1上。并且,例如,显示控制部147也可以使按中间距离分类显示图像显示在第1虚拟画面VS1和第2虚拟画面VS2这两个虚拟画面上。在该结构中,显示控制部147也可以使按中间距离分类显示图像的明亮度(亮度)与注视点距离对应地不同而显示。具体来说,也可以显示为随着焦距变大而使明亮度(亮度)变高。即,在通常的情况下,只要是使中间距离显示图像显示于第1虚拟画面VS1和第2虚拟画面VS2中的至少一方的结构,便起到与上述各实施方式同样的效果。
D2.其他实施方式2:
在上述各实施方式中,按距离分类图像生成部153也可以利用注视点距离来生成按距离分类显示图像。具体来说,在上述步骤S120中,按距离分类图像生成部153切取处于使用者的视点位置到注视点距离之间的显示对象而生成按距离分类显示图像,在上述步骤S130中,显示控制部147也可以使所生成的按距离分类显示图像显示在与注视点距离最相近的焦距所对应的虚拟画面上。在这样的结构中,也起到了与上述各实施方式同样的效果。
D3.其他实施方式3:
在上述第2实施方式中,显示控制部147使按连续距离分类显示图像RIm1的整体显示在与注视点距离最相近的焦距所对应的虚拟画面上,但本发明并不限定于此。例如,显示控制部147也可以计算使用者的视线方向上的连续显示对象ROb1的长度的中点,并计算使用者与该中点之间的距离,从而使按连续距离分类显示图像RIm1的整体显示在与计算出的距离最相近的焦距所对应的虚拟画面上。在这样的结构中,也起到与上述各实施方式同样的效果。
D4.其他实施方式4:
在上述各实施方式中,视线检测部62由红外线发光部和红外线受光部构成,但本发明并不限定于此。例如,视线检测部62也可以是瞳孔拍摄用照相机。在该结构中,可以通过对左右的瞳孔拍摄用照相机所拍摄到的使用者的右眼RE和左眼LE的图像进行分析来确定视线方向。在该结构中,注视点距离计算部157能够根据所确定的视线方向来估计使用者所观察的位置,因此能够确定使用者的注视点。并且,例如,视线检测部62也可以利用肌电传感器的检测结果、眼睛跟踪等公知技术来检测使用者的视线。在这样的结构中,也起到与上述各实施方式同样的效果。
D5.其他实施方式5:
在上述各实施方式中,各焦距并不限定于上述例子。例如,也可以代替50厘米,将第1焦距设定为使用者的手所到达的范围内的任意距离。并且,例如,也可以代替1米,将第2焦距设定为第1焦距与第3焦距之间的任意距离。并且,例如,也可以代替2米,将第3焦距设定为比第1焦距和第2焦距大、且使用者的焦距为有效的范围内的任意距离而。在这样的结构中,也起到与上述各实施方式同样的效果。
D6.其他实施方式6:
在上述各实施方式中,设定在显示部20中的虚拟画面的数量为3个,但也可以取而代之,例如,虚拟画面的数量可以是左眼LE用的虚拟画面为3个、右眼RE用的虚拟画面为3个的共计6个,只要是在显示部20中按照预先确定的多个焦距中的每个焦距来设定虚拟画面的结构,则也可以设定其他任意数量的虚拟画面。在这样的结构中,也起到与上述各实施方式同样的效果。
D7.其他实施方式7:
在上述各实施方式中,OLED单元221、241具有OLED面板223、243和对OLED面板223、243进行驱动的OLED驱动电路225、245,OLED面板223、243是由通过有机电致发光而发光并分别发出R(红)、G(绿)、B(蓝)的色光的发光元件构成的自发光型的显示面板,但本发明并不限定于此。并且,在OLED面板223、243中,以各包含1个R、G、B的元件的单位为1个像素的多个像素呈矩阵状配置,但本发明并不限定于此。例如,右显示单元22和左显示单元24也可以分别构成为影像元件,该影像元件具有作为光源部的OLED面板和对光源部所发出的光进行调制而输出包含多种色光的图像光的调制元件。另外,对OLED面板所发出的光进行调制的调制装置并不限定于采用透过型液晶面板的结构。例如,可以代替透过型液晶面板而使用反射型液晶面板,也可以使用数字微镜器件,还可以使用激光扫描方式的激光视网膜投影型的HMD。在这样的结构中,也起到与上述各实施方式同样的效果。
D8.其他实施方式8:
在上述各实施方式中,当显示对象在视野方向上重叠的情况下,显示控制部147使得显示位于视野方向的里侧的显示对象中的、除与位于近前侧的显示对象重叠的部分之外的部分,但本发明并不限定于此。例如,显示控制部147也可以使得显示位于使用者的视野方向的里侧的显示对象的整体。在该结构中,例如,也可以使位于视野方向的里侧的显示对象的亮度和饱和度比位于近前侧的显示对象的亮度和饱和度低,由此,使位于视野方向的里侧的显示对象的可见性下降而显示。即,通常在多个显示对象在视野方向上重叠的情况下,只要构成为使该多个显示对象中的、位于视野方向的里侧的显示对象的至少一部分不被显示,便可起到与上述各实施方式同样的效果。
D9.其他实施方式9:
在上述各实施方式中,头部佩戴型显示装置100是透过型的头部佩戴型显示装置,但本发明并不限定于此。例如,可以是视频透视型的HMD,也可以是单眼类型的HMD。在这样的结构中,也起到与上述各实施方式同样的效果。
D10.其他实施方式10:
在上述各实施方式中,按距离分类显示图像Im1~Im5显示在虚拟画面VS1~VS3上,但也可以取而代之,或者除此之外,预先在第1虚拟画面VS1与第2虚拟画面VS2之间或者在第2虚拟画面VS2与第3虚拟画面VS3之间分别设定与虚拟画面VS1~VS3不同的虚拟画面,将位于第1虚拟画面VS1与第2虚拟画面VS2之间的显示对象的按距离分类显示图像选择性地显示于设定在第1虚拟画面VS1与第2虚拟画面VS2之间的虚拟画面和第2虚拟画面VS2中的任意一方,也可以显示于双方的虚拟画面。在这样的结构中,也起到与上述各实施方式同样的效果。
D11.其他实施方式11:
在上述各实施方式中,各虚拟画面VS1~VS3与使用者的视野方向上的规定的焦距对应设定,但本发明并不限定于此。例如,各虚拟画面VS1~VS3也可以与使用者的视线方向上的规定的焦距对应设定。在该结构中,在上述的显示控制处理中,也可以将各虚拟照相机CL和CR的朝向设定为使用者的视线方向,从而生成存在于使用者的视线方向的显示对象物的按距离分类显示图像。并且,例如,各虚拟画面VS1~VS3也可以与使用者的视野方向上的规定的焦距对应设定。在这样的结构中也起到与上述各实施方式同样的效果。
本发明并不限于上述实施方式,能够在不脱离其主旨的范围内以各种结构实现。例如,为了解决上述课题的一部分或全部,或者为了达成上述效果的一部分或全部,可以对与发明内容栏所记载的各方式中的技术特征对应的实施方式中的技术特征进行适当替换或组合。并且,除非该技术特征在本说明书中是作为必需的技术特征而说明的,否则可以适当删除。
E.其他方式:
(1)根据本发明的一个实施方式,提供头部佩戴型显示装置。该头部佩戴型显示装置具有:显示部,其分别显示按照预先确定的多个焦距中的每个焦距而设定的虚拟画面;按距离分类图像生成部,其生成按距离分类显示图像,所述按距离分类显示图像用于使表示存在于相邻的两个所述焦距之间的显示对象物的显示对象显示在所述虚拟画面上;以及显示控制部,其使所生成的各所述按距离分类显示图像显示在与所述相邻的两个焦距中的、靠所述头部佩戴型显示装置的使用者的视野方向上的里侧的焦距对应的所述虚拟画面上。
根据该方式的头部佩戴型显示装置,生成用于使表示存在于相邻的两个焦距之间的显示对象物的显示对象显示于虚拟画面的按距离分类显示图像,所生成的各按距离分类显示图像显示在与相邻的两个焦距中的、靠头部佩戴型显示装置的使用者的视野方向上的里侧的焦距对应的虚拟画面上,因此能够减少因会聚角偏差和焦距偏差而引起的光学不匹配。
(2)在上述方式的头部佩戴型显示装置中,在多个所述显示对象从所述视野方向来看重叠的情况下,所述显示控制部也可以使该多个所述显示对象中的、位于所述视野方向的里侧的所述显示对象的至少一部分不被显示。
根据该方式的头部佩戴型显示装置,在多个显示对象从视野方向来看重叠的情况下,不显示该多个显示对象中的位于视野方向的里侧的显示对象的至少一部分,因此与显示位于视野方向的里侧的显示对象的结构相比,能够减轻给使用者带来的不舒适感。
(3)在上述方式的头部佩戴型显示装置中,还具有:视线检测部,其检测所述使用者的视线;以及注视点距离计算部,其根据检测出的所述视线来计算注视点距离,该注视点距离是所述使用者与所述使用者所注视的注视点之间的距离,所述显示控制部也可以使连续显示对象的整体显示在与所述注视点距离最相近的所述焦距所对应的所述虚拟画面上,该连续显示对象是表示跨越多个所述焦距连续存在的显示对象物的所述显示对象。
根据该方式的头部佩戴型显示装置,由于跨越多个焦距连续存在的连续显示对象的整体显示在与显示注视点距离最相近的焦距所对应的虚拟画面上,因此能够高精度地显示连续显示对象。
(4)在上述方式的头部佩戴型显示装置中,所述显示控制部也可以针对连续显示对象,按照每个所述焦距对所述连续显示对象进行划分而显示在各所述虚拟画面上,该连续显示对象是表示跨越多个所述焦距连续存在的显示对象物的所述显示对象。
根据该方式的头部佩戴型显示装置,由于跨越多个焦距连续存在的连续显示对象按照各焦距进行划分而显示于各虚拟画面,所以在使用者的焦点对焦于任意的虚拟画面的情况下,使用者能够高精度地看到连续显示对象。
(5)在上述方式的头部佩戴型显示装置中,在所述显示部中也可以设定有第1虚拟画面和第2虚拟画面,该第1虚拟画面显示有表示第1显示对象物的第1显示对象,该第2虚拟画面显示有表示第2显示对象物的第2显示对象,该头部佩戴型显示装置还具有中间距离图像生成部,该中间距离图像生成部生成中间距离显示图像,该中间距离显示图像用于使表示从所述视野方向来看存在于所述第1显示对象物与所述第2显示对象物之间的显示对象物的所述显示对象显示在所述虚拟画面上,所述中间距离图像生成部对所述第1显示对象的颜色和所述第2显示对象的颜色进行合成,生成通过合成而得到的颜色的所述中间距离显示图像,所述显示控制部使所生成的所述中间距离显示图像显示在所述第1虚拟画面和所述第2虚拟画面中的至少一方上。
根据该方式的头部佩戴型显示装置,对第1显示对象的颜色和第2显示对象的颜色进行合成而生成通过合成而得到的颜色的中间距离显示图像,中间距离显示图像显示在第1虚拟画面和第2虚拟画面中的至少一方上,因此使用者能够在注视着第1虚拟画面和第2虚拟画面中的至少一方的虚拟画面的情况下高精度地看到中间距离显示图像。
(6)在上述方式的头部佩戴型显示装置中,还可以具有:视线检测部,其检测所述使用者的视线;以及注视点距离计算部,其根据检测出的所述视线来计算注视点距离,该注视点距离是所述使用者与所述使用者所注视的注视点之间的距离,所述按距离分类图像生成部利用计算出的所述注视点距离来生成所述按距离分类显示图像,所述显示控制部使利用所述注视点距离而生成的所述按距离分类显示图像显示在与所述注视点距离对应的所述虚拟画面上。
根据该方式的头部佩戴型显示装置,利用计算出的注视点距离来生成按距离分类显示图像,使利用注视点距离而生成的按距离分类显示图像显示在与注视点距离对应的虚拟画面上,因此即使在使用者变更了注视点的情况下,也能够减少产生焦距偏差或会聚角偏差的情况。
本发明也可以以各种方式实现。例如,能够以头部佩戴型显示装置的显示控制方法、用于实现该显示控制方法的计算机程序、记录有该计算机程序的记录介质等方式实现。

Claims (7)

1.一种头部佩戴型显示装置,其具有:
显示部,其分别显示按照预先确定的多个焦距中的每个焦距而设定的虚拟画面;
按距离分类图像生成部,其生成按距离分类显示图像,所述按距离分类显示图像用于使表示存在于相邻的两个所述焦距之间的显示对象物的显示对象显示在所述虚拟画面上;
显示控制部,其使所生成的各所述按距离分类显示图像显示在与所述相邻的两个焦距中的、靠所述头部佩戴型显示装置的使用者的视野方向上的里侧的焦距对应的所述虚拟画面上;
视线检测部,其检测所述使用者的视线;以及
注视点距离计算部,其根据检测出的所述视线来计算注视点距离,该注视点距离是所述使用者与所述使用者所注视的注视点之间的距离,
所述按距离分类图像生成部利用计算出的所述注视点距离来生成所述按距离分类显示图像,
所述显示控制部使利用所述注视点距离而生成的所述按距离分类显示图像显示在与所述注视点距离对应的所述虚拟画面上。
2.根据权利要求1所述的头部佩戴型显示装置,其中,
在多个所述显示对象从所述视野方向来看重叠的情况下,所述显示控制部使该多个所述显示对象中的、位于所述视野方向的里侧的所述显示对象的至少一部分不被显示。
3.根据权利要求1或2所述的头部佩戴型显示装置,其中,
所述显示控制部针对连续显示对象,按照每个所述焦距对所述连续显示对象进行划分而显示在各所述虚拟画面上,该连续显示对象是表示跨越多个所述焦距连续存在的显示对象物的所述显示对象。
4.一种头部佩戴型显示装置,其具有:
显示部,其分别显示按照预先确定的多个焦距中的每个焦距而设定的虚拟画面;
按距离分类图像生成部,其生成按距离分类显示图像,所述按距离分类显示图像用于使表示存在于相邻的两个所述焦距之间的显示对象物的显示对象显示在所述虚拟画面上;
显示控制部,其使所生成的各所述按距离分类显示图像显示在与所述相邻的两个焦距中的、靠所述头部佩戴型显示装置的使用者的视野方向上的里侧的焦距对应的所述虚拟画面上;
视线检测部,其检测所述使用者的视线;以及
注视点距离计算部,其根据检测出的所述视线来计算注视点距离,该注视点距离是所述使用者与所述使用者所注视的注视点之间的距离,
所述显示控制部使连续显示对象的整体显示在与所述注视点距离最相近的所述焦距所对应的所述虚拟画面上,该连续显示对象是表示跨越多个所述焦距连续存在的显示对象物的所述显示对象。
5.一种头部佩戴型显示装置,其具有:
显示部,其分别显示按照预先确定的多个焦距中的每个焦距而设定的虚拟画面;
按距离分类图像生成部,其生成按距离分类显示图像,所述按距离分类显示图像用于使表示存在于相邻的两个所述焦距之间的显示对象物的显示对象显示在所述虚拟画面上;以及
显示控制部,其使所生成的各所述按距离分类显示图像显示在与所述相邻的两个焦距中的、靠所述头部佩戴型显示装置的使用者的视野方向上的里侧的焦距对应的所述虚拟画面上,
在所述显示部中设定有第1虚拟画面和第2虚拟画面,该第1虚拟画面显示有表示第1显示对象物的第1显示对象,该第2虚拟画面显示有表示第2显示对象物的第2显示对象,
该头部佩戴型显示装置还具有中间距离图像生成部,该中间距离图像生成部生成中间距离显示图像,该中间距离显示图像用于使表示从所述视野方向来看存在于所述第1显示对象物与所述第2显示对象物之间的显示对象物的所述显示对象显示在所述虚拟画面上,
所述中间距离图像生成部对所述第1显示对象的颜色和所述第2显示对象的颜色进行合成,生成通过合成而得到的颜色的所述中间距离显示图像,
所述显示控制部使所生成的所述中间距离显示图像显示在所述第1虚拟画面和所述第2虚拟画面中的至少一方上。
6.一种显示控制方法,该显示控制方法是头部佩戴型显示装置的显示控制方法,该头部佩戴型显示装置具有显示部,该显示部分别显示按照预先确定的多个焦距中的每个焦距而设定的虚拟画面,其中,该显示控制方法具有如下的步骤:
生成按距离分类显示图像,所述按距离分类显示图像用于使表示存在于相邻的两个所述焦距之间的显示对象物的显示对象显示在所述虚拟画面上;
使所生成的各所述按距离分类显示图像显示在与所述相邻的两个焦距中的、靠所述头部佩戴型显示装置的使用者的视野方向上的里侧的焦距对应的所述虚拟画面上;
检测所述使用者的视线;
根据检测出的所述视线来计算注视点距离,该注视点距离是所述使用者与所述使用者所注视的注视点之间的距离;
利用计算出的所述注视点距离来生成所述按距离分类显示图像;以及
使利用所述注视点距离而生成的所述按距离分类显示图像显示在与所述注视点距离对应的所述虚拟画面上。
7.一种记录介质,其记录有用于实现头部佩戴型显示装置的显示控制的计算机程序,该头部佩戴型显示装置具有显示部,该显示部分别显示按照预先确定的多个焦距中的每个焦距而设定的虚拟画面,该计算机程序用于使计算机实现如下的功能:
生成按距离分类显示图像,所述按距离分类显示图像用于使表示存在于相邻的两个所述焦距之间的显示对象物的显示对象显示在所述虚拟画面上;
使所生成的各所述按距离分类显示图像显示在与所述相邻的两个焦距中的、靠所述头部佩戴型显示装置的使用者的视野方向上的里侧的焦距对应的所述虚拟画面上;
检测所述使用者的视线;
根据检测出的所述视线来计算注视点距离,该注视点距离是所述使用者与所述使用者所注视的注视点之间的距离;
利用计算出的所述注视点距离来生成所述按距离分类显示图像;以及
使利用所述注视点距离而生成的所述按距离分类显示图像显示在与所述注视点距离对应的所述虚拟画面上。
CN201910183333.5A 2018-03-13 2019-03-12 头部佩戴型显示装置、显示控制方法以及记录介质 Active CN110275297B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-045023 2018-03-13
JP2018045023A JP7087481B2 (ja) 2018-03-13 2018-03-13 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム

Publications (2)

Publication Number Publication Date
CN110275297A CN110275297A (zh) 2019-09-24
CN110275297B true CN110275297B (zh) 2021-10-01

Family

ID=67903955

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910183333.5A Active CN110275297B (zh) 2018-03-13 2019-03-12 头部佩戴型显示装置、显示控制方法以及记录介质

Country Status (3)

Country Link
US (2) US10838215B2 (zh)
JP (1) JP7087481B2 (zh)
CN (1) CN110275297B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL298018B2 (en) * 2013-03-11 2024-04-01 Magic Leap Inc System and method for augmentation and virtual reality
KR102271726B1 (ko) 2013-03-15 2021-06-30 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
KR20200043371A (ko) * 2017-08-29 2020-04-27 소니 주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
JP2021064906A (ja) * 2019-10-16 2021-04-22 トヨタ自動車株式会社 画像表示システム
JP2021152564A (ja) 2020-03-24 2021-09-30 セイコーエプソン株式会社 虚像表示装置及び光学ユニット
TWI766316B (zh) * 2020-07-22 2022-06-01 財團法人工業技術研究院 可透光顯示系統及其圖像輸出方法與處理裝置
CN112346252A (zh) * 2020-11-09 2021-02-09 京东方科技集团股份有限公司 近眼显示装置
WO2022249597A1 (ja) * 2021-05-28 2022-12-01 ソニーグループ株式会社 画像表示装置及び導光光学系
US20230037329A1 (en) * 2021-08-05 2023-02-09 Meta Platforms Technologies, Llc Optical systems and methods for predicting fixation distance
KR20230046008A (ko) * 2021-09-29 2023-04-05 삼성전자주식회사 증강 현실(Augmented Reality) 장치가 콘텐트를 디스플레이하는 방법 및 콘텐트를 디스플레이하는 증강 현실 장치
TR2022003184A2 (tr) * 2022-03-03 2022-04-21 Koçak İsmai̇l Sanal ortamda ses eti̇ketlemeye yöneli̇k göz taki̇pli̇ sanal gerçekli̇k ci̇hazi ve çalişma yöntemi̇

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139589A (ja) * 2008-12-10 2010-06-24 Konica Minolta Opto Inc 映像表示装置およびヘッドマウントディスプレイ
CN102937745A (zh) * 2012-11-13 2013-02-20 京东方科技集团股份有限公司 开放式头戴显示装置及其显示方法
CN103487938A (zh) * 2013-08-28 2014-01-01 成都理想境界科技有限公司 头戴显示装置
CN103500446A (zh) * 2013-08-28 2014-01-08 成都理想境界科技有限公司 基于计算机视觉的测距方法及其在hmd上的应用
CN106249412A (zh) * 2015-06-15 2016-12-21 三星电子株式会社 头戴式显示器装置
CN106646882A (zh) * 2016-12-30 2017-05-10 北京七鑫易维信息技术有限公司 一种头戴式显示装置及其调节参数确定方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08223609A (ja) * 1995-02-09 1996-08-30 Atr Tsushin Syst Kenkyusho:Kk 焦点調節の可能な三次元表示方法および表示装置
JPH09331552A (ja) * 1996-06-10 1997-12-22 Atr Tsushin Syst Kenkyusho:Kk 多焦点式頭部搭載型ディスプレイ
JP2002196280A (ja) 2000-10-17 2002-07-12 Olympus Optical Co Ltd 表示装置
JP5678709B2 (ja) * 2011-02-10 2015-03-04 ソニー株式会社 表示装置
US9217867B2 (en) * 2011-03-24 2015-12-22 Seiko Epson Corporation Head-mounted display device and control method for the head-mounted display device
US8803764B2 (en) * 2011-03-24 2014-08-12 Seiko Epson Corporation Head-mount type display device and method of controlling head-mount type display device
JP6379572B2 (ja) * 2014-03-27 2018-08-29 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6443677B2 (ja) 2015-03-12 2018-12-26 日本精機株式会社 ヘッドマウントディスプレイ装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139589A (ja) * 2008-12-10 2010-06-24 Konica Minolta Opto Inc 映像表示装置およびヘッドマウントディスプレイ
CN102937745A (zh) * 2012-11-13 2013-02-20 京东方科技集团股份有限公司 开放式头戴显示装置及其显示方法
CN103487938A (zh) * 2013-08-28 2014-01-01 成都理想境界科技有限公司 头戴显示装置
CN103500446A (zh) * 2013-08-28 2014-01-08 成都理想境界科技有限公司 基于计算机视觉的测距方法及其在hmd上的应用
CN106249412A (zh) * 2015-06-15 2016-12-21 三星电子株式会社 头戴式显示器装置
CN106646882A (zh) * 2016-12-30 2017-05-10 北京七鑫易维信息技术有限公司 一种头戴式显示装置及其调节参数确定方法

Also Published As

Publication number Publication date
JP7087481B2 (ja) 2022-06-21
JP2019159076A (ja) 2019-09-19
US20190285895A1 (en) 2019-09-19
US10838215B2 (en) 2020-11-17
US11536964B2 (en) 2022-12-27
US20210026145A1 (en) 2021-01-28
CN110275297A (zh) 2019-09-24

Similar Documents

Publication Publication Date Title
CN110275297B (zh) 头部佩戴型显示装置、显示控制方法以及记录介质
US10657722B2 (en) Transmissive display device, display control method, and computer program
CN108535868B (zh) 头部佩戴型显示装置及其控制方法
CN109960481B (zh) 显示系统及其控制方法
CN110060614B (zh) 头部佩戴型显示装置及其控制方法、显示系统
US20180246334A1 (en) Head-mounted display device, computer program, and control method for head-mounted display device
US10718948B2 (en) Head-mounted display apparatus, display control method, and computer program
US10567730B2 (en) Display device and control method therefor
US10948724B2 (en) Transmissive display device, display control method, and computer program
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
CN109960039B (zh) 显示系统、电子设备以及显示方法
US20190285896A1 (en) Transmission-type head mounted display apparatus, method of controlling transmission-type head mounted display apparatus, and computer program for controlling transmission-type head mounted display apparatus
JP7243193B2 (ja) 表示システム、表示システムの制御方法、情報処理装置、及び情報処理装置の制御プログラム
JP2017116562A (ja) 表示装置、表示装置の制御方法、及び、プログラム
CN112581920B (zh) 显示系统、显示控制方法以及记录介质
US11156841B2 (en) Display device, control program for display device, control method for display device, and display system
EP4298473A1 (en) Projector with field lens
JP2017134630A (ja) 表示装置、表示装置の制御方法、及び、プログラム
US11520414B2 (en) Display system, control program for information processing device, and method for controlling information processing device
JP2017183854A (ja) 表示システム、表示装置、頭部装着型表示装置、表示制御方法、表示装置の制御方法、及び、プログラム
JP2017183855A (ja) 表示システム、頭部装着型表示装置、表示制御方法、及び、プログラム
JP2019114236A (ja) 表示システム、電子機器、及び、表示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant