CN108983422A - 沉浸式头戴系统及其控制方法 - Google Patents

沉浸式头戴系统及其控制方法 Download PDF

Info

Publication number
CN108983422A
CN108983422A CN201810005719.2A CN201810005719A CN108983422A CN 108983422 A CN108983422 A CN 108983422A CN 201810005719 A CN201810005719 A CN 201810005719A CN 108983422 A CN108983422 A CN 108983422A
Authority
CN
China
Prior art keywords
left view
view window
distance value
interpupillary distance
immersion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810005719.2A
Other languages
English (en)
Other versions
CN108983422B (zh
Inventor
林圣成
韦长华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
High Tech Computer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by High Tech Computer Corp filed Critical High Tech Computer Corp
Publication of CN108983422A publication Critical patent/CN108983422A/zh
Application granted granted Critical
Publication of CN108983422B publication Critical patent/CN108983422B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

一种沉浸式头戴系统及其控制方法。沉浸式头戴系统包含头盔装置及显示装置,头盔装置包含瞳孔感测器用于决定瞳孔距离值,显示装置与头盔装置通讯连接,显示装置包含显示面板显示沉浸式内容,沉浸式内容包含右视窗及左视窗,右视窗及左视窗被同步显示于显示面板不同位置,当显示装置从头盔装置接收瞳孔距离值时,显示装置依据瞳孔距离值配置分布沉浸式内容的右视窗及左视窗。借此,沉浸式内容的右视窗及左视窗可以对准至使用者视线的投影点,进而提供更好的观看体验。

Description

沉浸式头戴系统及其控制方法
技术领域
本揭示文件关于一种沉浸式头戴系统,特别是关于一种用于控制沉浸式头戴系统所提供的左及右视窗的方法。
背景技术
虚拟实境(VR)、扩增实境(AR)、替代实境(SR)及/或混合实境(MR)装置被开发以提供使用者身临其境的体验。当使用者佩戴头戴式显示装置时,使用者的视域将被头戴式显示装置所显示的沉浸式内容所覆盖。沉浸式内容显示了特定空间的场景。
沉浸式头戴系统是由不同方法实现。这些方法的其中之一是组合头戴式支架以及移动电话。头戴式支架可被使用者所佩戴。移动电话可被收容于头戴式支架的槽内。沉浸式内容可被显示于移动电话的显示面板上成为分割萤幕上。例如,Google观影盒(GoogleCardboard)是提供头戴式支架的一种方法。在这种情况下使用的移动电话可具有不同尺寸的显示面板(例如从4.5吋到6.5吋)。有时候,使用者必须使他/她的眼睛适应面板尺寸,以清楚地看到沉浸式的内容。
发明内容
本揭露的一实施例提供一种沉浸式头戴系统,其包含一头盔装置以及一显示装置。头盔装置包含一瞳孔感测器用于决定一瞳孔距离值。显示装置与头盔装置通讯,显示装置包含一显示面板用于显示一沉浸式内容。沉浸式内容包含一右视窗以及一左视窗,右视窗以及左视窗被同步显示于显示面板的不同位置。当显示装置从头盔装置接收瞳孔距离值时,沉浸式内容的右视窗以及左视窗是被显示装置依据瞳孔距离值而分配。
于一实施例中,其中该显示装置另包含一通讯电路,该通讯电路用以接收来自该头盔装置的该瞳孔距离值。
于一实施例中,其中该显示装置另包含一处理电路,该处理电路与该通讯电路耦接,该处理电路用以处理要显示在该显示面板上的该沉浸式内容。
于一实施例中,其中该右视窗以及该左视窗的配置分布,是使得该右视窗的一第一中心与该左视窗的一第二中心两者之间形成一间隙距离,该间隙距离是配置为与该瞳孔距离值正相关。
于一实施例中,其中该间隙距离是配置成相等于该瞳孔感测器所决定的该瞳孔距离值。
于一实施例中,其中当该瞳孔距离值超过一临界值时,该显示装置调整该右视窗以及该左视窗的形状或尺寸参数。
于一实施例中,其中该临界值是由该显示面板的一面板宽度、该右视窗的一第一尺寸参数以及该左视窗的一第二尺寸参数所决定。
于一实施例中,其中当该瞳孔距离值超过该临界值时,该右视窗以及该左视窗由从圆形视窗或方圆形(squircle)视窗调整形状为椭圆形视窗或圆边矩形(roundrectangular)视窗。
于一实施例中,其中当该瞳孔距离值超过该临界值时,该右视窗以及该左视窗的一半径或是一宽度缩小调整。
于一实施例中,该头盔装置另包含外壳以及通讯电路。外壳用于容设该显示装置。通讯电路耦接于该瞳孔感测器,该通讯电路用以传输该瞳孔距离值至该显示装置。
于一实施例中,其中该瞳孔感测器包含一眼部追踪摄影机设置于头盔装置之上,该眼部追踪摄影机是用以测量该瞳孔距离值。
于一实施例中,其中该瞳孔感测器包含一调整控制器设置于该头盔装置之上,该瞳孔距离值是相应于该调整控制器上的一操作输入而调整。
于一实施例中,其中该瞳孔感测器是进一步用以侦测一眼睛高度水平,该眼睛高度水平经传输至该显示装置,该右视窗以及该左视窗进一步依据该眼睛高度水平而配置分布。
本揭露的一实施例提供一种控制方法,其可被一沉浸式头戴系统所使用。沉浸式头戴系统包含一显示装置用于显示一沉浸式内容。控制方法包含下列步骤。一瞳孔距离值被决定,瞳孔距离值被传输至显示装置,沉浸式内容的一右视窗以及一左视窗依据瞳孔距离值而被分配。
于一实施例中,其中该右视窗以及该左视窗的配置分布,是使得该右视窗的一第一中心与该左视窗的一第二中心间具有一间隙距离,该间隙距离是配置为与该瞳孔距离值正相关。
于一实施例中,其中该间隙距离是配置为相等于一瞳孔感测器所决定的该瞳孔距离值。
于一实施例中,控制方法进一步包含依据该瞳孔距离值调整该右视窗以及该左视窗的形状或尺寸参数。
于一实施例中,其中当该瞳孔距离值超过该临界值时,该右视窗以及该左视窗由从圆形视窗或方圆形(squircle)视窗调整形状为椭圆形视窗或圆边矩形(roundrectangular)视窗。
于一实施例中,其中当该瞳孔距离值超过该临界值时,该右视窗以及该左视窗的一半径或是一宽度缩小调整。
于一实施例中,控制方法进一步包含:侦测一眼睛高度水平;传输该眼睛高度水平至该显示装置;以及,进一步依据该眼睛高度水平配置分布该沉浸式内容的该右视窗以及该左视窗。
基于本揭露的实施例,显示装置得以依据头盔装置所侦测的瞳孔距离值分配右视窗以及左视窗。当瞳孔距离值改变时,沉浸式内容于显示面板上的分布可以被重新分配以适合于使用者的视域。此外,沉浸式内容的右视窗与左视窗还可以依据眼睛高度水平而被分配,使右视窗与左视窗的位置对准至使用者视线的投影点,进而提供使用者更好的观看体验。
附图说明
为让本发明的上述和其他目的、特征、优点与实施例能更明显易懂,所附附图的说明如下:
图1A是为依据本揭露的一实施例的一沉浸式系统100的透视图;
图1B是为图1A的沉浸式系统沿着一剖面线的剖视图;
图2是为图1A的沉浸式系统的功能方块图;
图3是为依据本揭露的一实施例的一控制方法的流程图;
图4是为显示于图1B与图2的显示面板上的沉浸式内容的一实施例的示意图;
图5是为显示于图1B与图2的显示面板上的沉浸式内容的另一实施例的示意图;
图6A是为显示具有左视窗的左边界以及右视窗的右边界位于显示面板之外的沉浸式内容的一例的示意图;
图6B是为被调整的左视窗以及被调整的右视窗的一实施例的示意图;
图6C是为被调整的左视窗以及被调整的右视窗的另一实施例的示意图;
图7是为显示于显示面板上的左视窗以及右视窗的另一实施例的示意图;
图8A是显示相对于图7所示实施例的被调整左视窗以及被调整右视窗的一实施例的示意图;
图8B是显示被调整的左视窗以及被调整的右视窗的右边界的另一实施例的示意图;
图9是为依据本揭露的一实施例的一控制方法的流程图;以及
图10是为显示于显示面板上与图9所示的控制方法相关的沉浸式内容的一实施例的示意图。
具体实施方式
图1A是为依据本揭露的一实施例的一沉浸式系统100的透视图。沉浸式系统100包含一头盔装置120以及一显示装置140。如图1A所示,头盔装置120包含一外壳121,显示装置140可以被收容于外壳121内的一固定位置。
于一实施例中,头盔装置120可以是可佩戴在使用者头部上,或适合放置在使用者眼睛前方的头戴。于一实施例中,显示装置140可以为一智能移动电话、一移动电话、一可携式显示器,或是任何等效的电子设备。请参照图1B及图2,图1B是为图1A的沉浸式系统100沿剖面线A-A的剖视图,图2是为图1A的沉浸式系统100的功能方块图。
如图2所示,显示装置140包含一显示面板146。当显示装置140被收容于头盔装置120内时,头盔装置120是用以将显示面板146的位置定位在使用者(佩戴沉浸式系统100的观察者)的眼睛前方,使得使用者可以看到显示于显示面板146上的沉浸式内容(例如:影像、三维视频、虚拟实境场景、扩增实境等)。使用者的整个视野将被显示面板146所覆盖,使得使用者可以享受由沉浸式系统100提供的身临其境体验。
于一实施例中,沉浸式系统100中的头盔装置120与显示装置140可以被分开或是个别制造。例如,头盔装置120与显示装置140可以被不同的供应商制造,或是由相同的供应商制造成不同的机型。于一实施例中,头盔装置120可以相容于不同机型的显示装置140,并且这些显示装置140可具有各种尺寸的显示面板146。在这种情况下,外壳121可包含可调整支架(未显示于图中),可调整支架用以将各种不同规格的显示装置140固定在头盔装置120上。
如图1B所示,头盔装置120是配戴于使用者的眼睛视域的前。每个人都可能拥有他/她自己的眼睛特征。例如,不同的人可能具有不同的瞳孔距离(interpupillarydistance,IPD),瞳孔距离是为两眼瞳孔中心之间的间隙距离。如图1B所示,双眼瞳孔的中心点彼此间隔了特定的瞳孔距离IPDu。瞳孔距离IPDu对于双目观察系统的设计很关键,多个相异的使用者的瞳孔距离IPDu均可能有所不同,对每个使用者而言会具有他/她本身特定的瞳孔距离IPDu。
如图1B所示,在左瞳孔的中心前方存在左投影点PL1,在右瞳孔中心前方存在右投影点PR1。当在左投影点PL1周围的显示面板146上显示沉浸式内容的左视窗,且在右投影点PR1周围的显示面板146上显示沉浸式内容的右视窗时,眼睛视线会与沉浸式内容对准。使用者的两眼可以放松并且看向前方。左视窗以及右视窗是用以显示从不同视点观看的视差影像,视差影像是相应于使用者的双眼而设计。左视窗将被使用者的左眼所观察,并且右视窗将被使用者的右眼所观察,使得使用者将会结合双眼看到立体场景。
另一方面,倘若沉浸式内容的左视窗被显示于左投影点PL1周围的另一点PL2,并且沉浸式内容的右视窗被显示于右投影点PR1周围的另一点PR2,如图1B所示,虽然使用者将双眼往内侧瞪视仍可以观察显示面板146上显示的沉浸式内容,将造成使用者眼睛的压力。由于沉浸式内容并非对应于瞳孔距离显示,使用者的两眼与沉浸式内容不对准。在这种情况下,上述不对准可能导致使用者的斜视体验,并且使用者的眼睛因为被强迫向内以观看沉浸式内容,可能容易疲劳。
如图2所示的实施例,头盔装置120包含通讯电路122、瞳孔感测器124以及透镜模组126。瞳孔感测器124与通讯电路122以及透镜模组126耦接。头盔装置120的瞳孔感测器124是用以决定对应于使用者的两瞳孔间的瞳孔距离IPDu(参照图1B)的瞳孔距离值IPDv(参照图2)。
于一实施例中,瞳孔感测器124所决定的瞳孔距离值IPDv,较佳地为与图1B所示的使用者的两瞳孔间的瞳孔距离IPDu相等。
于一实施例中,瞳孔感测器124所决定的瞳孔距离值IPDv将被头盔装置120使用,以配置头盔装置120上的一些参数。例如,透镜模组126是依据瞳孔距离值IPDv而调整。
于一实施例中,参照图1B,头盔装置120的透镜模组126包含左透镜单元126L以及右透镜单元126R。左透镜单元126L与右透镜单元126R的位置,相应于瞳孔感测器124所决定的瞳孔距离值IPDv而移动。如图1B所示,左透镜单元126L的中心LCL与右透镜单元126R的中心LCR两者之间的间隔,是相对应于瞳孔距离值IPDv的距离而调整。于一实施例中,透镜模组126另包含机械致动器(例如,齿轮组及/或微型马达),其用以当瞳孔距离值IPDv较短时,将左透镜单元126L与右透镜单元126R向内侧移动而接近彼此。且当瞳孔距离值IPDv较长时,将左透镜单元126L与右透镜单元126R向外侧移动而远离彼此。因此,透镜模组126的左透镜单元126L与右透镜单元126R的位置,是相应于瞳孔距离值IPDv且位于双眼的的两个瞳孔的正前方。
倘若头盔装置120是被佩戴于具有一不同瞳孔距离IPDu的另一使用者身上(例如,前一位使用者具有一65mm的瞳孔距离,且头盔装置120现在是被佩戴于具有另一68.5mm的瞳孔距离的另一使用者身上),瞳孔感测器124将用以决定新的瞳孔距离值IPDv(例如,瞳孔感测器124会将瞳孔距离值IPDv从65mm更新为68.5mm)。
于一实施例中,瞳孔感测器124包含调整控制器124a(参照图1A),设置于头盔装置120之上。调整控制器124a可被使用者手动操作,瞳孔距离值IPDv是相应于调整控制器124a上的操作输入而被调整。例如,如图1A所示的调整控制器124a是为调整旋转钮,当调整控制器124a被顺时针旋转时,瞳孔距离值IPDv将被增加,而当调整控制器124a被逆时针旋转时,瞳孔距离值IPDv将被缩短。本揭露并不限于此。瞳孔距离值IPDv可以通过调整控制器124a以其他等效的操作方法利用不同的调整控制器(例如,通过开关按钮、通过调整按键、经由输入小键盘等)而被调整。
于另一实施例中,瞳孔感测器124包含眼部追踪摄影机124b(参照图1A),设置于头盔装置120之上。眼部追踪摄影机124b是用以测量瞳孔距离值IPDv。例如,眼部追踪摄影机124b可以拍摄眼睛的影像。眼睛追踪摄影机124b侦测双眼瞳孔的个别位置,借此,眼睛追踪摄影机124b可以测量到瞳孔距离值IPDv。
基于以上的各实施例,瞳孔距离值IPDv可以被头盔装置120的瞳孔感测器124所决定。于一实施例中,瞳孔距离值IPDv是头盔装置120所利用,以相应移动左透镜单元126L以及右透镜单元126R,并且瞳孔距离值IPDv也由头盔装置120传输至显示装置140。瞳孔距离值IPDv被显示装置140所利用以配置分布沉浸式内容的左视窗与右视窗。
于一实施例中,通讯电路122可以为一无线通讯电路(例如,蓝芽收发器、蓝芽低能耗(BLE)收发器、WiFi直连(WiFi-direct)收发器、Zigbee收发器、红外线收发器及/或其他无线收发器电路),或是电缆传输接口(USB传输接口及/或其他有线电缆接口)。头盔装置120的通讯电路122是用以传送瞳孔感测器124所决定的瞳孔距离值IPDv至显示装置140。
如图2所示的实施例,显示装置140包含通讯电路142、处理电路144以及显示面板146。显示装置140的通讯电路142可以为相应于头盔装置120的通讯电路122的无线通讯电路(例如,蓝芽收发器、BLE收发器、WiFi-direct收发器、Zigbee收发器、红外线收发器及/或其他无线收发器电路),或是电缆传输接口(USB传输接口及/或其他有线电缆接口)。于一实施例中,通讯电路142是用以接收来自头盔装置120的瞳孔距离值IPDv。处理电路144是与通讯电路142以及显示面板146耦接。处理电路144是用以处理要显示在显示面板146上的沉浸式内容。于一实施例中,处理电路144将依据瞳孔距离值IPDv处理沉浸式内容,以使沉浸式内容针对目前使用沉浸式系统100的使用者进行最佳化。于一实施例中,处理电路144可包含图形处理单元(GPU)、中央处理单元(CPU)、处理器、系统芯片(SoC)及/或任何等效的处理电路。有关如何处理沉浸式内容的细节将在以下段落中解释。
请进一步参照图3与图4,图3是为依据本揭露的一实施例的一控制方法200的流程图。控制方法200可以应用在图1A、图1B以及图2所示的沉浸式系统100。图4为显示于图1B与图2的显示面板146上的沉浸式内容的一实施例的示意图。
如图4的实施例所示,显示于显示面板146上的沉浸式内容包含右视窗RWd与左视窗LWd。沉浸式内容亦可能包含显示面板146上在右视窗RWd与左视窗LWd以外的非有效区域NA。非有效区域NA可被显示为环绕右视窗RWd与左视窗LWd的黑色背景。右视窗RWd与左视窗LWd同时显示于显示面板146上的不同位置。由于头盔装置120的左透镜单元126L与右透镜单元126R,使用者的视野将大致上落在右视窗RWd与左视窗LWd之内。非有效区域NA将位于使用者的视野之外(或是位于使用者的视野边缘)。非有效区域NA可协助分开两视窗(例如右视窗RWd与左视窗LWd),并将使用者的眼睛引导到正确的视窗,以减少斜视体验。
如图2与图3所示,操作S202被执行以由瞳孔感测器124决定瞳孔距离值IPDv。在图4所示的实施例中,目前的瞳孔距离值IPD1是相应于目前的使用者由瞳孔感测器124决定。操作S204被执行以将瞳孔距离值IPD1传输至显示装置140。操作S206被处理电路144执行,以依据瞳孔距离值IPD1分配沉浸式内容的右视窗RWd与左视窗LWd。
如图4所示,右视窗RWd与左视窗LWd是被处理电路144所配置分布,使得右视窗RWd的一中心CR1与左视窗LWd的一中心CL1两者之间形成间隙距离GD1。间隙距离GD1配置为与瞳孔距离值IPD1正相关。倘若瞳孔距离值IPD1较长,则右视窗RWd与左视窗LWd将由处理电路144配置分布为具有较宽的间隙距离GD1,而倘若瞳孔距离值IPD1较短,则右视窗RWd与左视窗LWd将被处理电路144配置分布为具有较靠近的间隙距离GD1。
如图4的实施例所示,间隙距离GD1配置分布为相等于瞳孔距离值IPD1,使得右视窗RWd与左视窗LWd与使用者的眼睛视线对准。在这种情况之下,使用者的眼睛可以直视前方,而不会对眼睛造成向内或向外的压力。
除此之外,如图4的实施例所示,左透镜单元126L以及右透镜单元126R的位置亦相应于瞳孔距离值IPD1而被移动,以使左透镜单元126L与右透镜单元126R的中心间的距离相等于瞳孔距离值IPD1。于一实施例中,左透镜单元126L与右透镜单元126R是被机械致动器(例如,齿轮组及/或微型马达)移动。
值得注意的是,本实施例中右视窗RWd与左视窗LWd的位置并非被固定于预设位置,并且当瞳孔距离值变化时,处理电路144将动态分配右视窗RWd与左视窗LWd的位置。
进一步参照图2、图3与图5。图5是为显示于图1B与图2的显示面板146上的沉浸式内容的另一实施例的示意图。例如,沉浸式系统100现在是被具有不同瞳孔距离值IPD2(相较于原先的瞳孔距离值IPD1)的另一个人所使用。于本实施例中,图5中的瞳孔距离值IPD2是较图4中的瞳孔距离值IPD1为宽。于操作S202中,瞳孔距离值IPD2可由图2中的瞳孔感测器124所决定(例如,经由图1A中的调整控制器124a或眼睛追踪摄影机124b)。于操作S204中,瞳孔距离值IPD2被传送至显示装置140。接着,操作S206被处理电路144执行,以依据瞳孔距离值IPD2配置分布沉浸式内容的右视窗RWd与左视窗LWd。
在图5所示的实施例中,右视窗RWd与左视窗LWd是被处理电路144所配置分布,使得在右视窗RWd的中心CR2与左视窗LWd的中心CL2间具有一间隙距离GD2。间隙距离GD2是被配置成与瞳孔距离值IPD2正相关。
在图5所示的实施例中,间隙距离GD2是被配置成相等于被瞳孔感测器124决定的瞳孔距离值IPD2。与图4所示相应于瞳孔距离值IPD1的实施例相较,图5中的右视窗RWd与左视窗LWd被彼此远离移动。图5中的右视窗RWd与左视窗LWd是被分配以具有间隙距离GD2(相等于瞳孔距离值IPD2),使得图5中右视窗RWd与左视窗LWd的分配,匹配具有相对较长的瞳孔距离值IPD2的使用者。倘若右视窗RWd与左视窗LWd并未被重新分配,且被固定于中心CL1/CR1,则使用者必需用他/她的眼睛向内看向右视窗RWd与左视窗LWd。基于动态分配右视窗RWd与左视窗LWd,具有一较长瞳孔距离值IPD2的使用者的眼睛视线,也可以对准右视窗RWd与左视窗LWd的位置,如图5所示。
此外,如图5所示的实施例,左透镜单元126L与右透镜单元126R的位置亦相应于瞳孔距离值IPD2移动,以使左透镜单元126L与右透镜单元126R中心间的一距离相等于瞳孔距离值IPD2。于一实施例中,左透镜单元126L与右透镜单元126R是被机械致动器(例如,齿轮组及/或微型马达)移动。
控制方法200可以于每次瞳孔距离值改变时(例如从IPD1到IPD2),或者每当侦测到新的瞳孔距离值时,再次进行操作S202至S206。在上述的实施例中,间隙距离GD1/GD2是被配置成与瞳孔距离值IPD1/IPD2正相关。当瞳孔距离值增加时,右视窗RWd与左视窗LWd被向外移动而互相远离。
然而,显示面板146具有尺寸限制。因此,右视窗RWd与左视窗LWd可能无法进一步向外移动超过显示面板146的边界。于一实施例中,显示面板146本身尺寸限制的临界值由显示面板146的面板宽度Wdp、右视窗RWd的第一尺寸参数以及左视窗LWd的第二尺寸参数及所决定。
如图4所示,显示面板146具有面板宽度Wdp。在图4的实施例中,右视窗RWd与左视窗LWd是为方圆形(squircle)视窗。右视窗RWd具有一预设的窗宽Wwd1,左视窗LWd也具有相同的预设的窗宽Wwd1。本实施例中的临界值可以被指定为“Wdp-Wwd1”。
在图4的实施例中,瞳孔距离值IPD1与窗宽Wwd1的和短于面板宽度Wdp(即,IPD1+Wwd1<Wdp,其意味着IPD1低于临界值),使得左视窗LWd的左边界以及右视窗RWd的右边界位于显示面板146之内。
在图5的实施例中,瞳孔距离值IPD2与窗宽Wwd1的和仍短于面板宽度Wdp(即,IPD2+Wwd1<Wdp,其意味着IPD2是小于临界值),使得左视窗LWd的左边界以及右视窗RWd的右边界仍位于显示面板146之内。
当瞳孔距离值超过临界值时,图4与图5所示具有预设形状与预设尺寸的右视窗RWd以及左视窗LWd,将会位于显示面板146的边界之外。
请参照图6A,图6A是为显示具有左视窗LWd的左边界以及右视窗RWd的右边界位于显示面板146之外的沉浸式内容的一例的示意图。在这些实施例中,假设一瞳孔距离值IPD3是由瞳孔感测器124所决定。于此实施例中,瞳孔距离值IPD3是大于图4或图5中的瞳孔距离值IPD1/IPD2。于此实施例中,瞳孔距离值IPD3与预设的窗宽Wwd1的和超过面板宽度Wdp(即,IPD3+Wwd1>Wdp,其意味着IPD3超过临界值),使得当瞳孔距离值IPD3超过临界值“Wdp-Wwd1”时,图4与图5中具有预设形状与预设尺寸的右视窗RWd以及左视窗LWd不再适合显示于显示面板146。
如图3所示,依据一实施例的控制方法另包含操作S208以决定瞳孔距离值是否超过临界值。基于图4、图5与图6A所示的上述实施例,临界值被配置为“Wdp-Wwd1”。对于图4所示的实施例(IPD1<Wdp-Wwd1)以及图5所示的实施例(IPD2<Wdp-Wwd1),将根据瞳孔距离值IPD1/IPD2分别分配右视窗RWd与左视窗LWd,并返回操作S202。
对于图6A所示的实施例(IPD3>Wdp-Wwd1),控制方法200的操作S210将被执行,以依据瞳孔距离值IPD3调整右视窗RWd与左视窗LWd的形状或尺寸参数。
请参照图6B,图6B是显示S210中被调整的左视窗LWd以及被调整的右视窗RWd的一实施例的示意图。于图6B所示的实施例中,对右视窗RWd及左视窗LWd的宽度进行调整而缩短。如图6B所示的实施例,右视窗RWd的宽度从预设的窗宽Wwd1(参照图6A)缩短为较短的窗宽Wwd2。类似地,左视窗LWd的宽度从预设的窗宽Wwd1(参照图6A)缩短为较短的窗宽Wwd2。由于右视窗RWd与左视窗LWd调整具有较短的宽度,右视窗RWd与左视窗LWd仍可彼此相距间隙距离GD3的情况下放入显示面板146中。间隙距离GD3由处理电路144配置于右视窗RWd的中心CR3与左视窗LWd的中心CL3之间。
请进一步参照图6C,图6C是显示S210中被调整的左视窗LWd以及被调整的右视窗RWd的另一实施例的示意图。于图6C所示的实施例中,右视窗RWd及左视窗LWd被重塑成圆边矩形视窗。在图6C所示的实施例中,圆边矩形视窗具有与原始视窗相同的高度,并且相对于原始视窗具有缩减的宽度。如图6C所示的实施例中,对右视窗RWd与左视窗LWd进行形状调整,以便两者能以间隙距离GD3放入显示面板146中。间隙距离GD3配置在形状调整后的右视窗RWd的中心CR3与形状调整后的左视窗LWd的中心CL3之间。
基于图6B与图6C所示的上述实施例,被调整的视窗间的间隙距离GD3是根据瞳孔距离值IPD3所动态决定。处理电路144进一步处理以调整右视窗RWd与左视窗LWd(通过调整形状或尺寸参数),以将调整后的视窗放入显示面板146的边界。因此,右视窗RWd与左视窗LWd可以与使用者的视线对准,并且完整显示于显示面板146之上。
此外,如图6B与图6C所示的实施例,左透镜单元126L与右透镜单元126R的位置亦相应于瞳孔距离值IPD3移动,以使左透镜单元126L与右透镜单元126R中心间的距离相等于瞳孔距离值IPD3。于一实施例中,左透镜单元126L与右透镜单元126R由机械致动器(例如,齿轮组及/或微型马达)移动。
于上述的实施例中,右视窗RWd与左视窗LWd是为用以展示的方圆形视窗,但本揭露并不限于此。在其他的一些实施例中,右视窗RWd与左视窗LWd可被塑形成其他适合的形状。请参照图7,图7是为显示于显示面板146上的左视窗LWd以及右视窗RWd的另一实施例的示意图。
如图7所示的实施例,右视窗RWd与左视窗LWd是为圆形视窗。右视窗RWd与左视窗LWd是被处理电路144所分配,以在右视窗RWd的中心CR4与左视窗LWd的中心CL4间具有间隙距离GD4。右视窗RWd是一个圆形视窗,其具有一预设半径R1起源于中心CR4。左视窗LWd是另一个圆形视窗,其具有相同的预设半径R1起源于中心CL4。临界值是取决于显示面板146的面板宽度Wdp及右视窗RWd的预设半径R1及左视窗LWd的预设半径R1。于此实施例中,临界值是被配置为“Wdp-2*R1”。
在图7所示的实施例中,瞳孔距离值IPD4低于临界值“Wdp-2*R1”。右视窗RWd的中心CR4与左视窗LWd的中心CL4被排列成具有与瞳孔距离值IPD4正相关的间隙距离GD4。类似于前述实施例,处理电路144在操作S202至S206中将间隙距离GD4配置成相等于瞳孔距离值IPD4。
此外,如图7所示的实施例,左透镜单元126L与右透镜单元126R的位置亦相应于瞳孔距离值IPD4移动,以使左透镜单元126L与右透镜单元126R中心间的距离相等于瞳孔距离值IPD4。
请参照图8A,图8A是显示S210中,相对于图7所示实施例的被调整左视窗LWd以及被调整右视窗RWd的一实施例的示意图。倘若在操作S208中另一瞳孔距离值IPD5被决定为超过临界值“Wdp-2*R1”,则左视窗LWd与右视窗RWd将在操作S210被调整。
于图8A所示的实施例中,右视窗RWd被调整为具有缩短的半径R2,其是短于预设半径R1(参照图7)。类似地,左视窗LWd被调整为具有缩短的半径R2,其是短于预设半径R1(参照图7)。由于右视窗RWd与左视窗LWd被调整成具有缩短的半径R2,右视窗RWd与左视窗LWd可以被以一间隙距离GD5放入显示面板146中。间隙距离GD5是被置于右视窗RWd的一中心CR5与左视窗LWd的一中心CL5间。
请进一步参照图8B,图8B是显示于S210中被调整的左视窗LWd以及被调整的右视窗RWd的右边界的另一实施例的示意图。于图8B所示的实施例中,右视窗RWd与左视窗LWd被从圆形视窗(参照图7)重塑成椭圆形视窗。在图8B所示的实施例中,椭圆形视窗与原始视窗具有相同的高度,并相对于原始视窗具有缩短的宽度。如图8B所示的实施例,被重塑的右视窗RWd与被重塑的左视窗LWd是被调整为能够以间隙距离GD5放入显示面板146中。间隙距离GD5是由处理电路144置于被重塑的右视窗RWd的中心CR5与被重塑的左视窗LWd的中心CL5间。
除此之外,如图8A与8B图所示的实施例,左透镜单元126L与右透镜单元126R的位置亦相应于瞳孔距离值IPD5移动,以使左透镜单元126L与右透镜单元126R中心间的一距离相等于瞳孔距离值IPD5。
基于上述实施例,视窗的位置可以依据瞳孔距离值,被以不同的间隙距离动态分配,令使用者以观察沉浸式内容,而无需给他/她的眼睛压力,进而提供最佳的观看体验。另外,当瞳孔距离值相对较大时(超过一特定临界值),视窗的形状或是尺寸参数被调整以防止视窗延伸超出显示面板的边界。
于一些实施例中,视窗的位置可以依据瞳孔距离值,以不同的间隙距离沿着一水平方向动态移动。但本揭露并不限于此。请进一步参照图9,图9是为依据本揭露的一实施例的一控制方法900的流程图。控制方法900可以被图1A、图1B及图2中的沉浸式系统100所使用。
如图9所示,操作S902被执行以由瞳孔感测器124决定瞳孔距离值并且侦测眼睛高度水平。例如,瞳孔感测器124包含眼部追踪摄影机124b(参照图1A),设置于头盔装置120之上。眼部追踪摄影机124b是用以测量瞳孔距离值IPDv并且侦测眼睛高度水平。例如,眼部追踪摄影机124b可以拍摄眼睛的影像。瞳孔的眼睛高度水平是被眼部追踪摄影机124b所侦测,并且瞳孔距离值IPD6是据此被图10所示实施例的眼部追踪摄影机124b所测量。
图10是为显示于显示面板146上与图9所示的控制方法900相关的沉浸式内容的一实施例的示意图。如图10所示,眼睛是被眼部追踪摄影机124b侦测而在眼睛高度水平H1。眼睛高度水平H1是位于参考眼睛高度水平H0的方方且相距一段高度水平差Hd。
如图9与10图所示,操作S904被执行以将瞳孔距离值IPD6与眼睛高度水平H1传输至显示装置140。操作S906被执行,以依据瞳孔距离值IPD6以及眼睛高度水平H1分配沉浸式内容的右视窗RWd与左视窗LWd。在本实施例中,介于右视窗RWd的中心CR6与左视窗LWd的中心CL6间的间隙距离GD6,是依据瞳孔距离值IPD6由处理电路144所决定。有关如何依据瞳孔距离值IPD6分配右视窗RWd与左视窗LWd的细节,已经在图4至图8B所示的实施例中进行了讨论,于此不再重复。
值得注意的是,右视窗RWd中心CR6的一高度水平与左视窗LWd的中心CL6的高度水平是依据眼睛高度水平H1而被调整。如果使用者以不同的方式佩戴头盔装置120,则使用者的眼睛高度水平H1可能不位于相对于头盔装置120的中间。于图10所示的实施例中,当眼睛高度水平H1从参考眼睛高度水平H0向上偏移时,右视窗RWd的中心CR6与左视窗LWd的中心CL6依据眼睛高度水平H1被向顶侧移动。在本实施例中,中心CR6以及中心CL6相对于一参考高度水平H0(即显示面板146的中间水平),朝向顶侧向上偏移高度水平差Hd。
另一方面,倘若眼睛高度水平是被侦测低于参考眼睛高度水平H0,处理电路144可以将右视窗RWd中心CR6的高度水平与左视窗LWd的中心CL6的高度水平分配至相对于参考高度水平H0较低的位置。
控制方法900的操作S902至S910的其他行为与上述实施例中的控制方法200的操作S202至S210类似。有关如何依据瞳孔距离值IPD6分配右视窗RWd与左视窗LWd的细节,已经在图3中控制方法200的上述实施例被解释,于此不再重复。
依据控制方法900的实施例,沉浸式内容的右视窗RWd与左视窗LWd可以依据瞳孔距离值以及眼睛高度水平而被分配。因此,右视窗RWd与左视窗LWd可以在水平方向(依据瞳孔距离值)以及垂直方向(依据眼睛高度水平)两者上,对准至使用者视线的投影点。因此之故,沉浸式系统可以提供使用者更好的观看体验。
虽然本发明已以实施例揭露如上,然其并非用以限定本发明,任何熟悉此技艺者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰,因此本发明的保护范围当视所附的权利要求书所界定的范围为准。

Claims (20)

1.一种沉浸式头戴系统,其特征在于,该沉浸式头戴系统包含:
一头盔装置,包含一瞳孔感测器用于决定一瞳孔距离值;以及
一显示装置,与该头盔装置通讯连接,该显示装置包含:一显示面板用于显示一沉浸式内容,该沉浸式内容包含一右视窗以及一左视窗,该右视窗以及该左视窗被同步显示于该显示面板的不同位置,当该显示装置自该头盔装置所接收的该瞳孔距离值时,该显示装置将该沉浸式内容的该右视窗以及该左视窗依据该瞳孔距离值而配置分布。
2.根据权利要求1所述的沉浸式头戴系统,其特征在于,该显示装置另包含一通讯电路,该通讯电路用以接收来自该头盔装置的该瞳孔距离值。
3.根据权利要求2所述的沉浸式头戴系统,其特征在于,该显示装置另包含一处理电路,该处理电路与该通讯电路耦接,该处理电路用以处理要显示在该显示面板上的该沉浸式内容。
4.根据权利要求1所述的沉浸式头戴系统,其特征在于,该右视窗以及该左视窗的配置分布,是使得该右视窗的一第一中心与该左视窗的一第二中心两者之间形成一间隙距离,该间隙距离是配置为与该瞳孔距离值正相关。
5.根据权利要求4所述的沉浸式头戴系统,其特征在于,该间隙距离是配置成相等于该瞳孔感测器所决定的该瞳孔距离值。
6.根据权利要求1所述的沉浸式头戴系统,其特征在于,当该瞳孔距离值超过一临界值时,该显示装置调整该右视窗以及该左视窗的形状或尺寸参数。
7.根据权利要求6所述的沉浸式头戴系统,其特征在于,该临界值是由该显示面板的一面板宽度、该右视窗的一第一尺寸参数以及该左视窗的一第二尺寸参数所决定。
8.根据权利要求6所述的沉浸式头戴系统,其特征在于,当该瞳孔距离值超过该临界值时,该右视窗以及该左视窗由从圆形视窗或方圆形视窗调整形状为椭圆形视窗或圆边矩形视窗。
9.根据权利要求6所述的沉浸式头戴系统,其特征在于,当该瞳孔距离值超过该临界值时,该右视窗以及该左视窗的一半径或是一宽度缩小调整。
10.根据权利要求1所述的沉浸式头戴系统,其特征在于,该头盔装置另包含:
一外壳,用于容设该显示装置;以及
一通讯电路,耦接于该瞳孔感测器,该通讯电路用以传输该瞳孔距离值至该显示装置。
11.根据权利要求1所述的沉浸式头戴系统,其特征在于,该瞳孔感测器包含一眼部追踪摄影机设置于头盔装置之上,该眼部追踪摄影机是用以测量该瞳孔距离值。
12.根据权利要求1所述的沉浸式头戴系统,其特征在于,该瞳孔感测器包含一调整控制器设置于该头盔装置之上,该瞳孔距离值是相应于该调整控制器上的一操作输入而调整。
13.根据权利要求1所述的沉浸式头戴系统,其特征在于,该瞳孔感测器是进一步用以侦测一眼睛高度水平,该眼睛高度水平经传输至该显示装置,该右视窗以及该左视窗进一步依据该眼睛高度水平而配置分布。
14.一种控制方法,适合于一沉浸式头戴系统,该沉浸式头戴系统包含一显示装置用于显示一沉浸式内容,其特征在于,该控制方法包含:
决定一瞳孔距离值;
传输该瞳孔距离值至该显示装置;以及
依据该瞳孔距离值配置分布该沉浸式内容的一右视窗以及一左视窗。
15.根据权利要求14所述的控制方法,其特征在于,该右视窗以及该左视窗的配置分布,是使得该右视窗的一第一中心与该左视窗的一第二中心间具有一间隙距离,该间隙距离是配置为与该瞳孔距离值正相关。
16.根据权利要求15所述的控制方法,其特征在于,该间隙距离是配置为相等于一瞳孔感测器所决定的该瞳孔距离值。
17.根据权利要求14所述的控制方法,其特征在于,进一步包含:
依据该瞳孔距离值调整该右视窗以及该左视窗的形状或尺寸参数。
18.根据权利要求17所述的控制方法,其特征在于,当该瞳孔距离值超过该临界值时,该右视窗以及该左视窗由从圆形视窗或方圆形视窗调整形状为椭圆形视窗或圆边矩形视窗。
19.根据权利要求17所述的控制方法,其特征在于,当该瞳孔距离值超过该临界值时,该右视窗以及该左视窗的一半径或是一宽度缩小调整。
20.根据权利要求14所述的控制方法,其特征在于,进一步包含:
侦测一眼睛高度水平;
传输该眼睛高度水平至该显示装置;以及
进一步依据该眼睛高度水平配置分布该沉浸式内容的该右视窗以及该左视窗。
CN201810005719.2A 2017-06-02 2018-01-03 沉浸式头戴系统及其控制方法 Active CN108983422B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/613,117 US10488920B2 (en) 2017-06-02 2017-06-02 Immersive headset system and control method thereof
US15/613,117 2017-06-02

Publications (2)

Publication Number Publication Date
CN108983422A true CN108983422A (zh) 2018-12-11
CN108983422B CN108983422B (zh) 2021-05-28

Family

ID=64459942

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810005719.2A Active CN108983422B (zh) 2017-06-02 2018-01-03 沉浸式头戴系统及其控制方法

Country Status (3)

Country Link
US (2) US10488920B2 (zh)
CN (1) CN108983422B (zh)
TW (1) TWI669531B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111354088A (zh) * 2018-12-21 2020-06-30 宏达国际电子股份有限公司 环境地图建立方法以及其系统
TWI736826B (zh) * 2019-01-15 2021-08-21 緯創資通股份有限公司 頭戴式顯示裝置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10778953B2 (en) 2018-12-10 2020-09-15 Universal City Studios Llc Dynamic convergence adjustment in augmented reality headsets
CN109756723B (zh) * 2018-12-14 2021-06-11 深圳前海达闼云端智能科技有限公司 获取影像的方法和装置,存储介质和电子设备
US11058026B1 (en) * 2019-04-19 2021-07-06 Apple Inc. Air deflector for cooling system in a head-mounted device
US11612316B2 (en) 2019-06-20 2023-03-28 Awss Zidan Medical system and method operable to control sensor-based wearable devices for examining eyes
JP2021072507A (ja) * 2019-10-30 2021-05-06 セイコーエプソン株式会社 頭部装着型表示装置および表示方法
CN111158146A (zh) * 2019-12-31 2020-05-15 歌尔股份有限公司 头戴设备及其控制方法和计算机可读存储介质
US11249314B1 (en) * 2020-08-04 2022-02-15 Htc Corporation Method for switching input devices, head-mounted display and computer readable storage medium
GB2598953A (en) * 2020-09-22 2022-03-23 Sony Interactive Entertainment Inc Head mounted display
US11507246B2 (en) 2020-10-07 2022-11-22 Htc Corporation Method for dynamically showing virtual boundary, electronic device and computer readable storage medium thereof
KR20220128726A (ko) 2021-03-15 2022-09-22 삼성전자주식회사 머리 착용형 디스플레이 장치, 그 장치에서의 동작 방법 및 저장매체
GB2605158B (en) 2021-03-24 2023-05-17 Sony Interactive Entertainment Inc Image rendering method and apparatus
GB2606184B (en) * 2021-04-28 2023-08-02 Sony Interactive Entertainment Inc Head-mountable display apparatus and methods
US20230066962A1 (en) * 2021-08-26 2023-03-02 Canon Kabushiki Kaisha Display device, control method thereof

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0575257A2 (en) * 1992-06-17 1993-12-22 Sony Corporation Spectacle type display apparatus
JPH07111664A (ja) * 1993-10-13 1995-04-25 Olympus Optical Co Ltd 頭部装着型立体映像表示装置
US20100079356A1 (en) * 2008-09-30 2010-04-01 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
JP2012138654A (ja) * 2010-12-24 2012-07-19 Sony Corp ヘッド・マウント・ディスプレイ
CN103098478A (zh) * 2010-08-16 2013-05-08 富士胶片株式会社 图像处理设备、图像处理方法、图像处理程序、以及记录介质
CN103901622A (zh) * 2014-04-23 2014-07-02 成都理想境界科技有限公司 3d头戴观影设备及对应的视频播放器
CN104111535A (zh) * 2013-04-17 2014-10-22 程立军 一种符合视觉生理的图像显示方法及装置
CN104519345A (zh) * 2013-09-27 2015-04-15 三星电子株式会社 显示设备和方法
CN105892053A (zh) * 2015-12-30 2016-08-24 乐视致新电子科技(天津)有限公司 一种虚拟头盔的透镜间距调节方法及其装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1070742A (ja) * 1996-08-29 1998-03-10 Olympus Optical Co Ltd 二眼式映像表示装置
KR100406945B1 (ko) * 2001-02-19 2003-11-28 삼성전자주식회사 착용형 디스플레이 장치
JP5222856B2 (ja) * 2007-11-20 2013-06-26 パナソニック株式会社 画像表示装置、その表示方法、プログラム、集積回路、眼鏡型ヘッドマウントディスプレイ、自動車、双眼鏡、及び卓上型ディスプレイ
JP5536999B2 (ja) * 2008-08-11 2014-07-02 キヤノン株式会社 映像表示装置及びその制御方法
US8317325B2 (en) * 2008-10-31 2012-11-27 Cross Match Technologies, Inc. Apparatus and method for two eye imaging for iris identification
WO2010084724A1 (ja) * 2009-01-21 2010-07-29 株式会社ニコン 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
CN102725789B (zh) * 2009-12-04 2015-08-05 Nlt科技股份有限公司 立体显示装置、用于产生用于立体显示的图像数据的方法
US8665177B2 (en) * 2010-02-05 2014-03-04 Kopin Corporation Touch sensor for controlling eyewear
JP5862112B2 (ja) * 2011-08-24 2016-02-16 ソニー株式会社 ヘッド・マウント・ディスプレイ及び表示制御方法
US8638498B2 (en) * 2012-01-04 2014-01-28 David D. Bohn Eyebox adjustment for interpupillary distance
JP6028357B2 (ja) * 2012-03-22 2016-11-16 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
US9250445B2 (en) 2012-08-08 2016-02-02 Carol Ann Tosaya Multiple-pixel-beam retinal displays
EP2699006A1 (en) * 2012-08-16 2014-02-19 ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) Pictures positioning on display elements
JP6350283B2 (ja) * 2012-09-12 2018-07-04 ソニー株式会社 画像表示装置及び画像表示方法、並びに記録媒体
US20160033770A1 (en) 2013-03-26 2016-02-04 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
US9753288B2 (en) * 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
JP2015230383A (ja) * 2014-06-05 2015-12-21 キヤノン株式会社 画像表示装置および画像表示システム
US9995933B2 (en) * 2014-06-24 2018-06-12 Microsoft Technology Licensing, Llc Display devices with transmittance compensation mask
US10198865B2 (en) * 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
KR102299774B1 (ko) * 2014-08-28 2021-09-09 삼성전자주식회사 화면 구성 방법, 전자 장치 및 저장 매체
KR102244222B1 (ko) 2014-09-02 2021-04-26 삼성전자주식회사 가상 현실 서비스를 제공하기 위한 방법 및 이를 위한 장치들
KR20160056133A (ko) * 2014-11-11 2016-05-19 삼성전자주식회사 이미지 표시 제어 방법 및 이를 지원하는 장치
KR102257106B1 (ko) * 2015-01-06 2021-05-27 삼성디스플레이 주식회사 액정 표시 장치
CN105866949B (zh) * 2015-01-21 2018-08-17 成都理想境界科技有限公司 能自动调节景深的双目ar头戴设备及景深调节方法
CN107430786A (zh) * 2015-06-12 2017-12-01 谷歌公司 用于头戴式显示器的电子显示稳定
CN205015835U (zh) 2015-08-03 2016-02-03 众景视界(北京)科技有限公司 头戴式智能交互系统
GB2546273B (en) * 2016-01-12 2020-02-26 Sony Interactive Entertainment Europe Ltd Detection system
US20170344107A1 (en) * 2016-05-25 2017-11-30 Intel Corporation Automatic view adjustments for computing devices based on interpupillary distances associated with their users
US9972119B2 (en) * 2016-08-11 2018-05-15 Microsoft Technology Licensing, Llc Virtual object hand-off and manipulation
JP6732617B2 (ja) * 2016-09-21 2020-07-29 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
JP7090601B2 (ja) * 2016-10-05 2022-06-24 マジック リープ, インコーポレイテッド 複合現実較正のための眼球周囲試験
KR20180060559A (ko) * 2016-11-29 2018-06-07 삼성전자주식회사 동공 거리 결정 방법 및 장치
US20190333480A1 (en) * 2017-01-05 2019-10-31 Philipp K. Lang Improved Accuracy of Displayed Virtual Data with Optical Head Mount Displays for Mixed Reality
US10809796B2 (en) * 2017-09-29 2020-10-20 Apple Inc. Monitoring a user of a head-wearable electronic device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0575257A2 (en) * 1992-06-17 1993-12-22 Sony Corporation Spectacle type display apparatus
JPH07111664A (ja) * 1993-10-13 1995-04-25 Olympus Optical Co Ltd 頭部装着型立体映像表示装置
US20100079356A1 (en) * 2008-09-30 2010-04-01 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
CN103098478A (zh) * 2010-08-16 2013-05-08 富士胶片株式会社 图像处理设备、图像处理方法、图像处理程序、以及记录介质
JP2012138654A (ja) * 2010-12-24 2012-07-19 Sony Corp ヘッド・マウント・ディスプレイ
CN104111535A (zh) * 2013-04-17 2014-10-22 程立军 一种符合视觉生理的图像显示方法及装置
CN104519345A (zh) * 2013-09-27 2015-04-15 三星电子株式会社 显示设备和方法
CN103901622A (zh) * 2014-04-23 2014-07-02 成都理想境界科技有限公司 3d头戴观影设备及对应的视频播放器
CN105892053A (zh) * 2015-12-30 2016-08-24 乐视致新电子科技(天津)有限公司 一种虚拟头盔的透镜间距调节方法及其装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111354088A (zh) * 2018-12-21 2020-06-30 宏达国际电子股份有限公司 环境地图建立方法以及其系统
CN111354088B (zh) * 2018-12-21 2023-11-10 宏达国际电子股份有限公司 环境地图建立方法以及其系统
TWI736826B (zh) * 2019-01-15 2021-08-21 緯創資通股份有限公司 頭戴式顯示裝置

Also Published As

Publication number Publication date
US10488920B2 (en) 2019-11-26
US10996749B2 (en) 2021-05-04
US20200057496A1 (en) 2020-02-20
TW201903470A (zh) 2019-01-16
US20180348860A1 (en) 2018-12-06
TWI669531B (zh) 2019-08-21
CN108983422B (zh) 2021-05-28

Similar Documents

Publication Publication Date Title
CN108983422A (zh) 沉浸式头戴系统及其控制方法
US10572010B2 (en) Adaptive parallax adjustment method and virtual reality display device
TWI443379B (zh) 三維顯示裝置及控制視差屏蔽之方法
CN104040457B (zh) 移动显示设备
CN104683786B (zh) 裸眼3d设备的人眼跟踪方法及装置
US20190156586A1 (en) Virtual reality system using mixed reality and implementation method thereof
CN104737535B (zh) 对3d图像中的图像叠加的深度调整
CN103595987A (zh) 立体图像显示装置、图像处理装置及图像处理方法
CN108027700A (zh) 信息处理装置
KR100727940B1 (ko) 통신 채널을 이용한 3d 입체 영상의 화질 조정 방법
JP2013098934A (ja) 映像処理装置および映像処理方法
EP3688984A1 (en) Head-mountable display system
EP2805517A1 (en) Portable electronic equipment and method of controlling an autostereoscopic display
KR20130036198A (ko) 자동입체 디스플레이 및 그 제조방법
TW201837893A (zh) 動態顯示系統
JP2009153574A (ja) 視機能検査装置
KR101046259B1 (ko) 응시위치를 추적하여 입체영상을 표시하는 입체영상 표시장치
US10580214B2 (en) Imaging device and imaging method for augmented reality apparatus
CN102116937B (zh) 用于显示三维图像的装置和方法
US20120218388A1 (en) Computer-readable storage medium having information processing program stored therein, imaging apparatus, imaging method, and imaging system
KR101320477B1 (ko) 카메라 간격 및 이동속도 조절이 가능한 건축물 내비게이션 장치 및 방법
US20210400234A1 (en) Information processing apparatus, information processing method, and program
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
US8928586B2 (en) Stereoscopic display device
JPH10232111A (ja) 距離測定装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant