CN116107534A - 信息显示方法及其处理装置与信息显示系统 - Google Patents
信息显示方法及其处理装置与信息显示系统 Download PDFInfo
- Publication number
- CN116107534A CN116107534A CN202211252575.3A CN202211252575A CN116107534A CN 116107534 A CN116107534 A CN 116107534A CN 202211252575 A CN202211252575 A CN 202211252575A CN 116107534 A CN116107534 A CN 116107534A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- processing device
- sight
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1446—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
- G09G2340/0478—Horizontal positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种信息显示方法及其信息显示系统与处理装置,此系统包括可透光的多个显示器与多个处理装置。处理装置经由闸道器而彼此连接与通讯。第一处理装置是根据用户的位置信息而从处理装置选择出来,第一处理装置根据用户的位置信息与姿态信息决定用户的视线信息。相异于第一处理装置的第二处理装置计算目标物的目标物坐标。第一处理装置根据用户的视线信息而从处理装置选择出第三处理装置,第三处理装置根据用户坐标与目标物坐标决定虚拟物件的显示位置信息,并控制显示器其中之一根据显示位置信息显示虚拟物件。借此,可提高计算效率来避免虚实融合显示服务的延迟显示,提升用户的观看体验。
Description
技术领域
本揭露涉及一种信息显示技术。
背景技术
随着图像处理技术与空间定位技术的发展,透明显示器的应用已逐渐受到重视。此类的技术可让显示器搭配实体物件,再辅以虚拟物件,并且依照用户的需求来产生交互式的体验,可使信息以更为直观的方式呈现。
再者,关联于实体物件的虚拟物件可显示于透明显示器的特定位置上,让用户可透过透明显示器同时观看到实体物件与叠加于实体物件上或一侧的虚拟物件。举例而言,透过于观景台上设置透明显示器,观赏者可同时观看景观以及透明显示器提供的景观信息。然而,于一些大型应用场景中,可能需要透过多台透明显示器的组合来提供虚实融合的信息显示服务,且实体物件与用户的数量也更多。于是,若使用单一中心运算装置来负责所有运算任务,将可能因为运算量过于庞大或其他因素而发生计算延迟的问题,导致无法提供实时的虚实融合显示服务给观赏者。
发明内容
本揭露有关于一种信息显示方法及其处理装置与信息显示系统,其可根据用户位置与用户的视线信息来分配运算任务给经选择的处理装置。
在本揭露的一范例实施例中,上述的信息显示系统包括可透光的多个显示器、多个感知信息获取装置以及多个处理装置。感知信息获取装置用以获取用户的位置信息与姿态信息以及获取目标物的位置信息。处理装置分别对应于显示器,且经由多个闸道器而彼此连接与通讯。第一处理装置是根据用户的位置信息而从处理装置选择出来,且第一处理装置根据感知信息获取装置所提供用户的位置信息与姿态信息决定用户的视线信息。相异于第一处理装置的第二处理装置根据感知信息获取装置所提供目标物的位置信息进行坐标转换而计算目标物的目标物坐标。第一处理装置根据用户的视线信息而从处理装置选择出第三处理装置。第三处理装置根据用户坐标与目标物坐标决定虚拟物件的显示位置信息,并控制显示器其中之一者根据虚拟物件的显示位置信息显示虚拟物件。
在本揭露的一范例实施例中,上述的信息显示方法适用于具有可透光的多个显示器、多个感知信息获取装置以及多个处理装置的信息显示系统,并且包括下列步骤。利用感知信息获取装置获取用户的位置信息与姿态信息以及目标物的位置信息。根据用户的位置信息而从处理装置选择第一处理装置。透过第一处理装置根据感知信息获取装置所提供用户的位置信息与姿态信息决定用户的视线信息。透过相异于第一处理装置的第二处理装置根据感知信息获取装置所提供目标物的位置信息进行坐标转换而计算目标物的一目标物坐标。根据用户的视线信息而从处理装置选择出第三处理装置。透过第三处理装置根据用户坐标与目标物坐标决定虚拟对象的显示位置信息,并控制显示器其中之一者根据虚拟对象的显示位置信息显示虚拟对象。
本揭露一范例实施例提出一种处理装置,其连接于可透光的显示器以及感知信息获取装置,并经由多个闸道器连接至多个其他处理装置。感知信息获取装置用以获取用户的位置信息与姿态信息,处理装置包括存储器与处理器。存储器用以储存数据,而处理器经配置以执行下列步骤。透过感知信息获取装置判定处理装置与用户之间的距离小于各个其他处理装置与用户之间的距离。根据感知信息获取装置所提供的用户的位置信息与姿态信息决定用户的视线信息。根据用户的视线信息选择多个处理装置其中之一者,并经由闸道器传输用户的视线信息至多个处理装置其中之一者。其中,多个处理装置其中之一者根据视线信息、用户坐标与目标物坐标决定虚拟物件的显示位置信息,并控制显示器或连接于多个其他处理装置的另一显示器可根据虚拟物件的显示位置信息显示虚拟物件。
附图说明
图1A是根据本揭露一范例实施例所绘示的信息显示系统的方块图;
图1B是根据本揭露一范例实施例所绘示的信息显示系统的示意图;
图2是根据本揭露一范例实施例所绘示的信息显示方法的流程图;
图3A是根据本揭露一范例实施例所绘示的信息显示系统的应用情境的示意图;
图3B是根据本揭露一范例实施例所绘示的信息显示方法的流程图;
图4A是根据本揭露一范例实施例所绘示的信息显示系统的应用情境的示意图;
图4B是根据本揭露一范例实施例所绘示的信息显示方法的流程图;
图5A与图5B是根据本揭露实施例所绘示的估测视线位置的示意图;
图6A是根据本揭露一范例实施例所绘示的信息显示系统的应用情境的示意图;
图6B是根据本揭露一范例实施例所绘示的信息显示方法的流程图;
图7是根据本揭露一范例实施例所绘示的信息显示系统的应用情境的示意图;
图8A是根据本揭露一范例实施例所绘示的信息显示系统的应用情境的示意图;
图8B是根据本揭露一范例实施例所绘示的信息显示方法的流程图;
图9是根据本揭露一实施例所绘示的处理装置的方块图。
附图标记说明
10信息显示系统;
110_1~110_N:显示器;
120_1~120_N:感知信息获取设备;
130_1~130_N:处理装置;
G1~Gk:闸道器;
N1:网络拓朴;
Vf1,Vf2:虚拟物件;
RF1:参考显示物件框;
U1,U2,U3,U4:用户;
Obj1,Obj2:目标物;
E1,E2,E3,E4,E5,E6:视线信息;
P1~P4:基准点;
901:存储器;
902:处理器;
903:传输组件;
S210~S260、S302~S324、S402~S426、S602~S638、S802~S830:步骤。
具体实施方式
现将详细地参考本发明的示范性实施例,示范性实施例的实例说明于附图中。只要有可能,相同组件符号在附图和描述中用来表示相同或相似部分。
图1A是根据本揭露一范例实施例所绘示的信息显示系统的方块图。首先图1A先介绍系统中的各个构件以及配置关系,详细功能将配合后续范例实施例的流程图一并揭露。
请参照图1A,本范例实施例中的信息显示系统10可包括多个显示器110_1、110_2、110_3、…、110_N、多个感知信息获取装置120_1、120_2、120_3、…、120_N,以及多个处理装置130_1、130_2、130_3、…、130_N。处理装置130_1~130_N可以是以无线、有线或电性地分别连接于显示器110_1~110_N与感知信息获取装置120_1~120_N。须说明的是,于图1A的范例中是以一个处理装置连接至一个显示器与一个感知信息获取装置为范例进行说明,像是处理装置130_1连接显示器110_1与感知信息获取装置120_1,但本揭露并不限制于此。于其他范例中,一个处理装置可连接至多个感知信息获取装置或多个显示器。
显示器110_1~110_N可用以显示信息,其可包括是由单个或多个显示设备组合而成,显示设备可例如是液晶显示器(Liquid crystal display,LCD)、场色序(Fieldsequential color)液晶显示器、发光二极管(Light emitting diode,LED)显示器、电湿润显示器等穿透式可透光显示器,或者是投影式可透光显示器。
感知信息获取装置120_1~120_N可用以获取用户的位置信息与姿态信息。感知信息获取装置120_1~120_N包括用以获取用户信息的感测装置。于一些实施例中,感知信息获取装置120_1~120_N可包括至少一个影像传感器或者包括至少一个影像传感器搭配至少一个深度传感器,以朝向位于显示器110_1~110_N前侧的用户获取影像数据,从而对用户进行影像辨识与定位。前述影像传感器可为可见光传感器或非可见光传感器如红外线传感器等。此外,感知信息获取装置120_1~120_N也可以包括光学定位器来对用户进行光学空间定位。于一些实施例中,感知信息获取装置120_1~120_N还可透过各类人体姿态辨识技术来辨识用户的四肢、躯干与头部所呈现的姿态。像是,感知信息获取装置120_1~120_N可根据影像数据辨识人体骨架与人体特征点等等,从而识别出用户的姿态。只要是可以定位出用户所在位置信息以及辨识用户的姿态信息的装置或其组合,皆属于感知信息获取装置120_1~120_N的范畴。
另一方面,感知信息获取装置120_1~120_N可用以获取实体场景中目标物的位置信息。感知信息获取装置120_1~120_N包括用以获取目标物信息的感测装置。于一些实施例中,感知信息获取装置120_1~120_N可包括至少一个影像传感器或者包括至少一个影像传感器搭配至少一个深度传感器,以朝向位于显示器110_1~110_N后侧的目标物获取影像数据,从而对目标物进行影像辨识与定位。前述影像传感器可为可见光传感器或非可见光传感器如红外线传感器等。只要是可以定位出目标物所在位置信息的装置或其组合,皆属于感知信息获取装置120_1~120_N的范畴。
于本揭露实施例中,上述的影像传感器可用以获取影像并且包括具有透镜以及感光组件的摄像镜头。上述的深度传感器可用以侦测深度信息,其可以利用主动式深度感测技术以及被动式深度感测技术来实现。主动式深度感测技术可藉由主动发出光源、红外线、超音波、雷射等作为讯号搭配时差测距技术来计算深度信息。被动式深度感测技术可以藉由两个影像传感器以不同视角获取其前方的两张影像,以利用两张影像的视差来计算深度信息。
于一些实施例中,感知信息获取装置120_1~120_N可以透过各自的通讯接口以有线或是无线的方式传输信息至处理装置130_1~130_N。处理装置130_1~130_N为具有运算能力的计算器装置。处理装置130_1~130_N可布署于信息显示系统10所属的场域之中,其可以是分别内建于显示器110_1~110_N或分别连接显示器110_1~110_N的计算器装置。处理装置130_1~130_N分别对应于显示器110_1~110_N,并可用以控制与其相连接的显示器110_1~110_N。例如,处理装置130_1可用以控制显示器110_1进行显示并显示内容。
举例而言,图1B是根据本揭露一范例实施例所绘示的信息显示系统的示意图。为了方便且清楚说明,图1B以3个显示器110_1~110_3以及3个感知信息获取装置120_1~120_3为范例进行说明,但本揭露不限制于此。请参照图1B,用户U1与目标物Obj1分别位于显示器110_1~110_3的前侧与后侧。于本范例中,用户U1可透过显示器110_2观看包含有目标物Obj1的虚拟物件Vf1的实体场景。虚拟物件Vf1可视为基于目标物Obj1而扩增的扩增实境内容。
须特别说明的是,处理装置130_1~130_N经由多个闸道器G1、G2、…、Gk而彼此连接与通讯。每一个闸道器G1~Gk支持无线传输协议或有线传输协议,其可与附近的闸道器或处理装置130_1~130_N建立链结。本揭露对于无线传输协议与有线传输协议的种类并不限制,可以是WiFi标准、ZigBee标准、行动通讯标准或以太网络标准等等。于一些实施例中,闸道器G1~Gk可形成一网络拓朴N1。然而,本揭露对于闸道器G1~Gk的数量与网络拓朴的样式并不限定。每一个处理装置130_1~130_N将可与闸道器G1~Gk其中至少一者相连。透过闸道器G1~Gk之间的链结,处理装置130_1~130_N可透过闸道器G1~Gk来进行信息传输与相互通讯。
须特别说明的是,透过设置多个处理装置130_1~130_N与闸道器G1~Gk的链结,基于用户U1的位置信息与姿态信息以及目标物Obj1的位置信息来显示虚拟物件Vf1所需的计算任务可分散给一部份的处理装置130_1~130_N来进行。藉此,可透过分布式处理架构来提升计算效率,以避免虚拟物件的延迟显示。
图2是根据本揭露一范例实施例所绘示的信息显示方法的流程图,请同时参照图1A、图1B以及图2,而图2的方法流程可由图1A与图1B的信息显示系统10来实现。
于步骤S210,利用感知信息获取装置120_1~120_N获取用户U1的位置信息与姿态信息以及目标物Obj1的位置信息。如同前述,感知信息获取装置120_1~120_N例如是可针对用户U1以及目标物Obj1的所在位置进行定位的影像传感器、深度传感器或其组合。
于步骤S220,根据用户U1的位置信息而从处理装置130_1~130_N挑选第一处理装置。于一些实施例中,第一处理装置为处理装置130_1~130_N中与用户U1的位置信息距离最近的一者。亦即,第一处理装置与用户U1之间的距离小于各个其他处理装置与用户U1之间的距离。详细而言,感知信息获取装置120_1~120_N其中至少一可以定位出用户U1的位置信息。并且,在处理装置130_1~130_N已经固定设置于信息显示系统10所属场域中的情况下,处理装置130_1~130_N的位置信息是已知的。因此,处理装置130_1~130_N其中至少一可根据用户U1的位置信息以及各个处理装置130_1~130_N的已知位置信息而获取各个处理装置130_1~130_N与用户U1之间的距离。藉此,多个处理装置之中与用户U1的位置信息距离最近的第一处理装置将可被挑选出来。可知的,反应于用户U1的动态移动,最靠近用户U1的第一处理装置可能对应改变。
于步骤S230,透过第一处理装置根据感知信息获取装置120_1~120_N所提供的用户U1的位置信息与姿态信息决定用户的视线信息E1。具体而言,在挑选第一处理装置之后,第一处理装置可直接从与其相连的感知信息获取装置120_1~120_N其中之一获取用户的位置信息与姿态信息,或者从闸道器G1~Gk获取用户的位置信息与姿态信息。于是,第一处理装置可根据用户U1的位置信息与姿态信息来辨识出视线信息E1,视线信息E1包括视线向量。
于步骤S240,透过相异于第一处理装置的第二处理装置根据感知信息获取装置120_1~120_N所提供的目标物Obj1的位置信息进行坐标转换而计算目标物Obj1的目标物坐标。换言之,第二处理装置将对感知信息获取装置120_1~120_N其中至少一所提供的目标物Obj1的位置信息(例如是相机坐标或影像坐标)进行坐标转换,而获取三维显示坐标系下的目标物坐标。
于步骤S250,透过第一处理装置根据用户U1的视线信息E1而从处理装置130_1~130_N挑选出第三处理装置。详细而言,在第一处理装置获取用户U1的视线信息E1之后,第一处理装置根据用户U1的视线信息E1识别显示器110_1~110_N其中之一者,以根据显示器110_1~110_N其中之一者从处理装置130_1~130_N选择出对应的第三处理装置。于一些实施例中,第一处理装置可根据用户U1的位置信息计算对应于显示器110_1~110_N其中之一者的视线角度范围。反应于用户U1的视线信息落在视线角度范围内,第一处理装置自显示器110_1~110_3识别显示器110_1~110_N其中之所述一者。以图1B为例,第一处理装置可根据用户U1的位置信息计算对应于显示器110_2的视线角度范围。由于用户U1的视线信息落在显示器110_2的视线角度范围内,因而可判定用户U1的视线位置落在显示器110_2上。
也就是说,第一处理装置可根据用户U1的视线信息E1来识别用户所注视的显示器。由于显示器110_1~110_N会分别受控制于对应的处理装置130_1~130_N,因此第一处理装置可将用户所注视的显示器对应的处理装置选择为第三处理装置。须说明的是,第一处理装置可相同或相异于第三处理装置。更具体而言,在显示器110_1~110_N可平行并排且处理装置130_1~130_N分别设置于邻近对应的显示器110_1~110_N的情境中,当用户注视正前方的显示器时,最靠近用户U1的第一处理装置会相同于用户U1所注视的第三处理装置;当用户注视左右两侧的显示器时,最靠近用户U1的第一处理装置会相异于用户U1所注视的第三处理装置。
于一些实施例中,第三处理装置根据感知信息获取装置120_1~120_N所提供的用户U1的位置信息进行坐标转换而计算用户的用户坐标。换言之,第三处理装置将对感知信息获取装置120_1~120_N其中至少一所提供的用户U1的位置信息(例如是相机坐标或影像坐标)进行坐标转换,而获取三维显示坐标系下的用户坐标。
于步骤S260,透过第三处理装置根据用户坐标与目标物坐标决定虚拟物件Vf1的显示位置信息,并控制显示器110_1~110_N其中之一者根据虚拟物件Vf1的显示位置信息显示虚拟物件Vf1。于一些实施例中,第二处理装置可经由闸道器G1~Gk传输目标物Obj1的目标物坐标至第三处理装置。相似的,若第一处理装置相异于第三处理装置,第一处理装置亦可经由闸道器G1~Gk传输用户U1的视线信息E1至第三处理装置。基此,第三处理装置可根据用户坐标、视线信息E1与目标物坐标决定虚拟物件Vf1的显示位置信息。具体来说,显示位置信息可视为用户观看目标物Obj1时视线投射于显示平面上的落点或区域。基于各式需求或不同应用,第三处理装置可根据显示位置信息决定虚拟物件Vf1的实际显示位置,以让用户U1可看到显示于目标物Obj1附近的虚拟物件Vf1或看到迭加显示于目标物Obj1上的虚拟物件Vf1。
由此可知,透过闸道器G1~Gk链结多个处理装置130_1~130_N,本揭露可将显示虚拟物件Vf1所需的计算量分配给多个处理装置来负责,从而大幅提升计算效率,以避免虚拟物件的显示延迟。
以下将搭配信息显示系统10列举实施例以说明本揭露根据视线信息决定第三处理装置以及单用户与多用户的实施方式。为了方便且清楚说明,后续实施例将以3个处理装置130_1~130_3分别连接3个显示器110_1~110_3以及3个感知信息获取装置120_1~120_3为范例进行说明,但本揭露不限制于此。处理装置130_1~130_3可分别设置相邻于对应的显示器110_1~110_3。
图3A是根据本揭露一范例实施例所绘示的信息显示系统的应用情境的示意图。图3B是根据本揭露一范例实施例所绘示的信息显示方法的流程图。请同时参照图3A与图3B。于本实施例中,用户U1位于显示器110_2的前方,并且注视位于用户U1正前方的显示器110_2。
感知信息获取装置120_2可获取用户U1的位置信息与姿态信息(步骤S302),并将用户U1的位置信息与姿态信息传输至例如处理装置130_2。反应于接收用户U1的位置信息,处理装置130_2可计算各个处理装置130_1~130_3与用户U1的位置信息之间的距离。并且,处理装置130_2可根据各个处理装置130_1~130_3与用户U1的位置信息之间的距离选择第一处理装置(步骤S304)。于此,第一处理装置是处理装置130_1~130_3中与用户U1的位置信息距离最近的一者。于本范例中,假设处理装置130_2为最靠近用户U1的第一处理装置。亦即,于一实施例中,处理装置130_2可透过感知信息获取装置120_2判定处理装置130_2与用户U1之间的距离小于各个其他处理装置130_1、130_3与用户U1之间的距离。
接着,处理装置130_2可根据用户U1的位置信息与姿态信息来辨识用户U1的视线信息E1(步骤S306)。更详细来说,处理装置130_2被挑选来计算用户U1的视线信息E1,并判断用户U1的视线信息E1落在那一个显示器上。于本范例中,处理装置130_2可根据用户U1的视线信息E1判定用户U1的视线信息E1落在显示器110_2之上,并根据视线信息E1所投射的显示器110_2而选择第三处理装置(步骤S308)。于本范例中,用以控制显示器110_2的处理装置130_2为第三处理装置。亦即,本范例之第一处理装置与第三处理装置是相同的并且皆为处理装置130_2。于是,处理装置130_2根据感知信息获取装置120_2所提供的用户U1的位置信息进行坐标转换而计算用户的用户坐标(步骤S310)。
另一方面,感知信息获取装置120_1~120_3可获取目标物Obj1的位置信息(步骤S312)。由于处理装置130_2已经被挑选作为第一处理装置,因此处理装置130_1或处理装置130_3可被选择作为第二处理装置(步骤S314)。以下将以处理装置130_3为第二处理装置为例继续进行说明。处理装置130_3可接收目标物Obj1的位置信息与其他相关信息,以进一步处理与目标物Obj1相关的目标物辨识(步骤S316)。接着,处理装置130_3根据感知信息获取装120_1~120_3所提供之目标物Obj1的位置信息进行坐标转换而计算目标物Obj1的目标物坐标(步骤S318),以将用户U1的位置信息与目标物Obj1的位置信息都转换至相同的坐标系统下。处理装置130_3可经由闸道器G1~Gk其中至少一将目标物Obj1的目标物坐标传输至作为第三处理装置的处理装置130_2(步骤S320)。
最后,处理装置130_2根据用户坐标与目标物坐标决定虚拟物件Vf1的显示位置信息(步骤S322),并控制显示器110_2根据虚拟物件的显示位置信息显示虚拟物件(步骤S324)。藉此,处理装置130_2可以显示位置信息为参考基准来显示虚拟物件Vf1。
图4A是根据本揭露一范例实施例所绘示的信息显示系统的应用情境的示意图。图4B是根据本揭露一范例实施例所绘示的信息显示方法的流程图。请同时参照图4A与图4B。于本实施例中,用户U1位于显示器110_3的前方,并且注视位于用户U1左侧的显示器110_1。
感知信息获取装置120_3可获取用户U1的位置信息与姿态信息(步骤S402),并将用户U1的位置信息与姿态信息传输至例如处理装置130_3。处理装置130_3可根据各个处理装置130_1~130_3与用户U1的位置信息之间的距离选择第一处理装置(步骤S404)。于本范例中,第一处理装置是处理装置130_1~130_3中与用户U1的位置信息距离最近的处理装置130_3。接着,作为第一处理装置的处理装置130_3可根据用户U1的位置信息与姿态信息来辨识用户U1的视线信息E2(步骤S406)。于本范例中,处理装置130_3可根据用户U1的视线信息E2判定用户U1的视线信息E2落在显示器110_1之上,并根据视线信息E2所投射的显示器110_1而选择第三处理装置(步骤S408)。于本范例中,用以控制显示器110_1的处理装置130_1为第三处理装置。亦即,本范例的第一处理装置与第三处理装置是相异的。处理装置130_3可经由闸道器G1~Gk其中至少一将用户U1的视线信息E2传输至作为第三处理装置的处理装置130_1(步骤S410)。
另一方面,感知信息获取装置120_1~120_3可获取目标物Obj2的位置信息(步骤S412)。由于处理装置130_3已经被挑选作为第一处理装置且处理装置130_1已经被挑选作为第三处理装置,因此处理装置130_2可被选择作为第二处理装置(步骤S414)。处理装置130_2可接收目标物Obj2的位置信息与其他相关信息,以进一步处理与目标物Obj2相关的目标物辨识(步骤S416)。接着,处理装置130_2根据感知信息获取装120_1~120_3所提供的目标物Obj2的位置信息进行坐标转换而计算目标物Obj2的目标物坐标(步骤S418)。处理装置130_2可经由闸道器G1~Gk其中至少一将目标物Obj2的目标物坐标传输至作为第三处理装置的处理装置130_1(步骤S420)。
处理装置130_1可透过闸道器G1~Gk或直接从感知信息获取装置120_1接收用户U1的位置信息。于是,处理装置130_1根据用户U1的位置信息进行坐标转换而计算用户的用户坐标(步骤S422)。处理装置130_1根据用户坐标、目标物坐标以及视线信息E2决定虚拟物件Vf2的显示位置信息(步骤S424),并控制显示器110_1根据虚拟物件Vf2的显示位置信息显示虚拟物件Vf2(步骤S426)。于本范例中,处理装置130_3(即第一处理装置)可分析用户U1的视线信息E2。处理装置130_2(即第二处理装置)可处理目标物Obj2的物件辨识与坐标转换。处理装置130_1(即第三处理装置)根据用户坐标与目标物坐标来决定虚拟物件Vf2的显示位置信息。
于一些实施例中,第一处理装置可根据用户U1的位置信息计算对应于某一个显示器的视线角度范围。反应于用户U1的视线信息落在该视线角度范围内,第一处理装置可自显示器110_1~110_3识别出用户U1所注视的显示器。
详细而言,图5A与图5B为根据本揭露实施例所绘示的估测视线位置的示意图。请参照图5A与图5B,显示器110_2的宽度为dw。透过于显示器110_2前方设置已知位置的基准点P1~P4,处理装置130_2可根据感知信息获取装置120_2所获取的影像上基准点P1~P4的像素位置来估测出用户U1距离显示器110_2的左边界的横向偏移距离X。基准点P1~P4可以为任何标示物,本揭露对此不限制。
更详细而言,基准点P1~P2的深度信息为D1,基准点P3~P4的深度信息为D2。基准点P1的X轴像素坐标D1R减去基准点P2的X轴像素坐标D1L的相减结果比上深度信息D1的比例会相等于X轴像素坐标DuR减去X轴像素坐标DuL的相减结果比上深度信息D的比例。同理,基准点P3的X轴像素坐标D2R减去基准点P4的X轴像素坐标D2L的相减结果比上深度信息D2的比例会相等于X轴像素坐标DuR减去X轴像素坐标DuL的相减结果比上深度信息D的比例。基此,在X轴像素坐标DuR以及X轴像素坐标DuL可经由计算而得知的情况下,透过例如内插计算与基于用户的深度信息D以及宽度dw可得知用户U1距离显示器110_2的左边界的横向偏移距离X。
如此一来,基于横向偏移距离X、深度信息D以及正切函数可计算出视线角度范围θ。如图5B所示,若用户U1的视线信息E3未落在视线角度范围θ之内,代表用户U1注视左侧的显示器110_1。反之,若用户U1的视线信息落在视线角度范围θ之内,代表用户U1注视显示器110_2。
图6A是根据本揭露一范例实施例所绘示的信息显示系统的应用情境的示意图。图6B是根据本揭露一范例实施例所绘示的信息显示方法的流程图。请同时参照图6A与图6B。于本实施例中,用户U1位于显示器110_2的前方,并且从注视位于用户U1正前方的显示器110_2转换为注视位于用户U1左侧的显示器110_1。
感知信息获取装置120_2可获取用户U1的位置信息与姿态信息(步骤S602),并将用户U1的位置信息与姿态信息传输至例如处理装置130_2。处理装置130_2可根据各个处理装置130_1~130_3与用户U1的位置信息之间的距离选择第一处理装置(步骤S604)。于本范例中,第一处理装置可以是处理装置130_1~130_3中与用户U1的位置信息距离最近的处理装置130_2。接着,作为第一处理装置的处理装置130_2可根据用户U1的位置信息与姿态信息来辨识用户U1的视线信息E1(步骤S606)。于本范例中,处理装置130_2可根据用户U1的视线信息E1判定用户U1的视线信息E1落在显示器110_2之上,并根据视线信息E1所投射的显示器110_1而选择第三处理装置(步骤S608)。于本范例中,在用户U1的视线信息发生变化之前,用以控制显示器110_2的处理装置130_2同样为第三处理装置。于是,处理装置130_2计算用户的用户坐标(步骤S610)。处理装置130_2决定虚拟物件Vf1的显示位置信息(步骤S612)。处理装置130_2控制显示器110_2显示虚拟物件Vf1(步骤S614)。步骤S602~步骤S614的详细操作细节已于前述实施例详细说明,于此不再赘述。
须特别注意的是,反应于用户U1的转身或转头,处理装置130_2侦测用户U1的视线信息的变化(步骤S616)。于本范例中,用户的视线信息E1变化为视线信息E3。在用户U1的视线信息发生变化之后,处理装置130_2判断用户U1的视线信息E3是否依然落在显示器110_1~110_3其中之一者(即显示器110_2)的所述视线角度范围内(步骤S618)。反应于用户U1的视线信息E3未落在显示器110_2的视线角度范围内(步骤S618判断为否),处理装置130_2根据用户的视线信息E3识别显示器110_1~110_3其中之另一者(即显示器110_1),以根据显示器110_1~110_3其中之另一者(即显示器110_1)从处理装置130_1~130_3选择出另一第三处理装置(步骤S620)。于本范例中,在用户U1的视线信息发生变化之后,用以控制显示器110_1的处理装置130_1被识别另一第三处理装置。于是,处理装置130_2将视线信息E3传输给后续负责显示控制的处理装置130_1(步骤S622)。
另一方面,感知信息获取装置120_1~120_3可获取目标物Obj1、Obj2的位置信息(步骤S624)。由于处理装置130_2已经被挑选作为第一处理装置,因此处理装置130_3可被选择作为第二处理装置(步骤S626)。处理装置130_3可接收目标物Obj1、Obj2的位置信息与其他相关信息,以进一步处理与目标物Obj1、Obj2相关的目标物辨识(步骤S628)。接着,处理装置130_3根据感知信息获取装120_1~120_3所提供的目标物Obj1、Obj2的位置信息进行坐标转换而计算目标物Obj1、Obj2的目标物坐标(步骤S630)。处理装置130_3可经由闸道器G1~Gk其中至少一将目标物Obj1、Obj2的目标物坐标传输至作为第三处理装置的处理装置130_1以及处理装置130_2(步骤S632)。
相似于前述操作原理,处理装置130_1根据用户U1的位置信息进行坐标转换而计算用户的用户坐标(步骤S634)。处理装置130_1根据用户坐标、目标物坐标以及视线信息E3决定虚拟物件Vf2的显示位置信息(步骤S636),并控制显示器110_1根据虚拟物件Vf2的显示位置信息显示虚拟物件Vf2(步骤S638)。于本范例中,用以负责显示控制的第三处理装置将反应于视线变化而从处理装置130_2切换为130_1。
图7是根据本揭露一范例实施例所绘示的信息显示系统的应用情境的示意图。请参照图7,当用户的人数超过一人时,处理装置130_1~130_3其中之二可作为计算视线信息E2、E4的第一处理装置。于图7的范例中,由于感知信息获取装置120_1侦测到用户U2,因此与用户U2距离最近的处理装置130_1将被选择来作为计算用户U2的视线信息E4的第一处理装置。另一方面,由于感知信息获取装置120_1侦测到用户U1,与用户U1距离最近的处理装置130_3将被选择来作为计算用户U1的视线信息E2的第一处理装置。此外,根据用户U1与U2的视线信息E2、E4投射于显示器110_1、110_2上的视线位置,处理装置130_1与130_2可分别用来计算虚拟物件Obj1、Obj2的显示位置信息。
图8A是根据本揭露一范例实施例所绘示的信息显示系统的应用情境的示意图。图8B是根据本揭露一范例实施例所绘示的信息显示方法的流程图。请同时参照图8A与图8B。于本实施例中,用户U1与多位其他用户U3、U4位于显示器110_3的前方,并且用户U1与多位其他用户U3、U4都注视位于左侧的显示器110_1。
感知信息获取装置120_3可获取用户U1与多位其他用户U3、U4的位置信息与姿态信息(步骤S802),并将用户U1与多位其他用户U3、U4的位置信息与姿态信息传输至例如处理装置130_3。于本实施例中,处理装置130_3可根据各个处理装置130_1~130_3与用户U1与多位其他用户U3、U4的位置信息之间的距离选择第一处理装置(步骤S804)。具体而言,处理装置130_3可计算出处理装置130_1~130_3与用户U1之间的距离。相似的,处理装置130_3可计算出处理装置130_1~130_3分别与多位其他用户U3、U4之间的距离。处理装置130_3可从上述所有距离中找到最小距离,并选择关联于该最小距离的处理装置作为第一处理装置。于本范例中,用户U1与处理装置130_3之间相距一最小距离,因此处理装置130_3被选择作为第一处理装置。
接着,作为第一处理装置的处理装置130_3可根据用户U1与多位其他用户U3、U4的位置信息与姿态信息来辨识用户U1与多位其他用户U3、U4的视线信息E3、E5、E6(步骤S806)。
处理装置130_3判断感知信息获取装置120_1~120_3其中一者(即感知信息获取装置120_3)是否同时侦测到用户U1与多位其他用户U3、U4(步骤S808)。反应于感知信息获取装置120_3同时侦测到用户U1与其他用户U3、U4(步骤S808判断为是),处理装置130_3根据用户U1的视线信息E3与其他用户U3、U4的视线信息E5、E6计算得出一共同视线方向(步骤S810),并根据共同视线方向从处理装置130_1~130_3选择出第三处理装置以及显示器110_1~110_3其中之一者(步骤S812)。于一些实施例中,处理装置130_3可计算用户U1的视线信息E3与其他用户U3、U4的视线信息E5、E6于各轴方向上的分量的平均值,以获取共同视线方向。
须说明的是,于一些实施例中,在计算一共同视线方向之前,处理装置130_3还可判断用户U1的视线信息E3与其他用户U3、U4的视线信息E5、E6之间的视线方向差异是否符合预设条件。具体而言,处理装置130_3可判定用户U1的视线向量分别与其他用户U3、U4的视线向量之间的角度差距是否小于门坎值。若是,可判定用户U1的视线信息E3与其他用户U3、U4的视线信息E5、E6之间的视线方向差异符合一预设条件,代表用户U1与其他用户U3、U4注视相似的位置。
此外,于本范例中,由于共同视线方向落在显示器110_1之上,因此处理装置130_3根据共同视线方向所投射的显示器110_1而选择第三处理装置。于本范例中,用以控制显示器110_1的处理装置130_1为第三处理装置。处理装置130_3可经由闸道器G1~Gk其中至少一将共同视线方向传输至作为第三处理装置的处理装置130_1(步骤S814)。
另一方面,感知信息获取装置120_1~120_3可获取目标物Obj2的位置信息(步骤S816)。由于处理装置130_3已经被挑选作为第一处理装置且处理装置130_1已经被挑选作为第三处理装置,因此处理装置130_2可被选择作为第二处理装置(步骤S818)。处理装置130_2可接收目标物Obj2的位置信息与其他相关信息,以进一步处理与目标物Obj2相关的目标物辨识(步骤S820)。接着,处理装置130_2根据感知信息获取装置120_1~120_3所提供的目标物Obj2的位置信息进行坐标转换而计算目标物Obj2的目标物坐标(步骤S822)。处理装置130_2可经由闸道器G1~Gk其中至少一将目标物Obj2的目标物坐标传输至作为第三处理装置的处理装置130_1(步骤S824)。
处理装置130_1可透过闸道器G1~Gk或直接从感知信息获取装置120_1接收用户U1的位置信息。于是,处理装置130_1根据用户U1的位置信息进行坐标转换而计算用户的用户坐标(步骤S826)。处理装置130_1根据用户坐标、目标物坐标以及共同视线方向决定虚拟物件Vf2的显示位置信息(步骤S828),并控制显示器110_1根据虚拟物件Vf2的显示位置信息显示虚拟物件Vf2(步骤S830)。
图9是根据本揭露一实施例所绘示的处理装置的方块图。处理装置900可为前述实施例的处理装置130_1~130_N。请参照图9,处理装置900可包括存储器901、处理器902以及传输组件903。存储器901可以例如是任意型式的固定式或可移动式随机存取存储器(random access memory,RAM)、只读存储器(read-only memory,ROM)、闪存(flashmemory)、硬盘或其他类似装置、集成电路或其组合。处理器902可以例如是中央处理单元(central processing unit,CPU)、应用处理器(application processor,AP),或是其他可程序化之一般用途或特殊用途的微处理器(microprocessor)、数字信号处理器(digitalsignal processor,DSP)、影像讯号处理器(image signal processor,ISP)、图形处理器(graphics processing unit,GPU)或其他类似装置、集成电路或其组合。传输组件903是支持有线/无线传输协议的通讯装置,例如是收发器与天线的组合。处理器902可执行存储器901所纪录的指令、程序代码或软件模块而实现本揭露的信息显示方法。
本揭露的范例实施例所提出的信息显示方法及其处理装置与信息显示系统,可根据用户的位置与视线来对多个处理装置进行运算分配,从而提高计算效率来避免虚实融合显示服务的延迟显示。藉此,虚拟物件可实时地且顺畅地进行显示,大幅提升用户的观看体验。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (19)
1.一种信息显示系统,其特征在于,包括:
可透光的多个显示器;
多个感知信息获取装置,用以获取用户的位置信息与姿态信息以及获取目标物的位置信息;
多个处理装置,分别对应于所述显示器,且经由多个闸道器而彼此连接与通讯,
其中,第一处理装置是根据所述用户的位置信息而从所述处理装置选择出来,所述第一处理装置根据所述感知信息获取装置所提供的所述用户的位置信息与姿态信息决定所述用户的视线信息,
其中,相异于所述第一处理装置的第二处理装置根据所述第二感知信息获取装置所提供的所述目标物的位置信息进行坐标转换而计算所述目标物的目标物坐标,
其中,所述第一处理装置根据所述用户的视线信息而从所述处理装置选择出第三处理装置,所述第三处理装置根据用户坐标与所述目标物坐标决定虚拟物件的显示位置信息,并控制所述显示器其中之一者根据所述虚拟物件的所述显示位置信息显示所述虚拟物件。
2.根据权利要求1所述的信息显示系统,其特征在于,所述第一处理装置为所述处理装置中与所述用户的位置信息距离最近的一者。
3.根据权利要求1所述的信息显示系统,其特征在于,所述第一处理装置相同或相异于所述第三处理装置,而所述第三处理装置根据所述感知信息获取装置所提供的所述用户的位置信息进行坐标转换而计算所述用户的所述用户坐标。
4.根据权利要求1所述的信息显示系统,其特征在于,所述第二处理装置经由所述闸道器传输所述目标物的所述目标物坐标至所述第三处理装置。
5.根据权利要求1所述的信息显示系统,其特征在于,所述第一处理装置根据所述用户的视线信息识别所述显示器其中之所述一者,以根据所述显示器其中之所述一者从所述处理装置选择出所述第三处理装置。
6.根据权利要求5所述的信息显示系统,其特征在于,所述第一处理装置根据所述用户的位置信息计算对应于所述显示器其中之所述一者的视线角度范围,反应于所述用户的视线信息落在所述视线角度范围内,所述第一处理装置自所述显示器识别所述显示器其中之所述一者。
7.根据权利要求5所述的信息显示系统,其特征在于,反应于所述用户的视线信息的变化,所述第一处理装置判断所述用户的视线信息是否依然落在所述显示器其中之所述一者的所述视线角度范围内;以及反应于所述用户的视线信息未落在所述显示器其中之所述一者的所述视线角度范围内,所述第一处理装置根据所述用户的视线信息识别所述显示器其中之另一者,以根据所述显示器其中之所述另一者从所述处理装置选择出另一第三处理装置。
8.根据权利要求1所述的信息显示系统,其特征在于,所述第一处理装置判断所述感知信息获取装置其中一者是否同时侦测到所述用户与多个其他用户,反应于所述感知信息获取装置其中所述一者同时侦测到所述用户与所述其他用户,所述第一处理装置根据所述用户的视线信息与所述其他用户的视线信息计算一共同视线方向,并根据所述共同视线方向从所述处理装置选择出所述第三处理装置以及所述显示器其中之所述一者。
9.根据权利要求8所述的信息显示系统,其特征在于,所述用户的视线信息与所述其他用户的视线信息之间的视线方向差异符合预设条件。
10.一种信息显示方法,其特征在于,适用于具有可透光的多个显示器、多个感知信息获取装置以及多个处理装置的信息显示系统,而所述方法包括:
利用所述感知信息获取装置获取用户的位置信息与姿态信息以及目标物的位置信息;
根据所述用户的位置信息而从所述处理装置选择第一处理装置;
透过所述第一处理装置根据所述感知信息获取装置所提供的所述用户的位置信息与姿态信息决定所述用户的视线信息;
透过相异于所述第一处理装置的第二处理装置根据所述感知信息获取装置所提供的所述目标物的位置信息进行坐标转换而计算所述目标物的目标物坐标;
根据所述用户的视线信息而从所述处理装置选择出第三处理装置;以及
透过所述第三处理装置根据用户坐标与所述目标物坐标决定虚拟物件的显示位置信息,并控制所述显示器其中之一者根据所述虚拟物件的所述显示位置信息显示所述虚拟物件。
11.根据权利要求10所述的信息显示方法,其特征在于,根据所述用户的位置信息而从所述处理装置选择所述第一处理装置的步骤包括:
从所述处理装置之中选择与所述用户的位置信息距离最近的所述第一处理装置。
12.根据权利要求10所述的信息显示方法,其特征在于,所述第一处理装置相同或相异于所述第三处理装置,且所述方法更包括:
透过所述第三处理装置根据所述感知信息获取装置所提供的所述用户的位置信息进行坐标转换而计算所述用户的所述用户坐标。
13.根据权利要求10所述的信息显示方法,其特征在于,所述方法更包括:
透过所述第二处理装置经由所述闸道器传输所述目标物的所述目标物坐标至所述第三处理装置。
14.根据权利要求10所述的信息显示方法,其特征在于,根据所述用户的视线信息而从所述处理装置选择出所述第三处理装置的步骤包括:
透过所述第一处理装置根据所述用户的视线信息识别所述显示器其中之所述一者;以及
根据所述显示器其中之所述一者从所述处理装置选择出所述第三处理装置。
15.根据权利要求14所述的信息显示方法,其特征在于,透过所述第一处理装置根据所述用户的视线信息识别所述显示器其中之所述一者的步骤包括:
透过所述第一处理装置根据所述用户的位置信息计算对应于所述显示器其中之所述一者的视线角度范围;以及
反应于所述用户的视线信息落在所述视线角度范围内,透过所述第一处理装置自所述显示器识别所述显示器其中之所述一者。
16.根据权利要求14所述的信息显示方法,其特征在于,所述方法更包括:
反应于所述用户的视线信息的变化,透过所述第一处理装置判断所述用户的视线信息是否依然落在所述显示器其中之所述一者的所述视线角度范围内;以及
反应于所述用户的视线信息未落在所述显示器其中之所述一者的所述视线角度范围内,透过所述第一处理装置根据所述用户的视线信息识别所述显示器其中之另一者,以根据所述显示器其中之所述另一者从所述处理装置选择出另一第三处理装置。
17.根据权利要求10所述的信息显示方法,其特征在于,所述方法更包括:
透过所述第一处理装置判断所述感知信息获取装置其中一者是否同时侦测到所述用户与多个其他用户;
反应于所述感知信息获取装置其中所述一者同时侦测到所述用户与所述其他用户,透过所述第一处理装置根据所述用户的视线信息与所述其他用户的视线信息计算一共同视线方向,
其中根据所述用户的视线信息而从所述处理装置选择出所述第三处理装置的步骤包括:
根据所述共同视线方向从所述处理装置选择出所述第三处理装置以及所述显示器其中之所述一者。
18.根据权利要求17所述的信息显示方法,其特征在于所述用户的视线信息与所述其他用户的视线信息之间的视线方向差异符合一预设条件。
19.一种处理装置,其特征在于,连接于可透光的显示器、以及一感知信息获取装置,并经由多个闸道器连接至多个其他处理装置,其中所述感知信息获取装置用以获取一用户的位置信息与姿态信息,所述处理装置包括:
存储器,用以存储数据;以及
处理器,连接所述存储器并经配置:
透过所述感知信息获取装置判定所述处理装置与所述用户之间的距离小于各所述多个其他处理装置与所述用户之间的距离;
根据所述感知信息获取装置所提供的所述用户的位置信息与姿态信息决定所述用户的视线信息;以及
根据所述用户的视线信息选择所述多个处理装置其中之一者,并经由所述闸道器传输所述用户的视线信息至所述多个处理装置其中之一者,
其中所述多个处理装置其中之一者根据所述视线信息、用户坐标与目标物坐标决定虚拟物件的显示位置信息,并控制该显示器或连接于该些其他处理装置的另一显示器根据所述虚拟物件的所述显示位置信息显示所述虚拟物件。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163278071P | 2021-11-10 | 2021-11-10 | |
US63/278,071 | 2021-11-10 | ||
TW111130006A TWI818665B (zh) | 2021-11-10 | 2022-08-10 | 資訊顯示方法及其資訊顯示系統與處理裝置 |
TW111130006 | 2022-08-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116107534A true CN116107534A (zh) | 2023-05-12 |
Family
ID=86256821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211252575.3A Pending CN116107534A (zh) | 2021-11-10 | 2022-10-13 | 信息显示方法及其处理装置与信息显示系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11822851B2 (zh) |
CN (1) | CN116107534A (zh) |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140022283A1 (en) * | 2012-07-20 | 2014-01-23 | University Health Network | Augmented reality apparatus |
JP6232716B2 (ja) * | 2013-03-11 | 2017-11-22 | 株式会社リコー | 情報処理装置、表示制御システムおよびプログラム |
US9898868B2 (en) | 2014-11-06 | 2018-02-20 | Seiko Epson Corporation | Display device, method of controlling the same, and program |
CN106296805B (zh) | 2016-06-06 | 2019-02-26 | 厦门铭微科技有限公司 | 一种基于实时反馈的增强现实人体定位导航方法及装置 |
GB2568426B (en) * | 2016-08-17 | 2021-12-15 | Synaptive Medical Inc | Methods and systems for registration of virtual space with real space in an augmented reality system |
TW201814320A (zh) | 2016-10-03 | 2018-04-16 | 申雲洪 | 計算目標物座標位置之變焦光學系統及目標物資訊分享之方法 |
TWI659334B (zh) | 2016-12-12 | 2019-05-11 | Industrial Technology Research Institute | 透明顯示裝置、使用其之控制方法以及其之控制器 |
US10904615B2 (en) | 2017-09-07 | 2021-01-26 | International Business Machines Corporation | Accessing and analyzing data to select an optimal line-of-sight and determine how media content is distributed and displayed |
KR102094953B1 (ko) | 2018-03-28 | 2020-03-30 | 주식회사 비주얼캠프 | 시선 추적 방법 및 이를 수행하기 위한 단말 |
TWI670646B (zh) * | 2018-06-15 | 2019-09-01 | 財團法人工業技術研究院 | 資訊顯示方法及其顯示系統 |
WO2020095639A1 (ja) * | 2018-11-09 | 2020-05-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
TWI804671B (zh) | 2019-08-28 | 2023-06-11 | 財團法人工業技術研究院 | 互動顯示方法與互動顯示系統 |
TWI793390B (zh) * | 2019-12-25 | 2023-02-21 | 財團法人工業技術研究院 | 資訊顯示方法及其處理裝置與顯示系統 |
TWI799000B (zh) * | 2021-04-16 | 2023-04-11 | 財團法人工業技術研究院 | 資訊顯示方法及其處理裝置與顯示系統 |
-
2022
- 2022-10-13 CN CN202211252575.3A patent/CN116107534A/zh active Pending
- 2022-11-03 US US17/979,785 patent/US11822851B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11822851B2 (en) | 2023-11-21 |
US20230161537A1 (en) | 2023-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6860488B2 (ja) | 複合現実システム | |
CN108292489B (zh) | 信息处理装置和图像生成方法 | |
CN112527102B (zh) | 头戴式一体机系统及其6DoF追踪方法和装置 | |
CA2926861C (en) | Fiducial marker patterns, their automatic detection in images, and applications thereof | |
CN110362193B (zh) | 用手或眼睛跟踪辅助的目标跟踪方法及系统 | |
US9563981B2 (en) | Information processing apparatus, information processing method, and program | |
EP4224424A1 (en) | Method and system for determining spatial coordinates of a 3d reconstruction of at least part of a real object at absolute spatial scale | |
US20140168261A1 (en) | Direct interaction system mixed reality environments | |
US10999412B2 (en) | Sharing mediated reality content | |
EP3252714A1 (en) | Camera selection in positional tracking | |
US11443540B2 (en) | Information processing apparatus and information processing method | |
WO2015093130A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN110895676B (zh) | 动态对象跟踪 | |
TWI793390B (zh) | 資訊顯示方法及其處理裝置與顯示系統 | |
CN113467731B (zh) | 显示系统、信息处理装置和显示系统的显示控制方法 | |
US10992928B1 (en) | Calibration system for concurrent calibration of device sensors | |
KR20210150881A (ko) | 전자 장치 및 그 동작 방법 | |
CN116107534A (zh) | 信息显示方法及其处理装置与信息显示系统 | |
TWI818665B (zh) | 資訊顯示方法及其資訊顯示系統與處理裝置 | |
KR20220096877A (ko) | 증강 현실 장치를 제어하는 방법 및 이를 수행하는 증강 현실 장치 | |
EP3607353B1 (en) | Illuminating an environment for localisation | |
KR20220030007A (ko) | 이미지 생성 장치 및 방법 | |
Bhowmik | Embedded 3D-Sensing Devices with Real-Time Depth-Imaging Technologies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |