CN110502170A - 对显示内容的基于位置的调整 - Google Patents
对显示内容的基于位置的调整 Download PDFInfo
- Publication number
- CN110502170A CN110502170A CN201910402813.6A CN201910402813A CN110502170A CN 110502170 A CN110502170 A CN 110502170A CN 201910402813 A CN201910402813 A CN 201910402813A CN 110502170 A CN110502170 A CN 110502170A
- Authority
- CN
- China
- Prior art keywords
- observer
- display
- display equipment
- equipment
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012937 correction Methods 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 claims abstract description 26
- 230000008859 change Effects 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 8
- 238000013459 approach Methods 0.000 claims description 3
- 230000018199 S phase Effects 0.000 claims 2
- 230000000007 visual effect Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
根据一方面,提供了一种对显示内容的基于位置的调整方法。所述方法包括确定观察者相对于显示设备的位置。所述方法还包括基于观察者相对于显示设备的位置来确定要应用于多个显示内容的失真校正,以校正相对于观察者的显示内容。显示内容的失真校正被输出到显示设备。
Description
背景技术
本文中所公开的主题一般涉及显示领域,并且更具体地说,涉及对显示内容的基于位置的调整。
例如,显示内容可包括文本和图形,以便为人提供寻路指引,其中假设人直接面对显示屏幕,而不是从斜角查看。然而,在共享公共显示屏幕的情境下,用户通常不会停在静止的监测器前,而是会继续行走,以避免干扰跟随的人流或者减少停止和重新开始所浪费的时间。如果人在走过显示屏幕时尝试读取显示内容,则由于人的运动和静态内容,视角的改变可使其难以准确地处理信息。
发明内容
根据一个实施例,提供了一种对显示内容的基于位置的调整的方法。所述方法包括确定观察者相对于显示设备的位置。所述方法还包括基于观察者相对于显示设备的位置来确定要应用于多个显示内容的失真校正,以校正相对于观察者的显示内容。显示内容的失真校正被输出到显示设备。
除了以上或以下描述的一个或多个特征之外,或者作为备选方案,另外实施例可以包括其中确定观察者相对于显示设备的位置包括确定观察者和显示设备之间的一个或多个角度差。
除了以上或以下描述的一个或多个特征之外,或者作为备选方案,另外实施例可以包括通过跟踪观察者的移动和投影观察者的可能未来位置来确定观察者相对于显示设备的移动的轨迹,并且基于该轨迹来确定要应用于显示内容的失真校正。
除了以上或以下描述的一个或多个特征之外,或者作为备选方案,另外实施例可以包括其中显示内容包括观察者的跟踪当前方向和跟踪当前方向的改变的图形描绘,作为朝观察者的可能未来位置的投影。
除了以上或以下描述的一个或多个特征之外,或者作为备选方案,另外实施例可以包括当观察者继续相对于显示设备改变位置时调整失真校正,其中失真校正至少包括对显示内容执行的旋转和重新缩放操作。
除了以上或以下描述的一个或多个特征之外,或者作为备选方案,另外实施例可以包括当观察者从接近于显示设备的定位转移到接近于一个或多个其他显示设备的另一定位时跟踪观察者的移动,并且在为观察者定制的一个或多个其他显示设备上向观察者显示一组内容。
除了以上或以下描述的一个或多个特征之外,或者作为备选方案,另外实施例可以包括其中基于以下一项或多项来跟踪观察者的移动:观察者的至少一个特征和/或来自观察者的移动设备的信号。
除了以上或以下描述的一个或多个特征之外,或者作为备选方案,另外实施例可以包括标识面对显示设备的一个或多个附加观察者,并且调整失真校正以在校正显示内容时将一个或多个附加观察者和观察者的位置进行混合。
除了以上或以下描述的一个或多个特征之外,或者作为备选方案,另外实施例可以包括基于以下一项或多项将失真校正从观察者转移到面对显示设备的一个或多个附加观察者中的至少一个:检测观察者的数量的改变和/或检测相对于显示设备的观察者接近度的改变。
除了以上或以下描述的一个或多个特征之外,或者作为备选方案,另外实施例可以包括标识面对显示设备的一个或多个附加观察者,将显示设备划分成多个显示段,并且向每个显示段提供具有个体化的失真校正的单独内容。
根据另一实施例,提供了一种系统。所述系统包括显示设备、可操作以检测观察者的位置的一个或多个传感器、以及可操作地耦合到显示设备和一个或多个传感器的显示调整系统。显示调整系统被配置成执行多个操作,包括基于一个或多个传感器来确定观察者相对于显示设备的位置,基于观察者相对于显示设备的位置来确定要应用于多个显示内容的失真校正以校正相对于观察者的显示内容,以及将显示内容的失真校正输出到显示设备。
本公开的实施例的技术效果包括将失真校正应用于显示设备上的显示内容,以说明显示内容的观察者的移动的轨迹和/或位置。
除非另外明确指明,否则前述特征和元件可以以各种组合方式来组合而不具有排他性。根据以下描述和附图,这些特征和元件及其操作将变得更加明显。然而,应当理解,下面的描述和附图旨在本质上是说明性和解释性的而非限制性的。
附图说明
下面的描述不应被视为以任何方式进行限制。参考附图,相同的元件编号相同:
图1示出了根据本公开的实施例的显示系统的一般示意系统图;
图2示出了根据本公开的实施例的显示系统的一般示意系统图;
图3示出了根据本公开的实施例的观察者相对于显示设备建立第一观察角度;
图4示出了根据本公开的实施例的观察者相对于显示设备建立第二观察角度;
图5示出了根据本公开的实施例的用于显示内容的显示坐标的示例;
图6示出了根据本公开的实施例的显示内容的未校正视图的示例;
图7示出了根据本公开的实施例的用于显示内容的校正视图的显示坐标的示例;
图8示出了根据本公开的实施例的显示内容的校正视图的示例;
图9示出了根据本公开的实施例的在由运动中的观察者所感知时的显示内容和实际显示内容之间的差异的示例;
图10示出了根据本公开的实施例的在由运动中的观察者所感知时的显示内容和实际显示内容之间的差异的示例;
图11示出了根据本公开的实施例的在由运动中的观察者所感知时的显示内容和实际显示内容之间的差异的示例;
图12示出了根据本公开的实施例的作为显示内容的示例的单个方向箭头;
图13示出了根据本公开的实施例的作为显示内容的示例的复合方向箭头;以及
图14是示出根据本公开的实施例的方法的流程图。
具体实施方式
参考附图,本文中以示例而非限制的方式提出了所公开的装置和方法的一个或多个实施例的详细描述。
如将在以下被描述的,当观察者相对于显示设备改变位置时,实施例相对于观察者调整显示内容,诸如文本和图形。在可以显示方向箭头和导航信息的寻路指引显示的情境下,观察者通常不会停在显示设备前,而是在经过显示设备时继续看显示设备。当观察者相对于在固定位置中显示设备移动时,观察者可能具有理解内容的困难时刻,因为信息或方向箭头可能由于观察者的视角改变而出现失真。实施例使用一个或多个传感器来跟踪显示设备的观察者的轨迹和位置(例如,定位和/或方位)。通过确定观察者相对于显示设备的位置和观察者相对于显示设备的轨迹,可以将失真校正应用于显示内容,以校正相对于观察者的显示内容。
参考图1,根据本公开的实施例示出了系统100,其用于对显示内容的基于位置的调整。如图1中所见,观察者102可以查看显示设备104(例如,计算机监测器),同时在接近于显示设备104的定位106和期望终点定位108之间转移。显示设备104可以是在基本固定的位置中的信息亭110,所述信息亭110是对观察者102当跨定位106转移时可见的。在一些实施例中,要在显示设备104上显示的显示内容包括文本和/或图形形式中的方向,以帮助观察者102导航通过建筑物。一个或多个传感器112可用于确定观察者102的位置,其中该位置包括观察者102相对于显示设备104的定位和/或方位。例如,一个或多个传感器112可以包括摄像机,其被配置成捕捉观察者102的至少一个特征,诸如观察者102的头部拍摄和/或身体拍摄。
图1的示例是升降机门厅120,其包括多个升降机接入点122A、122B、122C、122D(通常为122)。每个升降机接入点122A、122B、122C、122D可以与一组升降机门124A、124B、124C、124D以及至少一个升降机输入装置器126相关联。观察者102在接近于显示设备104的定位106和期望终点定位108之间行进可能存在有各种障碍,诸如对象128A、128B。对象128A、128B是路径移动约束的示例(例如,家具、支撑柱、各种结构等),其限制了观察者102的可能未来位置。假定期望终点定位108是图1中的升降机接入点122中的一个,对象128A、128B可以限制观察者102的移动选项,例如,使得观察者102最可能在对象128A、128B之间通过。一个或多个传感器112可用于通过监测一时间段内的移动来确定观察者102的位置和轨迹130。
此外,当观察者102沿轨迹130转移远离显示设备104时,一个或多个其他显示设备134可变得对观察者102是可见的。可存在有一个或多个传感器142,其可操作以跟踪接近于一个或多个其他显示设备134的观察者102的位置。
传感器112和142的示例可以包括2D红、绿、蓝(RGB)监视摄像机和/或深度传感器中的一个或多个,所述深度传感器提供包括对象和深度传感器之间的距离的三维(3D)信息。可使用的各种3D深度感测技术和设备包括但不限于结构光测量、相移测量、飞行时间测量、立体三角测量设备、光片(sheet of light)三角测量设备、光场摄像机、编码孔径摄像机、计算成像技术、同时定位和建图(SLAM)、成像雷达、成像声纳、回波定位、激光雷达、扫描光检测和测距(LIDAR)、泛光LIDAR或包括上述中的至少一种的组合。不同的技术可以包括主动(传送和接收信号)或被动(仅接收信号),并且可以在电磁或声频谱(诸如视觉、红外、超声波、底板压力垫等)的频带中进行操作。在各种实施例中,3D深度传感器可操作以从散焦、图像的聚焦堆叠或来自运动的结构产生3D信息。类似地,多个2D深度传感器可用于提供二维信息,其包括对象和深度传感器之间的距离。
显示调整系统114可以以本地、网络化或分布式配置被结合到或被可操作地耦合到显示设备104、134和/或一个或多个传感器112、142。显示调整系统114可以包括处理系统115、存储器系统116和设备接口118。处理系统115可以是但不限于任一种广泛的可能架构的单处理器或多处理器系统,其包括同构或异构布置的现场可编程门阵列(FPGA)、中央处理单元(CPU)、专用集成电路(ASIC)、数字信号处理器(DSP)或图形处理单元(GPU)硬件。存储器系统116可以是存储设备,诸如,例如随机存取存储器(RAM)、只读存储器(ROM)或其他电子、光学、磁性或任何其他计算机可读存储介质。存储器系统116可以包括计算机可执行指令,所述指令当由处理系统115执行时,使得处理系统115执行如本文中进一步描述的操作。设备接口118可以包括到显示设备104、134之一或两者以及一个或多个传感器112、142的有线、无线和/或光通信链路。尽管在图1中仅描绘了显示调整系统114的单个实例,但是应当理解,可存在有显示调整系统114的多个实例来支持显示设备104、134和一个或多个传感器112、142的多个实例,或者显示调整系统114的单个实例可以支持显示设备104、134和一个或多个传感器112、142的多个实例。
显示调整系统114可操作以从一个或多个传感器112、142捕获数据,并执行面部和/或身体方位检测。面部和/或身体方位检测可以使用已知的图像处理技术来标识观察者102的特征。例如,由显示调整系统114执行的面部识别可以跟踪面部特征(例如,眼、嘴、鼻、前额、下巴和其他特征)的相关几何形状,以不但估计观察者102的位置(包括方位)而且还在多个观察者之间进行区分。显示调整系统114还可操作以基于观察者102相对于每个显示设备104、134的位置和轨迹将失真校正应用于显示内容,以校正相对于观察者102的显示内容。例如,当观察者102靠近并经过定位106时,观察者102的视线角度相对于显示设备104的显示表面改变。本文中针对图3-5进一步提供了示例。另外,当显示调整系统114标识并跟踪观察者102经过定位106的移动时,显示调整系统114可预测观察者102靠近显示设备134的轨迹130,其中显示设备134的显示内容可包括对观察者102特定的另外方向(例如,以升降机接入点122A为目标),并且使用一个或多个传感器142来提供失真校正。
图2描绘了作为图1的系统100的变型的系统200的配置,其用于对显示内容的基于位置的调整。在图2的示例中,显示调整系统114通过接口连接到显示设备204,其是安装在走廊220中的显示设备104的实施例。传感器212A和212B是相对于显示设备204安装在不同位置的图1的一个或多个传感器112的实施例。例如,传感器212A、212B可以被安置成使得传感器212A的视场213A与传感器212B的视场213B重叠。视场213A、213B的重叠可用于更好地跟踪观察者202(A、B、C、D)的轨迹,并帮助确认哪些观察者202最有可能查看显示设备204。例如,观察者202A、202B两者可以是足够紧密地接近于显示设备204以看到任何显示内容,但是观察者202C、202D可能离显示设备204太远而不能读到显示内容。在图2的示例中,观察者202A、202B被观察为具有朝显示设备204移动的轨迹,并且可以在位置和轨迹两者上具有变化,而观察者202C、202D更远离显示设备204而移动。
在支持针对多个观察者202A、202B的失真校正的实施例中,单个显示可以与多个观察者共享,每个观察者具有由显示调整系统114个别失真校正的单独内容。在另一实施例中,显示调整系统114可以计算单个混合校正图像,以减少由观察者202A、202B共享的失真。例如,可以通过对观察者的位置求平均来应用平均或加权组合以用于失真校正。例如,当使用加权组合时,显示调整系统114可以将更大的校正权重给到物理上更紧密接近于显示设备204的观察者202B。例如,可以基于以下一项或多项来执行将失真校正从观察者202A转移到面对显示设备204的至少一个或多个附加观察者202B:检测观察者202A、202B的数量的改变,和/或检测相对于显示设备204的观察者接近度的改变。显示设备204可以输出信息通知,以指示观察者202A、202B中的哪一个当前正被跟踪以用于失真校正。
在一些实施例中,显示调整系统114可以与一个或多个观察者202A-D的移动设备203通过接口连接,以帮助确定位置和/或轨迹。例如,加载在移动设备203上的与显示调整系统114兼容的应用程序可以通过显示设备204(例如通过一个或多个移动设备203和显示调整系统114之间的Wi-Fi或蓝牙链路)来帮助观察者202A-D进行寻路。例如,由移动设备203捕获的位置和移动数据,例如通过加速度计、全球定位系统数据和/或结合在移动设备203中的其他传感器,可以用于向显示调整系统114通知观察者202A-D的轨迹。观察者202A-D不需要主动查看针对显示内容的移动设备203;而是,显示内容可以在显示设备204上被输出,例如,以帮助通过走廊220的注意提醒导航,其中在显示设备204上提供进一步的指令/方向作为对于观察者202A、202B要采取的下一个转向或一组转向。由移动设备203提供的位置和/或移动数据可帮助显示调整系统114在观察者202A-D进入视场213A、213B之一或两者之前预测观察者202A-D的靠近。
图3和图4示出了观察者202相对于显示设备204建立第一观察角度(θ)和第二观察角度(ϕ)的示例。在使用深度传感器的实施例中,使用基于传感器的坐标系(u,v,d)可以初始计算对象位置,其中(u,v)是根据传感器的水平和垂直位置,并且d是距传感器的距离。基于更有用的参考系,(u,v,d)坐标可转换成“世界坐标”。例如,可以相对于显示设备204定义参考系。因此,世界坐标系可以包括作为显示设备204上的水平和垂直位置的(x,y)坐标,并且作为面对远离显示设备204的方向的z。原点位于显示设备204的中心。
能够看到显示设备204前的任何观察者202位于z>0的位置。此外,如果z>0且x=0且y=0,则观察者202在显示设备204的正前,并且不需要校正。在图3和4的示例中,z>0、x<0(显示设备204的左侧)和y<0(相比显示设备204的顶部位于更靠近显示设备204的底部)。
因此,用于计算失真校正的方法的示例如下。存在有感兴趣的两个主要角度:第一观察角度θ,其是相对于显示设备204的(x,y)方位的旋转角度,以及第二观察角度ϕ,其是对于显示设备204的表面的斜度。注意,在图3的示例中,θ仅取决于(x,y)坐标,而不取决于z。θ的计算可如下:
对于y<0,θ=tan-1(x/y)
对于y<0,θ=tan-1(x/y)+180°
对于y=0、x= 0,θ=0
对于y=0、x<0,θ= 90°
对于y=0、x>0,θ= -90°
如图4的示例中所描绘,对于θ的计算可以如下:
θ= tan-1(sqrt(x2 + y2)/z)
再一次对于z > 0,当θ=0时,观察者202在显示设备204的正前;当θ靠近于90°时,角度相当倾斜。
给定θ和ϕ,视觉内容可以被扭曲以校正观察者202的视角,使得显示内容对观察者202显示成未扭曲。考虑显示内容的位置在(x,y)坐标中表示。例如,字母“E”可以包括图5中具有(x,y)坐标的4个线段。将由(x,y)定义的内容转换成屏幕坐标(p,q),示例转换如下:
p = sqrt((x cos(φ))2 + y2) cos(θ+ tan-1(x / (y/cos(φ))))
q = sqrt((x cos(φ))2 + y2) sin(θ+ tan-1(x / (y/cos(φ))))。
图5示出了使用坐标(-1,-1)和(1,1)之间缩放的坐标系的用于显示内容250的显示坐标的示例。图6示出了显示内容252的未校正视图的示例,因为显示内容252对观察者202而言可能显示成不存在以θ=-65°和φ=70°查看的校正。图7示出了例如使用先前描述的示例变换的针对显示内容254的校正视图的显示坐标的示例。图8示出了显示内容256的校正视图的示例,其旋转并重新缩放字母“E”以匹配显示设备204的观察者202的视角。
图9-11描绘了基于角度差而由图1和2的显示调整系统114所应用的失真校正的变化。例如,如果图1的观察者102和图1的显示设备104之间的角度差是22度,则与如图9-11中描绘的75度或115度的角度差相比,角度旋转和重新缩放的不同量被应用作为针对第一校正观察304的显示内容302的失真校正。针对在75度的第二校正观察404的显示内容402的失真校正可以相对于针对第一校正观察304的显示内容302顺时针旋转并稍微拉伸(重新缩放)。针对在115度的第三校正观察504的显示内容502的失真校正可以相对于针对第二校正观察404的显示内容402进一步顺时针旋转和拉伸。
图12是包括朝可能未来位置的投影的图形描绘的显示内容600的示例,所述投影可以是从观察者(诸如,图1的观察者102)的当前轨迹的方向的改变。一些实施例(诸如,图13的示例),图1和2的显示调整系统114输出显示内容700,所述显示内容700包括观察者102的跟踪的当前方向和跟踪的当前方向的改变两者的图形描绘,作为朝可能未来位置的投影。因此,图12和13的两个示例都包括指示朝可能未来位置的投影(例如,当在图1的定位106和期望终点定位108之间导航时)的箭头,包括观察者102的当前轨迹结合朝可能未来位置的投影,意指从当前轨迹到继续朝期望终点(诸如,图1的期望终点定位108)移动所需的转向和近似转向角。显示内容600、700由图1和2的显示调整系统114所调整,以匹配观察者102的位置和轨迹,以用于如前所述那样在显示设备104、134上输出。
现在在继续参考图1-13的情况下参考图14,图14描绘了根据本公开的实施例的对显示内容的基于位置的调整的方法800的流程图。方法800可以例如由图1和2的显示调整系统114来执行。
在框802,显示调整系统114可以确定观察者102相对于显示设备104的位置。确定观察者102相对于显示设备104的位置可以包括确定观察者102和显示设备104的显示表面之间的角度差。
在框804,显示调整系统114可以确定观察者102相对于显示设备104的移动的轨迹130。确定观察者102相对于显示设备104的移动的轨迹130可以包括跟踪观察者102的移动,诸如通过观察者102的最近位置的时间序列,并投影观察者102的可能未来位置,诸如导航到期望终点定位108所需的任何转向。观察者102的期望终点定位108可以是已知的,例如,基于时间表信息、资源可用性(例如,预定到达升降机门厅120的下一个升降机车厢)、从观察者102接收的先前请求、来自目的地入口调度系统的升降机分配,和/或通过与另一应用(诸如,移动设备203的寻路应用)交换的导航数据。
在框806,显示调整系统114可以基于观察者102相对于显示设备104的位置以及(可选地)轨迹130来确定要应用于多个显示内容的失真校正,以校正相对于观察者102的显示内容,例如,如图5-11的示例中所描绘那样。可能未来位置可以基于观察者102的一个或多个路径移动约束(例如,对象128A、128B)来确定。显示内容可以包括例如观察者102的跟踪的当前方向和跟踪的当前方向的改变的图形描绘,作为朝可能未来位置的投影,诸如图13的示例。
在框808,显示调整系统114可以向显示设备104输出显示内容的失真校正。失真校正可以至少包括对显示内容执行的旋转和重新缩放操作,例如,如图5-11中所描绘那样。当观察者102继续相对于显示设备104改变位置时,可以调整失真校正。
在一些实施例中,当观察者102从接近于显示设备104的定位106转移到接近于一个或多个其他显示设备134的另一定位时,显示调整系统114可以跟踪观察者102的移动。可以在为观察者102定制的一个或多个其他显示设备134上向观察者102显示一组内容,诸如在走廊220中要采取的下一个转向。基于以下一项或多项可以跟踪观察者102的移动:观察者102的至少一个特征、和来自观察者102的移动设备203的信号。面对显示设备204的一个或多个附加观察者202A、202B可以由显示调整系统114(例如使用传感器212A、212B和/或来自一个或多个移动设备203的数据)来标识。失真校正可以由显示调整系统114来调整,以在校正显示设备204上的显示内容时混合一个或多个附加观察者202B和观察者202A的位置和轨迹。
尽管以上描述已经以具体顺序描述了图14的流程,但是应当理解,除非在所附权利要求中另外特别要求,否则步骤的顺序可以改变。
如上所述,实施例可以采用处理器实现的过程和用于实践这些过程的设备(诸如,处理器)的形式。实施例也可以采用计算机程序代码的形式,所述计算机程序代码包含在有形介质中实施的指令,所述有形介质诸如网络云存储、SD卡、闪存驱动器、软盘、CD ROM、硬盘驱动器或任何其他计算机可读存储介质,其中,当计算机程序代码被加载到计算机中并由计算机执行时,计算机变成用于实践实施例的设备。实施例也可以采用计算机程序代码的形式,例如,无论是存储在存储介质中,加载到计算机中和/或由计算机执行,还是通过某种传输介质被传送,加载到计算机中和/或由计算机执行,或者通过某种传输介质(诸如通过电线或缆线、通过光纤或经由电磁辐射)被传送,其中,当计算机程序代码被加载到计算机中并由计算机执行时,计算机变成用于实践实施例的设备。当在通用微处理器上实现时,计算机程序代码段配置微处理器以创建特定的逻辑电路。
术语“大约”旨在包括与基于在提交申请的时间可用的装置的具体量的测量相关联的误差程度。例如,“大约”可以包括给定值的+8%、或5%、或2%的范围。
本文中使用的术语仅用于描述具体实施例的目的,并不旨在限制本公开。如本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文另外明确指示。还应当理解,当在本说明书中使用时,术语“包括”和/或“包含”指定所述特征、整体、步骤、操作、元件和/或组件的存在,但是不排除一个或多个其他特征、整体、步骤、操作、元件组件和/或其群组的存在或附加。
尽管已经参考一个或多个示例性实施例描述了本公开,本领域技术人员将理解,在不脱离本公开的范围的情况下,可以做出各种改变,并且可以用等同物来替代其元件。此外,在不脱离本公开的本质范围的情况下,可以进行许多修改以使具体情况或材料适应本公开的教导。因此,所旨在的是,本公开并不局限于作为用于实现本公开的最佳模式所公开的具体实施例,而是本公开将包括落入权利要求范围内的所有实施例。
Claims (20)
1.一种对显示内容的基于位置的调整的方法,所述方法包括:
确定观察者相对于显示设备的位置;
基于所述观察者相对于所述显示设备的所述位置来确定要应用于多个显示内容的失真校正,以校正相对于所述观察者的所述显示内容;以及
向所述显示设备输出所述显示内容的所述失真校正。
2.根据权利要求1所述的方法,其中确定所述观察者相对于所述显示设备的所述位置包括确定所述观察者和所述显示设备之间的一个或多个角度差。
3. 根据权利要求1所述的方法,进一步包括:
通过跟踪所述观察者的移动并投影所述观察者的可能未来位置来确定所述观察者相对于所述显示设备的移动的轨迹;以及
基于所述轨迹来确定要应用于所述显示内容的所述失真校正。
4.根据权利要求3所述的方法,其中所述显示内容包括所述观察者的跟踪的当前方向和所述跟踪的当前方向的改变的图形描绘,作为朝所述观察者的所述可能未来位置的投影。
5.根据权利要求1所述的方法,进一步包括:
当所述观察者相对于所述显示设备继续改变位置时调整所述失真校正,其中所述失真校正至少包括对所述显示内容执行的旋转和重新缩放操作。
6. 根据权利要求1所述的方法,进一步包括:
当所述观察者从接近于所述显示设备的定位转移到接近于一个或多个其他显示设备的另一定位时,跟踪所述观察者的移动;以及
在为所述观察者定制的所述一个或多个其他显示设备上向所述观察者显示一组内容。
7.根据权利要求6所述的方法,其中基于以下一项或多项来跟踪所述观察者的移动:所述观察者的至少一个特征和/或来自所述观察者的移动设备的信号。
8. 根据权利要求1所述的方法,进一步包括:
标识面对所述显示设备的一个或多个附加观察者;以及
调整所述失真校正以在校正所述显示内容中混合所述一个或多个附加观察者和所述观察者的所述位置。
9.根据权利要求8所述的方法,进一步包括:
基于以下一项或多项将所述失真校正从所述观察者转移到面对所述显示设备的所述一个或多个附加观察者中的至少一个:检测观察者的数量的改变和/或检测相对于所述显示设备的观察者接近度的改变。
10.根据权利要求1所述的方法,进一步包括:
标识面对所述显示设备的一个或多个附加观察者;
将所述显示设备划分成多个显示段;以及
向所述显示段的每个提供具有个体化失真校正的独立内容。
11.一种系统,包括:
显示设备;
一个或多个传感器,所述一个或多个传感器可操作以检测观察者的位置;以及
显示调整系统,所述显示调整系统可操作地耦合到所述显示设备和所述一个或多个传感器,所述显示调整系统被配置成执行多个操作,所述操作包括:
基于所述一个或多个传感器来确定观察者相对于所述显示设备的位置;
基于所述观察者相对于所述显示设备的所述位置来确定要应用于多个显示内容的失真校正,以校正相对于所述观察者的所述显示内容;以及
向所述显示设备输出所述显示内容的所述失真校正。
12.根据权利要求11所述的系统,其中确定所述观察者相对于所述显示设备的所述位置包括确定所述观察者和所述显示设备之间的一个或多个角度差。
13. 根据权利要求11所述的系统,其中所述系统还被配置成执行包括以下步骤的操作:
通过跟踪所述观察者的移动并投影所述观察者的可能未来位置来确定所述观察者相对于所述显示设备的移动的轨迹;以及
基于所述轨迹来确定要应用于所述显示内容的所述失真校正。
14.如权利要求13所述的系统,其中所述显示内容包括所述观察者的跟踪的当前方向和所述跟踪的当前方向的改变的图形描绘,作为朝所述观察者的所述可能未来位置的投影。
15.根据权利要求11所述的系统,其中所述系统还被配置成执行包括以下步骤的操作:
当所述观察者相对于所述显示设备继续改变位置时调整所述失真校正,其中所述失真校正至少包括对所述显示内容执行的旋转和重新缩放操作。
16. 根据权利要求11所述的系统,其中所述系统还被配置成执行包括以下步骤的操作:
当所述观察者从接近于所述显示设备的定位转移到接近于一个或多个其他显示设备的另一定位时跟踪所述观察者的移动;以及
在为所述观察者定制的所述一个或多个其他显示设备上向所述观察者显示一组内容。
17.根据权利要求16所述的系统,其中基于以下一项或多项来跟踪所述观察者的移动:所述观察者的至少一个特征和/或来自所述观察者的移动设备的信号。
18. 根据权利要求11所述的系统,其中所述系统还被配置成执行包括以下步骤的操作:
标识面对所述显示设备的一个或多个附加观察者;以及
调整所述失真校正以在校正所述显示内容中混合所述一个或多个附加观察者和所述观察者的所述位置。
19.根据权利要求18所述的系统,其中所述系统还被配置成执行包括以下步骤的操作:
基于以下一项或多项将所述失真校正从所述观察者转移到面对所述显示设备的所述一个或多个附加观察者中的至少一个:检测观察者的数量的改变和/或检测相对于所述显示设备的观察者接近度的改变。
20.根据权利要求11所述的系统,其中所述系统还被配置成执行包括以下步骤的操作:
标识面对所述显示设备的一个或多个附加观察者;
将所述显示设备划分成多个显示段;以及
向所述显示段的每个提供具有个体化失真校正的独立内容。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/981,161 US10839523B2 (en) | 2018-05-16 | 2018-05-16 | Position-based adjustment to display content |
US15/981161 | 2018-05-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110502170A true CN110502170A (zh) | 2019-11-26 |
CN110502170B CN110502170B (zh) | 2023-06-16 |
Family
ID=68419365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910402813.6A Active CN110502170B (zh) | 2018-05-16 | 2019-05-15 | 对显示内容的基于位置的调整 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10839523B2 (zh) |
CN (1) | CN110502170B (zh) |
DE (1) | DE102019207032A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11249637B1 (en) | 2020-03-11 | 2022-02-15 | Meta Platforms, Inc. | User interface information enhancement based on user distance |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020149613A1 (en) * | 2001-03-05 | 2002-10-17 | Philips Electronics North America Corp. | Automatic positioning of display depending upon the viewer's location |
JP2008225364A (ja) * | 2007-03-15 | 2008-09-25 | Nippon Telegr & Teleph Corp <Ntt> | 情報提示装置及び情報提示方法 |
CN101473262A (zh) * | 2006-06-16 | 2009-07-01 | 皇家飞利浦电子股份有限公司 | 多视图显示设备 |
US20140092139A1 (en) * | 2012-10-02 | 2014-04-03 | At&T Intellectual Property I, L.P. | Adjusting content display orientation on a screen based on user orientation |
CN104247411A (zh) * | 2012-04-19 | 2014-12-24 | 汤姆逊许可公司 | 校正由立体显示的调节效应引起的失真误差的方法和装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5781505A (en) * | 1997-10-14 | 1998-07-14 | The United States Of America As Represented By The Secretary Of The Navy | System and method for locating a trajectory and a source of a projectile |
US20060007191A1 (en) | 2004-06-03 | 2006-01-12 | International Business Machines Corporation | System and method for adjusting a screen |
US20080049020A1 (en) | 2006-08-22 | 2008-02-28 | Carl Phillip Gusler | Display Optimization For Viewer Position |
US8115877B2 (en) | 2008-01-04 | 2012-02-14 | International Business Machines Corporation | System and method of adjusting viewing angle for display based on viewer positions and lighting conditions |
JP2010086336A (ja) | 2008-09-30 | 2010-04-15 | Fujitsu Ltd | 画像制御装置、画像制御プログラムおよび画像制御方法 |
JP5049300B2 (ja) * | 2009-01-20 | 2012-10-17 | クラリオン株式会社 | 障害物検出表示装置 |
TWI432347B (zh) | 2011-03-11 | 2014-04-01 | Wistron Corp | 可自動調整方位的支架裝置,及該支架裝置與電子裝置的組合 |
US9704220B1 (en) | 2012-02-29 | 2017-07-11 | Google Inc. | Systems, methods, and media for adjusting one or more images displayed to a viewer |
US8970455B2 (en) | 2012-06-28 | 2015-03-03 | Google Technology Holdings LLC | Systems and methods for processing content displayed on a flexible display |
TW201441918A (zh) | 2013-04-29 | 2014-11-01 | Hon Hai Prec Ind Co Ltd | 螢幕影像畫面調整系統及方法 |
JP6036601B2 (ja) * | 2013-08-09 | 2016-11-30 | 株式会社デンソー | 画像処理装置及び画像処理方法 |
CN105452991B (zh) | 2013-09-09 | 2019-05-17 | 英特尔公司 | 基于用户位置的在显示器上再现的显示的定向 |
EP3177200A4 (en) * | 2014-08-04 | 2018-06-13 | New York University | Methods and kits for diagnosing, assessing or quantitating drug use, drug abuse and narcosis, internuclear ophthalmoplegia, attention deficit hyperactivity disorder (adhd), chronic traumatic encephalopathy, schizophrenia spectrum disorders and alcohol consumption |
US9535495B2 (en) | 2014-09-26 | 2017-01-03 | International Business Machines Corporation | Interacting with a display positioning system |
CN104391567B (zh) | 2014-09-30 | 2017-10-31 | 深圳市魔眼科技有限公司 | 一种基于人眼跟踪的三维全息虚拟物体显示控制方法 |
US10523929B2 (en) | 2016-04-27 | 2019-12-31 | Disney Enterprises, Inc. | Systems and methods for creating an immersive video content environment |
-
2018
- 2018-05-16 US US15/981,161 patent/US10839523B2/en active Active
-
2019
- 2019-05-15 CN CN201910402813.6A patent/CN110502170B/zh active Active
- 2019-05-15 DE DE102019207032.9A patent/DE102019207032A1/de active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020149613A1 (en) * | 2001-03-05 | 2002-10-17 | Philips Electronics North America Corp. | Automatic positioning of display depending upon the viewer's location |
CN101473262A (zh) * | 2006-06-16 | 2009-07-01 | 皇家飞利浦电子股份有限公司 | 多视图显示设备 |
JP2008225364A (ja) * | 2007-03-15 | 2008-09-25 | Nippon Telegr & Teleph Corp <Ntt> | 情報提示装置及び情報提示方法 |
CN104247411A (zh) * | 2012-04-19 | 2014-12-24 | 汤姆逊许可公司 | 校正由立体显示的调节效应引起的失真误差的方法和装置 |
US20140092139A1 (en) * | 2012-10-02 | 2014-04-03 | At&T Intellectual Property I, L.P. | Adjusting content display orientation on a screen based on user orientation |
Also Published As
Publication number | Publication date |
---|---|
CN110502170B (zh) | 2023-06-16 |
US20190355129A1 (en) | 2019-11-21 |
DE102019207032A1 (de) | 2019-11-21 |
US10839523B2 (en) | 2020-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10602115B2 (en) | Method and apparatus for generating projection image, method for mapping between image pixel and depth value | |
US9766067B2 (en) | Method of acquiring horizontal distance between camera and target, and camera and surveillance system adopting the method | |
US9161027B2 (en) | Method and apparatus for providing camera calibration | |
US20150116502A1 (en) | Apparatus and method for dynamically selecting multiple cameras to track target object | |
CN111899282B (zh) | 基于双目摄像机标定的行人轨迹跟踪方法及装置 | |
US11156843B2 (en) | End-to-end artificial reality calibration testing | |
US20160119607A1 (en) | Image processing system and image processing program | |
JP6280011B2 (ja) | 領域リクエストに基づいたデータ低減処理を行う画像送受信システム及び方法 | |
JP2012023501A (ja) | 撮像装置、撮影補助システム、撮影補助方法、画像データ解析方法およびプログラム | |
US20210217247A1 (en) | Body pose message system | |
JP2017169170A (ja) | 撮像装置、移動装置、撮像システム、撮像方法およびプログラム | |
JP2011242458A (ja) | 表示装置および表示方法 | |
US20180082119A1 (en) | System and method for remotely assisted user-orientation | |
JP2016092693A (ja) | 撮像装置、撮像装置の制御方法およびプログラム | |
KR20120108256A (ko) | 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법 | |
JP5574551B2 (ja) | 画像処理装置および画像処理方法 | |
CN110502170A (zh) | 对显示内容的基于位置的调整 | |
Kudinov et al. | Camera and auxiliary sensor calibration for a multispectral panoramic vision system with a distributed aperture | |
JP2010217984A (ja) | 像検出装置及び像検出方法 | |
JP2012080193A (ja) | 携帯端末、カメラの倍率調整方法およびプログラム | |
EP3667456A2 (en) | Priority-based adjustment to display content | |
KR20160023362A (ko) | 실시간 3차원 전술정보 표시 시스템 및 그 방법 | |
KR102298047B1 (ko) | 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치 | |
CN113114975B (zh) | 图像拼接方法、装置、电子设备和存储介质 | |
JP2005268972A (ja) | 映像表示システム、及び映像表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |