CN108900829B - 动态显示系统 - Google Patents

动态显示系统 Download PDF

Info

Publication number
CN108900829B
CN108900829B CN201810316674.0A CN201810316674A CN108900829B CN 108900829 B CN108900829 B CN 108900829B CN 201810316674 A CN201810316674 A CN 201810316674A CN 108900829 B CN108900829 B CN 108900829B
Authority
CN
China
Prior art keywords
display screen
user
image
dimensional coordinate
display system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810316674.0A
Other languages
English (en)
Other versions
CN108900829A (zh
Inventor
李季峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
eYs3D Microelectronics Co
Original Assignee
eYs3D Microelectronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by eYs3D Microelectronics Co filed Critical eYs3D Microelectronics Co
Publication of CN108900829A publication Critical patent/CN108900829A/zh
Application granted granted Critical
Publication of CN108900829B publication Critical patent/CN108900829B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Measurement Of Optical Distance (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种动态显示系统。动态显示系统包括显示屏幕、侦测装置及处理器。侦测装置侦测用户的位置相对于侦测装置的第一三维坐标信息。处理器耦接于显示屏幕及侦测装置。处理器将第一三维坐标信息转换为用户的位置相对于显示屏幕的第二三维坐标信息,并根据第二三维坐标信息产生显示屏幕所呈现的影像。

Description

动态显示系统
技术领域
本发明是有关于一种动态显示系统,特别是一种能够根据用户所在位置而产生对应影像的动态显示系统。
背景技术
在现有技术中,用户在观看影像时,大多会处于较为静态的环境当中,例如在家中的客厅观看电视,或是在电影院里观看投影幕。在相对静态的环境当中,由于用户的座位大致上为固定,因此用户与显示屏幕之间的距离大致上也是固定的。在此情况下,电视或电影投影机呈现影像的条件较为单纯,而可以根据默认的观看位置来产生合适的影像内容。
然而随着移动电子装置的功能日益强大,用户在移动电子装置上观看影像的频率越来越高。由于用户观看显示屏幕的习惯各异,与显示屏幕之间的距离也可能不同。此外,由于用户在观看影像的过程中,也可能移动位置,因此倘若欲在移动电子装置上显示出具有三维效果的二维影像或三维影像,就可能因为无法实时对应到用户的位置,而导致影像质量不佳的问题。
发明内容
本发明的一实施例提供一种动态显示系统,动态显示系统包括显示屏幕、侦测装置及处理器。
侦测装置与显示屏幕设置于动态显示系统的壳体的同一侧,并可侦测用户的位置相对于侦测装置的第一三维坐标信息。处理器耦接于显示屏幕及侦测装置。处理器将第一三维坐标信息转换为第一用户的位置相对于显示屏幕的第二三维坐标信息,并根据第二三维坐标信息产生显示屏幕所呈现的第一影像。
本发明的另一实施例提供一种动态显示系统,动态显示系统包括显示屏幕、侦测装置及处理器。
侦测装置与显示屏幕设置于动态显示系统的壳体的同一侧,并可侦测出用户的位置。处理器耦接于显示屏幕及侦测装置。当侦测装置侦测到用户的位置远离显示屏幕时,处理器放大显示屏幕中的内容。
附图说明
图1是本发明一实施例的动态显示系统的示意图。
图2是图1的动态显示系统的使用情境图。
图3是图1的动态显示系统的使用情境图。
图4是图1的动态显示系统的使用情境图。
图5是本发明还一实施例的动态显示系统的示意图。
图6是本发明还一实施例的动态显示系统的示意图。
图7是图1的动态显示系统的操作方法的流程图。
图8是图5的动态显示系统的操作方法的流程图。
图9是图6的动态显示系统的操作方法的流程图。
其中,附图标记说明如下:
100、200、300 动态显示系统
110、210、310 显示屏幕
120、220、320 侦测装置
130、230、330 处理器
Dx 水平距离
Dy 垂直距离
U1 用户
110C 显示中心
100A、200A 壳体
IMG0 完整影像
IMG1、IMG1’ 部分影像
O 物体
O1 正面
O2 侧面
240 深度捕捉模块
R1、R2 右眼影像
L1、L2 左眼影像
400、500、600 方法
S410至S430、S510至S520、S610 步骤
至S660
具体实施方式
图1是本发明一实施例的动态显示系统100的示意图,动态显示系统100可例如但不限于移动电子装置,如手机及平板显示器,或智能电视。动态显示系统100包括显示屏幕110、侦测装置120及处理器130,处理器130耦接于显示屏幕110及侦测装置120。
在图1的实施例中,侦测装置120与显示屏幕110可同样设置于动态显示系统100的壳体100A的同一侧,以便侦测装置120能够侦测用户在观看显示屏幕110时的位置,而处理器130则可根据用户的位置来产生对应的影像。
举例来说,侦测装置120可辨识出用户U1的特定部位,并根据用户U1的特定部位侦测出用户U1相对于侦测装置120的三维坐标信息。在本发明的部分实施例中,动态系统100可将用户U1的双眼间的中点设定为所欲辨识的特定部位,在此情况下,用户U1相对于侦测装置120的三维坐标信息即会包括用户U1的双眼中点的三维坐标(EAX120,EAY120,EAZ120)。在本发明的部分实施例中,侦测装置120可包括深度捕获设备及影像捕获设备,因此侦测装置120可根据眼部的形状及颜色等特征辨识出用户U1的双眼位置,而其中的深度捕获设备则可利用双眼视觉深度感测、结构光深度感测、飞时测距(Time of Flight,ToF)深度感测或测距雷达等方式,侦测出用户U1的眼部相对于侦测装置120之间的距离。在本发明的部分实施例中,侦测装置120也可能仅包括深度捕获设备,并透过深度捕获设备进行物体辨识以及深度侦测。
然而,本发明并不限定侦测装置120需辨识用户U1的眼部,在本发明的其他实施例中,侦测装置120也可辨识出用户U1的头部或其他部位,并可侦测用户U1的头部或其他部位相对于侦测装置120的三维坐标坐标。此外,在本发明的部分实施例中,侦测装置120也可根据用户U1的特定部位的大小变化,例如头部或眼部的大小变化,来估测用户U1的位置变化,并产生对应的三维坐标信息。
一般而言,侦测装置120与显示屏幕110的设置位置并不相同,而用户U1实际上所观察的对象应为显示屏幕110,因此为了能够得知用户U1观察显示屏幕110的情况,动态显示系统100会透过处理器130将侦测装置120所侦测到用户U1相对于侦测装置120的位置,转换为用户U1相对于显示屏幕110的位置。在本发明的部分实施例中,为方便处理器130能够计算产生用户U1相对于显示屏幕110的位置,处理器130可在显示屏幕110上设定显示屏幕110的参考点以代表显示屏幕110的位置,处理器130可例如但不限于将显示屏幕110上的显示中心110C设定为参考点。在其他实施例中,处理器130也可将显示屏幕110的任何位置设定为参考点,为了方便说明以下皆以显示中心110C来举例。
由于侦测装置120与显示屏幕110会设置在壳体100A上的固定位置,因此两者的相对位置亦为固定,例如在图1中,侦测装置120与显示屏幕110的显示中心110C的水平距离Dx及垂直距离Dy可为固定。在此情况下,只要能够取得水平距离Dx及垂直距离Dy的值,处理器130就可经由坐标变换的运算将用户U1的位置相对于侦测装置120的三维坐标信息转换为用户U1的位置相对于显示屏幕110的显示中心110C的三维坐标信息。也就是说,处理器130可将以侦测装置120为参考点的三维坐标(EAX120,EAY120,EAZ120)转换为以显示中心110C为参考点的三维坐标(EAX110,EAY110,EAZ110)。在其他实施例中,处理器130也可将显示屏幕110的任何位置设定为参考点,为了方便说明以下皆以显示中心110C来举例。
在本发明的部分实施例中,由于侦测装置120与显示屏幕110在壳体100A上的位置是在制造前的设计时间便已经先行决定,因此两者的相对空间参数可以事先储存在处理器130中。虽然在实际制造动态显示系统100时,侦测装置120与显示屏幕110在壳体100A的位置可能会有些许误差,但是在误差不大的情况下,事先储存的参数仍可满足应用上的需求。然而在对于误差要求较为严格的应用中,也可对动态显示系统100进行校正以取得较为精确的数值。
取得用户U1相对于显示屏幕110的三维坐标信息,例如用户U1双眼中点的三维坐标(EAX110,EAY110,EAZ110)之后,处理器130便可据以产生显示屏幕110所呈现的影像。举例来说,处理器130可根据用户U1相对于显示屏幕110的三维坐标信息判断用户U1观察显示屏幕110的视野以及用户U1相对于显示屏幕110的距离,并具根据其视野及距离来决定呈现影像的比例大小。图2是本发明一实施例的动态显示系统100的使用情境图。在图2中,动态显示系统100主要是在呈现完整影像IMG0中的内容,且动态显示系统100可以根据处理器130所判断的用户U1的视野及显示影像的比例大小取出完整影像IMG0中的部分影像,并产生最终显示屏幕110所呈现的影像。
举例来说,当用户U1的双眼中点在位置A时,处理器130可根据其所在的位置A判断用户U1观看显示屏幕110的视野及用户U1相对于显示屏幕110的距离,并据以求得显示屏幕110显示影像时的比例大小,接着即可根据其所判断出的视野及比例大小自完整影像IMG0中取出部分影像IMG1以供显示屏幕110显示。同理,当用户U1的双眼中点在位置B时,处理器130则可根据其所在的位置B判断用户U1观看显示屏幕110的视野及距离以求得显示影像的比例大小,并根据其所决定的视野及比例大小自完整影像IMG0中取出部分影像IMG1’以供显示屏幕110显示。
在图2的实施例中,完整影像IMG0可例如是平面影像,然而在本发明的其他实施例中,完整影像IMG0也可以是360度全景影像。由于动态显示系统100可以根据用户的位置来产生对应的影像,因此能够提供用户更直觉的显示效果。
此外,在本发明的部分实施例中,当动态显示系统100透过显示屏幕110呈现选单图示时,处理器130也可根据用户U1的位置来显示选单图标,例如当用户U1改变观看位置时,选单图标也会跟着位移,如此一来,就能够产生立体的效果。倘若动态显示系统100所呈现选单图标是具有深度信息的三维图像时,处理器130也可根据用户U1的位置来显示选单图标,使得立体的效果更加明显。举例来说,当用户U1以正面观看选单图示时,处理器130可以产生选单图标的正面图案,而当用户U1在侧边观看选单图示时,处理器130则可以产生选单图示的侧边边框。如此一来,在用户U1变换观看位置时,便可感受到选单图示的厚度,而产生立体浮出的视觉效果。
动态显示系统100除了能够根据观看位置改变影像的内容以外,在本发明的部分实施例中,当侦测装置120侦测到用户U1逐渐远离显示中心110C时,处理器130还可放大显示屏幕110中所呈现的至少部分内容。
举例来说,当显示屏幕110所呈现内容包括图像时,倘若用户U1逐渐远离显示屏幕110,则处理器130可以将整张图像放大,或是选择将图像的局部内容放大,例如图像中实际上挟带信息的重点部分。也就是说,用户U1即使距离显示屏幕110较远,仍然可以清楚看见影像的内容,这项功能特别能够辅助具有老花眼的长者。
此外,当显示屏幕110所呈现的内容包括文字时,处理器130则可以将文字放大,以便用户U1可以在较远的距离看见文字内容。然而本发明并不限定处理器130是以何种方式来放大显示屏幕110呈现的内容,例如处理器130在放大文字时,除了可以将文字内容以图像的方式直接放大以外,也可能是透过改变字号的方式来实行,而皆属于本发明的范畴。在本发明的部分实施例中,当处理器130放大文字内容时,也可能同时减少原先所能呈现的文字的数量,以配合显示屏幕110的大小。
在本发明的部分实施例中,侦测装置120可根据侦测到用户U1的深度变化来判断用户U1是否远离显示屏幕110,然而本发明并不以此为限。在本发明的部分实施例中,侦测装置120也可在未产生深度信息的情况下,根据侦测到用户U1的特定部位的影像大小变化来判断用户U1的距离远近,并据以缩放显示屏幕110中所呈现的内容。
此外,由于侦测装置120可以产生物体的深度信息,因此在本发明的部分实施例中,也可利用侦测装置120来辨识特定的立体识别对象,例如用户所特有的饰品或是具有特殊结构的对象,而当侦测装置120辨识出立体识别对象时,处理器130就可对应地解锁动态显示系统100。如此一来,就可以进一步简化动态显示系统100的解锁程序。
在本发明的部分实施例中,显示屏幕110是二维影像的显示器,也就是说,显示屏幕110并未针对用户的左右眼分别投射不同的影像。在此情况下,侦测装置120实际上所取得的位置可对应于用户U1的两眼中点。然而在本发明的其他实施例中,显示屏幕110亦可能支持三维影像,此时处理器130则会针对用户的左右眼产生不同的影像。在此情况下,侦测装置120所取得的三维坐标信息即可包括用户U1的左眼的三维坐标及用户U1的右眼的三维坐标,而处理器130可进一步将左眼相对于侦测装置120的三维坐标转换为左眼相对于显示屏幕110的三维坐标,并将右眼相对于侦测装置120的三维坐标转换为右眼相对于显示屏幕110的三维坐标。
在取得用户U1的左右眼相对于显示屏幕110的三维坐标后,处理器130便可得知用户U1的双眼是从空间中的什么位置观看显示屏幕110,因此可据以产生显示屏幕110所呈现的影像,此时显示屏幕110所呈现的影像即包括左眼影像及右眼影像。
如此一来,当处理器130透过显示屏幕110显示三维影像中的物体时,用户U1便会根据自身所在的位置观看到物体的不同面向,制造出类似于全像投影(holographic)的视觉效果。图3是本发明一实施例的动态显示系统100的使用情境图。在图3中,当用户U1是在位置A以正面观察显示屏幕110时,处理器130将产生物体O正面O1的立体影像,而当用户U1是在位置B以侧面观察显示屏幕110时,处理器130将产生较多物体O侧面O2与较少O1的立体影像。
在图3的实施例中,处理器130主要是根据用户U1的位置来判断观察角度,进而产生对应的影像,亦即物体O像是存在于由动态显示系统100所建立的相对空间,因此动态显示系统100本身的位置及方向变换并不会影像到处理器130所产生的影像内容。也就是说,处理器130仅会因为动态显示系统100本身的变动所造成用户U1与显示屏幕110的相对位置变化来对应改变影像的内容。然而在本发明的其他实施例中,倘若动态显示系统100还包括了惯性传感器,例如陀螺仪,则动态显示系统100也可以根据惯性传感器所侦测到的自身角度变化来产生对应于物体不同面向的影像。
图4是本发明一实施例的动态显示系统100的使用情境图。在图4中,用户U1的位置并未改变,然而随着动态显示系统100的角度及位置变化,动态显示系统100仍会持续让物体O呈现在相同的位置。也就是说,物体O像是存在于绝对的空间中,不会因为动态显示系统100的位置方向改变而随着改变。
图5是本发明还一实施例的动态显示系统200的示意图。动态显示系统200包括显示屏幕210、侦测装置220、处理器230,并且可与动态显示系统100根据相同的原理操作。此外,动态显示系统200还可包括深度捕捉模块240。深度捕捉模块240与显示屏幕210设置于壳体200A的相对两侧,因此深度捕捉模块240可以侦测显示屏幕210背后的环境深度信息。在此情况下,处理器230便可根据深度捕捉模块240所取得的环境深度信息产生扩增实境(Augmented Reality,AR)内容并据以产生显示屏幕210所应呈现的影像。也就是说,动态显示系统200可以根据深度捕捉模块240所取得的环境深度信息建立与真实环境相关的虚拟立体世界场景,且由于动态显示系统200所建立的虚拟立体世界场景会与深度捕捉模块240所取得的环境深度信息相关,因此可以避免用户在执行应用时,引导用户穿越墙壁或进入危险区域。
图6是本发明还一实施例的动态显示系统300的示意图。动态显示系统300与动态显示系统100具有相似的结构及操作原理,然而在动态显示系统300中,显示屏幕310是多视角立体显示屏幕,在此情况下,当有多个用户同时观看显示屏幕310时,动态显示系统300就可以根据每个用户所在的位置,提供对应视角及视野的画面。
举例来说,在图6中,侦测装置320会侦测用户U1及U2的位置相对于侦测装置320的三维坐标信息,而处理器330则会将用户U1及U2的位置相对于侦测装置320的三维坐标信息转换为其相对于显示屏幕310的三维坐标信息,在此实施例中,处理器330可将显示屏幕310的显示中心310C做为参考点。此外,在此实施例中,侦测装置320所取得的三维坐标信息会包括用户U1的左眼三维坐标及右眼三维坐标,以及用户U2的左眼三维坐标及右眼三维坐标。如此一来,处理器330便可根据用户U1的双眼位置来投射对应的右眼影像R1及左眼影像L1,并根据用户U2的双眼位置来投射对应的右眼影像R2及左眼影像L2,提升动态显示系统300所能呈现的视觉效果。
在本发明的部分实施例中,用户在观看多视角立体显示屏幕时,可能会是以裸视的方式观看,也可能会根据系统的需求,戴上与屏幕相配合的眼镜来观看。此外,在本发明的部分实施例中,显示屏幕310可同时提供多种视角的影像给多个用户观看,也可选择性地仅提供单一视角的影像供单一用户观看。
图7是本发明一实施例的操作动态显示系统100的方法400的流程图。方法400包括步骤S410至S430。
S410:侦测装置120侦测用户U1的位置相对于侦测装置120的第一三维坐标信息;
S420:处理器130将第一三维坐标信息转换为用户U1的位置相对于显示屏幕110的第二三维坐标信息;
S430:处理器130根据第二三维坐标信息产生显示屏幕110所呈现的影像。
在本发明的部分实施例中,侦测装置120可辨识出用户U1的特定部位,并根据用户U1的特定部位侦测出用户U1相对于侦测装置120的三维坐标信息。也就是说,在步骤S410中,侦测装置120所取得的第一三维坐标信息可包括用户U1的特定部位的三维坐标。举例来说,用户U1的特定部位可例如是用户U1的眼部、双眼间的中点或的头部。
在侦测装置120取得用户U1相对于侦测装置120的三维坐标信息后,处理器130可以进一步将的转换为其相对于显示屏幕110的三维坐标信息,并据以产生对应的显示影像。举例来说,处理器130可以根据用户U1相对于显示屏幕110的三维坐标信息判断的用户U1的视野及距离,并进一步判断出显示影像的比例大小。如此一来,处理器130便可在步骤S430中,根据其所判断出的视野或比例大小取出完整影像中的部分影像以产生显示屏幕110所呈现的影像,例如图2所示。
此外,在本发明的部分实施例中,方法400还可包括当侦测装置120侦测到用户U1远离显示屏幕110时,处理器130放大影像中的内容,使得用户U1即使距离显示屏幕110较远,仍然可以清楚看见影像的内容,这项功能特别能够辅助具有老花眼的长者。在本发明的部分实施例中,侦测装置120可根据侦测到用户U1的深度变化来判断用户U1是否远离显示屏幕110,然而本发明并不以此为限。在本发明的部分实施例中,侦测装置120也可在未产生深度信息的情况下,根据侦测到用户U1的特定部位的影像大小来判断用户U1的距离远近,并据以缩放显示屏幕110中所呈现的内容。
再者,在本发明的部分实施例中,显示屏幕110可支持显示三维立体影像,也就是说,显示屏幕110可同时产生左眼影像及右眼影像以提供用户立体的视觉效果。在此情况下,侦测装置120所取得的三维坐标信息可包括用户U1的左眼三维坐标及右眼三维坐标,而处理器130则会根据用户U1双眼对应于显示屏幕110的三维坐标来产生显示屏幕110所应呈现的影像,此影像即包括左眼影像及右眼影像,图3所示。
图8是本发明一实施例的操作动态显示系统200的方法500的流程图。方法500包括步骤S510至S520。
S510:深度捕捉模块240侦测显示屏幕210背后的环境深度信息;
S520:处理器230根据环境深度信息产生扩增实境内容以产生影像。
在此实施例中,动态显示系统200可以根据深度捕捉模块240所取得的环境深度信息建立与真实环境相关的虚拟立体世界场景,且由于动态显示系统200所建立的虚拟立体世界场景会与深度捕捉模块240所取得的环境深度信息相关,因此可以避免用户在执行应用时,引导用户穿越墙壁或进入危险区域。此外,在本发明的部分实施例中,方法400亦可应用于动态显示系统200。
图9是本发明一实施例的操作动态显示系统300的方法600的流程图。方法600包括步骤S610至S660。
S610:侦测装置320侦测用户U1的位置相对于侦测装置320的第一三维坐标信息;
S620:处理器330将第一三维坐标信息转换为用户U1的位置相对于显示屏幕310的显示中心310C的第二三维坐标信息;
S630:处理器330根据第二三维坐标信息产生显示屏幕310所呈现的第一影像;
S640:侦测装置320侦测用户U2的位置相对于侦测装置320的第三三维坐标信息;
S650:处理器330将第三三维坐标信息转换为用户U2的位置相对于显示中心310C的第四三维坐标信息;
S660:处理器330根据第四三维坐标信息产生显示屏幕310所呈现的第二影像。
在此实施例中,显示屏幕310可为多视角立体显示屏幕,因此透过方法600,动态显示系统300就可以在有多个用户同时观看显示屏幕310时,根据每个用户所在的位置,提供对应视角及视野的画面。
综上所述,本发明的实施例所提供的动态显示系统及操作动态显示系统的方法可以在用户观看影像的过程中,取得用户相对于显示屏幕的位置及距离,并据以提供对应的二维影像或三维影像,进而提供更为丰富的视觉效果。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (11)

1.一种动态显示系统,其特征在于,包括:
显示屏幕;
侦测装置,与所述显示屏幕设置于所述动态显示系统的壳体的同一侧,且所述侦测装置与所述显示屏幕设置在一相同平面上的不同位置,其中所述侦测装置是用以侦测第一用户的位置相对于所述侦测装置的第一三维坐标信息;及
处理器,耦接于所述显示屏幕及所述侦测装置,用以根据所述侦测装置的位置和所述显示屏幕上的预定位置之间的差异,在所述相同平面上补偿所述第一三维坐标以将所述第一三维坐标信息转换为所述第一用户的所述位置相对于所述显示屏幕的预定位置的第二三维坐标信息,及根据所述第二三维坐标信息产生所述显示屏幕所呈现的第一影像。
2.如权利要求1所述的动态显示系统,其特征在于所述侦测装置包括深度捕获设备,或包括深度捕获设备及影像捕获设备。
3.如权利要求1所述的动态显示系统,其特征在于所述侦测装置是根据所述第一用户的特定部位以侦测出所述第一用户的所述位置,及所述第一三维坐标信息包括所述第一用户的所述特定部位的三维坐标。
4.如权利要求3所述的动态显示系统,其特征在于所述特定部位是所述第一用户的眼部、双眼间的中点或头部。
5.如权利要求1所述的动态显示系统,其特征在于所述处理器是根据所述第二三维坐标信息判断所述第一用户观察所述显示屏幕的视野及相对于所述显示屏幕的距离,根据所述视野及所述距离决定呈现所述第一影像的比例大小,及根据所述视野及所述比例大小取出完整影像中的部分影像以产生所述第一影像。
6.如权利要求5所述的动态显示系统,其特征在于所述完整影像是平面影像或360度全景影像。
7.如权利要求1所述的动态显示系统,其特征在于当所述侦测装置侦测到所述第一用户远离所述显示屏幕时,所述处理器放大所述显示屏幕中所呈现的内容。
8.如权利要求1所述的动态显示系统,其特征在于:
所述第一三维坐标信息包括所述第一用户的左眼的三维坐标及所述第一用户的右眼的三维坐标;及
所述第一影像包括左眼影像及右眼影像。
9.如权利要求1所述的动态显示系统,其特征在于,还包括:
深度捕捉模块,与所述显示屏幕设置于所述壳体的相对两侧,用以侦测所述显示屏幕背后的环境深度信息;
所述处理器还用以根据所述环境深度信息产生扩增实境内容以产生所述第一影像。
10.如权利要求1所述的动态显示系统,其特征在于:
所述显示屏幕是多视角立体显示屏幕;
所述侦测装置还用以侦测第二用户的位置相对于所述侦测装置的第三三维坐标信息;及
所述处理器还用以将所述第三三维坐标信息转换为所述第二用户的所述位置相对于所述显示屏幕的第四三维坐标信息,及根据所述第四三维坐标产生所述显示屏幕所呈现的第二影像。
11.如权利要求1所述的动态显示系统,其特征在于:
当所述侦测装置辨识出立体识别对象时,所述处理器解锁所述动态显示系统。
CN201810316674.0A 2017-04-10 2018-04-10 动态显示系统 Active CN108900829B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762483472P 2017-04-10 2017-04-10
US62/483,472 2017-04-10

Publications (2)

Publication Number Publication Date
CN108900829A CN108900829A (zh) 2018-11-27
CN108900829B true CN108900829B (zh) 2022-02-22

Family

ID=63711363

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201810316674.0A Active CN108900829B (zh) 2017-04-10 2018-04-10 动态显示系统
CN201810317327.XA Active CN108765480B (zh) 2017-04-10 2018-04-10 深度处理设备

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201810317327.XA Active CN108765480B (zh) 2017-04-10 2018-04-10 深度处理设备

Country Status (3)

Country Link
US (2) US11050997B2 (zh)
CN (2) CN108900829B (zh)
TW (2) TWI657431B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102503976B1 (ko) * 2018-07-02 2023-02-28 한국전자통신연구원 증강현실 영상 보정 장치 및 방법
US10789912B2 (en) * 2018-12-20 2020-09-29 Intel Corporation Methods and apparatus to control rendering of different content for different view angles of a display
CN110822649B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN111311687B (zh) * 2020-01-21 2022-12-02 上海万物新生环保科技集团有限公司 一种手机屏幕像素点的空间位置检测方法及设备
TWI731715B (zh) * 2020-06-12 2021-06-21 宏碁股份有限公司 顯示器調整系統及顯示器調整方法
US11630639B2 (en) 2020-12-08 2023-04-18 Samsung Electronics Co., Ltd. Control method of electronic device using a plurality of sensors and electronic device thereof
CN114979613A (zh) * 2021-02-25 2022-08-30 吴松阳 立体图像显示方法及用于显示立体图像的携带式设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101751209A (zh) * 2008-11-28 2010-06-23 联想(北京)有限公司 一种调整屏幕呈现元素的方法及计算机
CN101866643A (zh) * 2009-01-27 2010-10-20 索尼爱立信移动通信日本株式会社 显示设备、显示控制方法和显示控制程序
CN101894538A (zh) * 2010-07-15 2010-11-24 优视科技有限公司 屏幕显示画面控制方法和装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8314832B2 (en) * 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
US8194101B1 (en) * 2009-04-01 2012-06-05 Microsoft Corporation Dynamic perspective video window
US9380292B2 (en) * 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
CN101720047B (zh) * 2009-11-03 2011-12-21 上海大学 基于颜色分割的多目摄像立体匹配获取深度图像的方法
US9411413B2 (en) * 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
TW201227602A (en) * 2010-12-22 2012-07-01 Service & Quality Technology Co Ltd Method and computer-readable medium for calculating depth of image
CN102595151A (zh) * 2011-01-11 2012-07-18 倚强科技股份有限公司 影像深度计算方法
CN102075776B (zh) * 2011-01-18 2014-03-26 青岛海信电器股份有限公司 一种立体显示的控制方法及装置
US20120246223A1 (en) * 2011-03-02 2012-09-27 Benjamin Zeis Newhouse System and method for distributing virtual and augmented reality scenes through a social network
JP5178876B2 (ja) * 2011-04-27 2013-04-10 株式会社東芝 立体映像表示装置及び立体映像表示方法
CN103002297A (zh) * 2011-09-16 2013-03-27 联咏科技股份有限公司 动态深度值产生方法及其装置
CN102364524A (zh) * 2011-10-26 2012-02-29 清华大学 一种基于变光照多视角间差采样的三维重建方法和装置
TWI504233B (zh) * 2011-12-22 2015-10-11 Teco Elec & Machinery Co Ltd 深度估測方法及其裝置
CN102595187B (zh) * 2012-02-27 2014-01-29 天津大学 一种影响立体图像舒适度的色度范围的测定方法
CN103379255B (zh) * 2012-04-24 2017-06-06 华晶科技股份有限公司 影像处理装置及其处理方法
EP2849441B1 (en) * 2012-05-10 2019-08-21 LG Electronics Inc. Method and apparatus for processing video signals
CN102842301B (zh) * 2012-08-21 2015-05-20 京东方科技集团股份有限公司 显示画面调节装置、显示装置及显示方法
CN103716641B (zh) * 2012-09-29 2018-11-09 浙江大学 预测图像生成方法和装置
US20140123507A1 (en) * 2012-11-02 2014-05-08 Qualcomm Incorporated Reference coordinate system determination
US9613461B2 (en) * 2012-12-10 2017-04-04 Sony Corporation Display control apparatus, display control method, and program
US20140375541A1 (en) * 2013-06-25 2014-12-25 David Nister Eye tracking via depth camera
CN103903262B (zh) * 2014-03-25 2017-01-18 苏州科技学院 基于图像分割的深度不连续区域立体匹配算法
WO2015186054A1 (en) * 2014-06-02 2015-12-10 Xlabs Pty Ltd Pose-invariant eye-gaze tracking using a single commodity camera
EP3158536B1 (en) * 2014-06-19 2019-01-02 Koninklijke Philips N.V. Method and apparatus for generating a three dimensional image
CN104656683B (zh) * 2015-01-15 2017-04-26 西安交通大学 双目视觉区域目标的深度信息提取及剖面分析系统及方法
CN107533634A (zh) * 2015-03-23 2018-01-02 控制辐射系统有限公司 眼睛跟踪系统
US9683834B2 (en) * 2015-05-27 2017-06-20 Intel Corporation Adaptable depth sensing system
CN106534828A (zh) * 2015-09-11 2017-03-22 钰立微电子股份有限公司 应用于立体图像获取装置的控制器与立体图像获取装置
TWI557708B (zh) * 2015-11-05 2016-11-11 宏碁股份有限公司 顯示裝置和顯示方法
US9996744B2 (en) * 2016-06-29 2018-06-12 International Business Machines Corporation System, method, and recording medium for tracking gaze using only a monocular camera from a moving screen
TWM535848U (zh) * 2016-07-11 2017-01-21 Lunghwa Univ Of Science And Tech 結合小波轉換及邊緣偵測建立單張影像深度圖的裝置
US10353535B2 (en) * 2016-10-21 2019-07-16 Misapplied Sciences, Inc. Multi-view display viewing zone layout and content assignment
CN106384365B (zh) * 2016-11-22 2024-03-08 经易文化科技集团有限公司 一种包含深度信息获取的扩增实境系统及其方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101751209A (zh) * 2008-11-28 2010-06-23 联想(北京)有限公司 一种调整屏幕呈现元素的方法及计算机
CN101866643A (zh) * 2009-01-27 2010-10-20 索尼爱立信移动通信日本株式会社 显示设备、显示控制方法和显示控制程序
CN101894538A (zh) * 2010-07-15 2010-11-24 优视科技有限公司 屏幕显示画面控制方法和装置

Also Published As

Publication number Publication date
CN108765480A (zh) 2018-11-06
TW201837862A (zh) 2018-10-16
US20180295345A1 (en) 2018-10-11
TW201837893A (zh) 2018-10-16
CN108900829A (zh) 2018-11-27
TWI657431B (zh) 2019-04-21
TWI672675B (zh) 2019-09-21
US20180295353A1 (en) 2018-10-11
US10567737B2 (en) 2020-02-18
US11050997B2 (en) 2021-06-29
CN108765480B (zh) 2022-03-15

Similar Documents

Publication Publication Date Title
CN108900829B (zh) 动态显示系统
US10019831B2 (en) Integrating real world conditions into virtual imagery
US10019849B2 (en) Personal electronic device with a display system
US9848184B2 (en) Stereoscopic display system using light field type data
US8441435B2 (en) Image processing apparatus, image processing method, program, and recording medium
CN102238408B (zh) 显示设置菜单的方法以及相应装置
CN107408026A (zh) 信息处理设备、信息处理方法和计算机程序
US9703400B2 (en) Virtual plane in a stylus based stereoscopic display system
US10866820B2 (en) Transitioning between 2D and stereoscopic 3D webpage presentation
US9467685B2 (en) Enhancing the coupled zone of a stereoscopic display
WO2015090421A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
KR20170134829A (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
JP2011175623A (ja) 画像認識装置および操作判定方法並びにプログラム
US9118903B2 (en) Device and method for 2D to 3D conversion
US20170185147A1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
JP2013017146A (ja) 表示制御装置、表示制御方法およびプログラム
US20210042015A1 (en) Method and system for dwell-less, hands-free interaction with a selectable object
US10257500B2 (en) Stereoscopic 3D webpage overlay
CN111034190B (zh) 信息处理设备、信息处理方法和程序
KR20190096976A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
KR20190027079A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
CN113066189B (zh) 一种增强现实设备及虚实物体遮挡显示方法
CN102799378B (zh) 一种立体碰撞检测物体拾取方法及装置
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
US20150085086A1 (en) Method and a device for creating images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant