CN101751116A - 交互式立体影像显示方法及其相关立体显示装置 - Google Patents
交互式立体影像显示方法及其相关立体显示装置 Download PDFInfo
- Publication number
- CN101751116A CN101751116A CN200810182731A CN200810182731A CN101751116A CN 101751116 A CN101751116 A CN 101751116A CN 200810182731 A CN200810182731 A CN 200810182731A CN 200810182731 A CN200810182731 A CN 200810182731A CN 101751116 A CN101751116 A CN 101751116A
- Authority
- CN
- China
- Prior art keywords
- image
- user
- described user
- action
- stereopsis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
本发明涉及交互式立体影像显示方法及其相关立体显示装置。具体地,交互式立体影像显示方法,用于显示一物体的立体影像,包含有撷取一使用者脸部动作影像;根据该使用者脸部动作影像,辨识出相对应的一动作指令;根据该动作指令,产生该物体的一第一影像及一第二影像;根据该第一影像及该第二影像,产生该物体的立体影像;以及显示该物体的立体影像。本发明可以根据使用者脸部的动作变化,而实时产生对应的立体影像供使用者观赏,可以直接且实时地达到交互效果,提升使用者的便利。
Description
技术领域
本发明涉及一种交互式立体影像显示方法及其相关立体显示装置,尤其涉及一种可以随使用者的动作实时调整显示影像的交互式立体影像显示方法及其相关立体显示装置。
背景技术
随着显示科技的进步,立体显示技术(3D Display technology)已被应用在许多的领域中,如3D立体游戏或是虚拟实境(Virtual Reality,VR)系统。一般来说,立体显示影像主要为使用者利用双眼观看物体时,左右眼各自从不同视角观看,而藉由提供左、右眼不同的影像,使大脑分析并重叠后,感知所见物体的层次感及深度,进而产生一立体影像。因此,立体显示装置为将左眼影像信号及右眼影像信号分别显示于观察者的左眼及右眼,让使用者感受到影像内容而有立体的效果。
然而,在公知的立体显示的应用环境下,当使用者改变观赏视角时,所看见的仍然是同样的立体影像,并无法看到不同视角的立体影像。通常需要藉由鼠标、键盘或相关的输入装置来控制影像的呈现方式或效果,才可以观赏其他视角的立体影像。举例来说,在3D赛车游戏中,欲观赏某一赛车外观时,使用者必须通过键盘来选择观赏方位,例如上下左右或是远近等不同情况。然而,通过如此间接选择的方式才能达到画面交互的效果往往会造成使用者的不便。
发明内容
因此,本发明的主要目的即在于提供一种交互式立体影像显示方法及其相关立体显示装置。
本发明公开一种交互式立体影像显示方法,用于显示一物体的立体影像,包含有撷取一使用者脸部动作影像;根据该使用者脸部动作影像,辨识出相对应的一动作指令;根据该动作指令,产生该物体的一第一影像及一第二影像;根据该第一影像及该第二影像,产生该物体的立体影像;以及显示该物体的立体影像。
本发明还公开一种交互式立体影像显示装置,用于显示一物体的立体影像,包含有一影像撷取单元、一动态检测单元、一影像处理单元、一影像产生单元以及一立体显示模块。该影像撷取单元,用来撷取一使用者脸部动作影像;该动态检测单元耦接于该影像撷取单元,用来根据该使用者脸部动作影像,辨识出相对应的一动作指令;该影像处理单元,耦接于该动态检测单元,用来根据该动作指令,产生该物体的一第一影像及一第二影像;该影像产生单元,耦接于该影像处理单元,用来根据该第一影像及该第二影像,产生该物体的立体影像;以及该立体显示模块,耦接于该影像产生单元,用来显示该物体的立体影像。
本发明可以根据使用者脸部的动作变化,而实时产生对应的立体影像供使用者观赏,可以直接且实时地达到交互效果,提升使用者的便利。
附图说明
图1为本发明的实施例的一流程的示意图。
图2(a)为本发明实施例的立体显示装置与使用者的一关系示意图。
图2(b)为在图2(a)的情况下显示立体影像的示意图。
图3(a)为本发明实施例的立体显示装置与使用者的另一关系示意图。
图3(b)为在图3(a)的情况下显示立体影像的示意图。
图4(a)为本发明实施例的立体显示装置与使用者的另一关系示意图。
图4(b)为在图4(a)的情况下显示立体影像的示意图。
图5为本发明实施例的一交互式立体显示装置的功能方框示意图。
主要组件符号说明:
10 流程
102、104、106、108、110、112 步骤
20 立体显示装置
50 交互式立体显示装置
502 影像撷取单元
504 动态检测单元
506 影像处理单元
508 影像产生单元
510 立体显示模块
I1 第一影像
I2 第二影像
L、L’ 视线路径
CAM 影像撷取装置
具体实施方式
请参考图1。图1为本发明实施例的一流程10的示意图。流程10用于显示一物体OB的立体影像,以实现一使用者与一立体显示装置20的实时交互功能。流程10包含以下步骤:
步骤100:开始。
步骤102:撷取使用者脸部动作影像IF。
步骤104:根据使用者脸部动作影像IF,辨识出相对应的动作指令M。
步骤106:根据动作指令M,产生物体OB的第一影像I1及第二影像I2。
步骤108:根据第一影像I1及第二影像I2,产生物体OB的立体影像IS。
步骤110:显示立体影像IS。
步骤112:结束。
根据流程10,本发明的实施例通过撷取使用者的脸部动作影像,并根据所撷取的使用者脸部动作影像,辨识出相对应的动作指令。接着,利用所辨识出的动作指令,产生该物体的第一影像及第二影像后,再根据第一影像及第二影像,产生该物体的立体影像,并显示出该物体的立体影像供使用者观赏。简言之,本发明的实施例可以根据使用者脸部的动作变化,而实时直接产生对应的立体影像,供使用者观赏。
请参考图2(a)及图2(b)。图2(a)为本发明实施例的立体显示装置20与一使用者的关系示意图。图2(b)为在图2(a)的情况下显示立体影像的示意图。如图2(a)所示,使用者正沿一视线路径L观赏立体影像时,一影像撷取装置CAM会撷取下使用者脸部动作影像IF。立体显示装置20可以根据所撷取到的使用者脸部动作影像IF,利用适当的算法,举例来说,如移动估测算法,计算出使用者的影像的深度变化,来辨识出脸部各部位特征,以估测辨识出对应的动作。以图2(a)为例,使用者在观赏时无任何动作,因此,如图2(b)所示,立体显示装置20显示第一立体影像IS1供使用者观赏。
接着,使用者继续欣赏立体显示装置20所播放的第一立体影像IS1,通过步骤100至步骤104,立体显示装置20根据使用者的脸部动作状态,产生相对应的一动作指令M。请参考图3(a)及图3(b)。图3(a)为本发明实施例的立体显示装置20与使用者的另一关系示意图。图3(b)为在图3(a)的情况下显示立体影像的示意图。如图3(a)所示,假设使用者观赏立体显示装置20的视线路径已从L改变为L’,其中L及L’的夹角为θ度。因此,立体显示装置20会检测到使用者的视线路径向下偏移了θ度,而产生对应的动作指令M,换句话说,使用者此时希望俯瞰目前所观赏的物体影像。接着,根据动作指令M,产生对应于物体OB的一第一影像I1及一第二影像I2,并且,根据第一影像I1及第二影像I2,将物体OB的第一立体影像IS1调整为相对应的第二立体影像IS2,亦即将从物体OB侧边观看的第一立体影像IS1,改变成俯视观看的第二立体影像IS2。最后,显示对应的第二立体影像IS2,如图3(b)所示。同样地,请继续参考图4(a)及图4(b)。图4(a)为本发明实施例的立体显示装置20与使用者的另一关系示意图。图4(b)为在图4(a)的情况下显示立体影像的示意图。如图4(a)所示,若使用者观赏立体显示装置20的视线路径L’向右偏移了Ψ度(相比较于图2(a)的视线路径L),则通过本发明的实施例的立体显示装置20辨识出使用者脸部的偏移动作后,如图4(b)所示,产生对应的第二立体影像IS2,并显示第二立体影像IS2。如此一来,本发明的实施例可以根据使用者脸部的动作变化,而实时产生对应的立体影像供使用者观赏,可以直接且实时地达到交互效果,提升使用者的便利。
值得注意的是,流程10为本发明的实施例,本领域普通技术人员应当可以据此作不同的变化及修饰。举例来说,在步骤104中,较佳地,可以根据该使用者脸部动作影像IF,辨识出该使用者脸部,并计算出该使用者脸部的相对空间位置的变化情况,进而产生相对应的动作指令M。除此之外,较佳地,可以根据该使用者脸部动作影像IF,辨识出该使用者的一脸部特征,以计算出该脸部特征的相对空间位置的变化情况,进而产生相对应的动作指令M。进一步地,除了可以利用移动估测算法来估算辨识该使用者的脸部特征之外,立体显示装置20亦可以根据其他算法计算出使用者的影像的深度变化,以辨识出脸部各部位特征,进而估测出相对应的动作指令。较佳地,所谓脸部特征可以是眼睛位置、瞳孔位置、眼皮状态、脸孔方向等等可以供判断使用者脸部或头部的相对空间位置变化情况的特征。举例来说,可以根据使用者瞳孔状态,判断使用者对立体显示装置20的观赏角度或距离变化,并产生相对应的动作指令M。较佳地,动作指令M可以包含向上、向下、向左、向右、向前、向后或旋转等等空间变化信息。
关于流程10的实现,请参考图5,图5为本发明实施例的一交互式立体显示装置50的功能方框示意图。交互式立体显示装置50,用于显示一物体OB的立体影像,其包含有一影像撷取单元502、一动态检测单元504、一影像处理单元506、一影像产生单元508以及一立体显示模块510。影像撷取单元502用来撷取一使用者脸部动作影像IF。动态检测单元504耦接于影像撷取单元502,用来根据使用者脸部动作影像IF,辨识出相对应的一动作指令M。影像处理单元506耦接于动态检测单元504,用来根据动作指令M,产生物体OB的一第一影像I1及一第二影像I2。影像产生单元508耦接于影像处理单元506,用来根据第一影像I1及第二影像I2,产生物体OB的立体影像IS。立体显示模块510耦接影像产生单元508,用来显示立体影像IS。
因此,在交互式立体显示装置50中,动态检测单元504可以检测辨识出使用者的动作状态并产生一动作指令M,使得影像处理单元506可以根据动作指令M来产生对应物体OB的一第一影像I1及一第二影像I2,并通过影像产生单元508结合第一影像I1及第二影像I2,产生物体OB的立体影像IS。最后,由立体显示模块510显示物体OB的立体影像IS。值得注意的是,交互式立体显示装置50用以实现流程10,本领域普通技术人员应当可以根据不同需求,作适当的修改,而不限于此。前述的影像撷取单元502的设置位置仅为一实施例,凡是能完整将使用者动作影像撷取下来的位置即可,并不以此为限。并且,影像撷取单元502可以通过有线或无线的传输方式,将所撷取的影像数据传送给动态检测单元504。此外,凡是具有处理运算能力的硬件、固体或是软件皆可以用来实现动态检测单元504、影像处理单元506以及影像产生单元508。此外,较佳地,第一影像I1及第二影像I2分别为左眼立体影像信号及右眼立体影像信号,当影像处理单元506产生第一影像I1及第二影像I2后,影像产生单元508可以利用第一影像I1及第二影像I2产生立体影像IS。立体显示模块510主要用来显示立体影像,因此,只要是能正确显示立体影像的显示模块即可以为本发明的实施例所使用。
综上所述,通过本发明的实施例,可以根据使用者脸部的动作变化,而实时产生对应的立体影像供使用者观赏,可以直接且实时地达到交互效果,提升使用者的便利。
以上所述仅为本发明的较佳实施例,凡是根据本发明权利要求书范围所作的等同变化与修饰,皆应属本发明的涵盖范围。
Claims (8)
1.一种交互式立体影像显示方法,用于显示一物体的立体影像,包括:
撷取一使用者脸部动作影像;
根据所述使用者脸部动作影像,辨识出相对应的一动作指令;
根据所述动作指令,产生所述物体的一第一影像及一第二影像;
根据所述第一影像及所述第二影像,产生所述物体的立体影像;以及
显示所述物体的立体影像。
2.如权利要求1所述的交互式立体影像显示方法,其中根据所述使用者脸部动作影像辨识出相对应的所述动作指令的操作包括根据所述使用者脸部动作影像,辨识出所述使用者脸部,以计算出所述使用者脸部的相对空间位置的变化情况,进而产生相对应的所述动作指令。
3.如权利要求1所述的交互式立体影像显示方法,其中根据所述使用者脸部动作影像辨识出相对应的所述动作指令的操作包括根据所述使用者脸部动作影像,辨识出所述使用者的一脸部特征,以计算出所述脸部特征的相对空间位置的变化情况,进而产生相对应的所述动作指令。
4.如权利要求3所述的交互式立体影像显示方法,其中根据所述使用者脸部动作影像辨识出相对应的所述动作指令的操作包括根据所述使用者脸部动作影像,辨识出所述使用者的瞳孔状态,以计算出所述使用者的瞳孔的相对空间位置的变化情况,进而产生相对应的所述动作指令。
5.一种交互式立体影像显示装置,用于显示一物体的立体影像,包括:
一影像撷取单元,用来撷取一使用者脸部动作影像;
一动态检测单元,耦接于所述影像撷取单元,用来根据所述使用者脸部动作影像,辨识出相对应的一动作指令;
一影像处理单元,耦接于所述动态检测单元,用来根据所述动作指令,产生所述物体的一第一影像及一第二影像;
一影像产生单元,耦接于所述影像处理单元,用来根据所述第一影像及所述第二影像,产生所述物体的立体影像;以及
一立体显示模块,耦接于所述影像处理单元,用来显示所述物体的立体影像。
6.如权利要求5所述的交互式立体影像显示装置,其中所述动态检测单元为根据所述使用者脸部动作影像,辨识出所述使用者脸部,以计算出所述使用者脸部的相对空间位置的变化情况,进而产生相对应的所述动作指令。
7.如权利要求5所述的交互式立体影像显示装置,其中所述动态检测单元为根据所述使用者脸部动作影像,辨识出所述使用者的一脸部特征,以计算出所述脸部特征的相对空间位置的变化情况,进而产生相对应的所述动作指令。
8.如权利要求7所述的交互式立体影像显示装置,其中所述动态检测单元为根据所述使用者脸部动作影像,辨识出所述使用者的瞳孔状态,以计算出所述使用者的瞳孔的相对空间位置的变化情况,进而产生相对应的所述动作指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200810182731A CN101751116A (zh) | 2008-12-04 | 2008-12-04 | 交互式立体影像显示方法及其相关立体显示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200810182731A CN101751116A (zh) | 2008-12-04 | 2008-12-04 | 交互式立体影像显示方法及其相关立体显示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101751116A true CN101751116A (zh) | 2010-06-23 |
Family
ID=42478164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200810182731A Pending CN101751116A (zh) | 2008-12-04 | 2008-12-04 | 交互式立体影像显示方法及其相关立体显示装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101751116A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101986243A (zh) * | 2010-11-05 | 2011-03-16 | 友达光电股份有限公司 | 立体影像互动系统及其位置偏移补偿方法 |
CN102316333A (zh) * | 2010-07-06 | 2012-01-11 | 宏碁股份有限公司 | 显示系统与提示系统 |
CN102799264A (zh) * | 2012-04-18 | 2012-11-28 | 友达光电股份有限公司 | 三度空间互动系统 |
-
2008
- 2008-12-04 CN CN200810182731A patent/CN101751116A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102316333A (zh) * | 2010-07-06 | 2012-01-11 | 宏碁股份有限公司 | 显示系统与提示系统 |
CN101986243A (zh) * | 2010-11-05 | 2011-03-16 | 友达光电股份有限公司 | 立体影像互动系统及其位置偏移补偿方法 |
CN101986243B (zh) * | 2010-11-05 | 2012-07-11 | 友达光电股份有限公司 | 立体影像互动系统及其位置偏移补偿方法 |
CN102799264A (zh) * | 2012-04-18 | 2012-11-28 | 友达光电股份有限公司 | 三度空间互动系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921050B (zh) | 一种基于移动端的虚拟现实图像处理系统 | |
US20130215112A1 (en) | Stereoscopic Image Processor, Stereoscopic Image Interaction System, and Stereoscopic Image Displaying Method thereof | |
JP2024054137A (ja) | 画像表示システム | |
US11682138B2 (en) | Localization and mapping using images from multiple devices | |
EP3734423B1 (en) | Camera-based location of optically detectable markers | |
CN104516492A (zh) | 一种基于3d全息投影的人机交互技术 | |
US11212501B2 (en) | Portable device and operation method for tracking user's viewpoint and adjusting viewport | |
EP3742396B1 (en) | Image processing | |
CN104866261A (zh) | 一种信息处理方法和装置 | |
US20100123716A1 (en) | Interactive 3D image Display method and Related 3D Display Apparatus | |
US11416975B2 (en) | Information processing apparatus | |
CN101751116A (zh) | 交互式立体影像显示方法及其相关立体显示装置 | |
CN103248910A (zh) | 三维成像系统及其图像再现方法 | |
CN113379897A (zh) | 应用于3d游戏渲染引擎的自适应虚拟视图转立体视图的方法及装置 | |
WO2018115840A1 (en) | Virtual reality content control | |
EP3673348B1 (en) | Data processing device, method and non-transitory machine-readable medium for detecting motion of the data processing device | |
EP3729235A1 (en) | Data processing | |
EP3547081B1 (en) | Data processing | |
US20180101226A1 (en) | Information processing apparatus | |
GB2584122A (en) | Data processing | |
WO2018173206A1 (ja) | 情報処理装置 | |
WO2023277020A1 (ja) | 画像表示システム及び画像表示方法 | |
US10762715B2 (en) | Information processing apparatus | |
CN117452637A (zh) | 头戴式显示器和图像显示方法 | |
CN118092633A (zh) | 一种裸眼3d图像显示控制方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Open date: 20100623 |