WO2013097162A1 - 立体互动图像的处理方法及系统 - Google Patents

立体互动图像的处理方法及系统 Download PDF

Info

Publication number
WO2013097162A1
WO2013097162A1 PCT/CN2011/084976 CN2011084976W WO2013097162A1 WO 2013097162 A1 WO2013097162 A1 WO 2013097162A1 CN 2011084976 W CN2011084976 W CN 2011084976W WO 2013097162 A1 WO2013097162 A1 WO 2013097162A1
Authority
WO
WIPO (PCT)
Prior art keywords
stereoscopic
depth
finger
image
interactive image
Prior art date
Application number
PCT/CN2011/084976
Other languages
English (en)
French (fr)
Inventor
林明慧
曾文俊
Original Assignee
财团法人工业技术研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 财团法人工业技术研究院 filed Critical 财团法人工业技术研究院
Priority to PCT/CN2011/084976 priority Critical patent/WO2013097162A1/zh
Publication of WO2013097162A1 publication Critical patent/WO2013097162A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种立体互动图像的处理方法及系统。立体互动图像的处理方法包括以下步骤。以一立体显示器显示一立体图像。立体图像具有一对象。以一检测单元检测一使用者的一手指与立体显示器的一手指深度与使用者的一人眼距离立体显示器的一观赏距离。以一处理单元依据观赏距离计算该对象与立体显示器的一对象深度。以处理单元依据对象深度或手指深度,调整立体图像,以避免对象被手指所遮蔽,因而造成错误的对象深度认知。

Description

立体互动图像的处理方法及系统
技术领域
本发明是有关于一种立体图像的处理方法与系统, 且特别是有关于一种 立体互动图像的处理方法与系统。 背景技术
随着立体显示科技的进步, 越来越多的产品搭载立体显示技术。 例如搭 载立体显示技术的大屏幕电影可以呈现出视觉的临场感, 让观众获得真实的 感动。 搭载立体显示技术的电视机将生硬的画面变得更加生动。
立体显示技术是显示科技的一项重要突破, 产业界均致力于从硬件或软 件开发出各种新的应用。 对于整个电子产业来说, 这是一项全面性的革新运 动。 发明内容
本发明涉及一种立体互动图像的处理方法与系统。
根据本发明的第一方面, 提出一种立体互动图像的处理方法。 立体互动 图像的处理方法包括以下步骤。 以一立体显示器显示一立体图像。 立体图像 具有一对象。 以一检测单元检测一使用者的一手指与立体显示器的一手指深 度; 并检测使用者的一人眼距离立体显示器的观赏距离。 以一处理单元依据 观赏距离计算对象与立体显示器的一对象深度。 以处理单元依据对象深度或 手指深度, 调整立体图像, 以避免对象被手指所遮蔽。
根据本发明的第二方面, 提出一种立体互动图像系统。 立体互动图像系 统包括一立体显示器、 一检测单元及一处理单元。 立体显示器用以显示一立 体图像。 立体图像具有一对象。 检测单元用以检测一使用者的一手指与立体 显示器的一手指深度与使用者的一人眼距离立体显示器的观赏距离。 处理单 元用以依据观赏距离计算对象与立体显示器的一对象深度, 并依据对象深度 或手指深度, 调整立体图像, 以避免对象被手指所遮蔽, 因而造成错误的对 象深度认知。 附图说明 图 1绘示第一实施例的立体互动图像系统的示意图。
图 2绘示第一实施例的立体互动图像系统的方块图。
图 3绘示第一实施例的立体互动图像的处理方法的流程图。
图 4A绘示第一实施例的立体图像调整前的示意图。
图 4B绘示第一实施例的立体图像调整后的示意图。
图 5绘示第二实施例的立体互动图像的处理方法的流程图。
图 6绘示第二实施例的立体图像调整后的示意图。
图 Ί绘示第三实施例的立体互动图像的处理方法的流程图。
图 8绘示第三实施例的立体图像调整后的示意图。 附图标记说明:
100: 立体互动图像系统
110: 立体显示器
120: 处理单元
130: 检测单元
710、 730: 对象
800: 指标
900: 使用者
910: 手指
920: 眼睛
p、 p,: 像差
df: 手指深度
dp、 dp' 、 dp" : 对象深度
dt: 指标深度
e: 双眼间距
L: 观赏距离
s、 s': 图样宽度
S101、 S102、 S130、 S105、 S106、 S107、 S201、 S202、 S203、 S204、 、 S207、 S301、 S302、 S303、 S304、 S305、 S307: 流程步骤。 具体实施方式
为了对本发明的上述及其他方面更了解, 下文特举实施例, 并配合所附 附图, 作详细说明如下:
以下提出各种实施例并进行详细说明, 实施例仅用以作为范例说明, 并 不会限缩本发明欲保护的范围。 此外, 实施例中的附图省略部份元件, 以清 楚显示本发明的技术特点。 第一实施例
请参照图 1 ~ 2,图 1绘示第一实施例的立体互动图像系统 100的示意图, 图 2绘示第一实施例的立体互动图像系统 100的方块图。 本实施例的立体互 动图像系统 100包括一立体显示器 110、 一处理单元 120及一检测单元 130。 立体显示器 110用以显示一立体图像, 例如是具有立体显示功能的液晶显示 器、 有机发光二极管显示器、 电浆显示器或投影显示器。 处理单元 120用以 执行各种运算程序、 处理程序或判断程序, 例如是一晶片、 一固件电路、 或 存储多组程序代码的存储媒体。 检测单元 130用以检测物体的空间距离, 例 如是一红外线距离检测器、 一激光距离检测器、 一超音波距离检测器或使用 一个以上相机的被动式距离检测器。
通过双眼的视差, 立体显示器 110可以让使用者 900观看到立体图像, 使得使用者 900感觉到图像中的对象 710漂浮于眼前。 当使用者 900在立体 显示器 110前做出各种互动动作时,检测单元 130的检测程序及处理单元 120 的处理程序可以进一步使立体图像中的对象 710与使用者 900进行互动。
在使用者 900进行互动的过程中, 立体图像的对象 710可能会被使用者
900的手指 910或肢体所遮蔽, 而看不到立体图像的对象 710。本实施例更通 过以下流程的处理程序来避免立体图像的对象 710在互动过程中被遮蔽的情 况发生。 请参照图 3、 4A及 4B , 图 3绘示第一实施例的立体互动图像的处 理方法的流程图, 图 4A绘示第一实施例的立体图像调整前的示意图, 图 4B 绘示第一实施例的立体图像调整后的示意图。
在步骤 S101中, 如图 4A所示, 以检测单元 130检测使用者 900的手指
910与立体显示器 110的手指深度 df与使用者 900的一人眼 920距离立体显 示器 110的一观赏距离 L。 此步骤的手指深度 df通过实际量测而获得, 而不 是通过运算而获得。
在步骤 S102中, 如图 4A所示, 以处理单元 120计算对象深度 dp。 对 象深度 dp相关于观赏距离 L、像差 p及眼睛 920的双眼间距 e。对象深度 dp 可以依据下列算式( 1 )进行运算。 = Lx p/(p + e) ( 1 ) 在步骤 S103中, 如图 4A所示, 处理单元 120计算对象深度 d 与手指 深度 df的差值。
在步骤 S105中, 如图 4A所示, 处理单元 120判断差值是否小于一预定 值。 差值过大时, 代表使用者 900的手指 910尚未点选到对象 710; 差值小 于一定程度时, 代表使用者 900的手指 910已点选到对象 710。 若差值不小 于预定值时, 则进入步骤 S106; 若差值小于预定值时, 则进入步骤 S107。
在步骤 S106中, 如图 4A ~ 4B所示, 处理单元 120调整对象深度 d 并 放大对象 710的面积。 当对象深度 dp过大(甚至大于手指深度 df ) 时, 立 体显示器 110的画面没有办法聚焦于对象深度 dp的预定位置,使得对象 710 将会被手指 910遮蔽。 此步骤通过调整对象像差, 改变对象深度 dp的方式, 使得对象 710将会被移动至手指 910后方远处的位置, 以避免对象 710被遮 蔽的情况发生。
举例来说, 请参照图 4A ~ 4B, 处理单元 120将像差 p调整为像差 ρ,, 即可依据上述算式( 1 )将对象深度 dp调整为对象深度 dp, (对象深度 dp' 小于手指深度 df ), 使得对象 710, 能够在手指 910后方立体成像。 在一实施 例中, 处理单元 120可以先将对象深度 dp, 缩小一定程度, 然后再使对象深 度 dp, 随着时间逐渐增加,使得使用者 900可以逐渐适应对象 710, 的位置。
另外, 处理单元 120亦可调整图样宽度 s为图样宽度 s,, 使得对象 710, 的面积被放大。 对象 710, 的面积被放大后, 较不容易被手指 910所遮蔽, 以方便使用者 900点选到对象 710,。
在步骤 S107中, 当差值小于预定值时, 处理单元 120则视为使用者 900 已触发对象 710或 710,。 第二实施例 请参照图 5及图 6, 图 5绘示第二实施例的立体互动图像的处理方法的 流程图, 图 6绘示第二实施例的立体图像调整后的示意图。 本实施例的立体 互动图像的处理方法与第一实施例的立体互动图像的处理方法不同的处在于 显示一指标 800来辅助使用者 900进行互动, 其余相同的处不再重复叙述。
在步骤 S201 ~ S202中, 检测单元 130检测手指深度 df及观赏距离 L, 处理单元 120并计算对象深度 dp。
在步骤 S203中, 处理单元 120依据手指深度 df显示指标 800。 在此步 骤中, 处理单元 120进行控制以使指标 800与立体显示器 120的指标深度 dt 实质上等于手指深度 df。并且当手指 910移动时,指标 800可以随着手指 910 一起移动。
由于指标 800与对象 710皆为漂浮在眼前的图像, 使用者 900可以很容 易地比对出指标 800与对象 710的差距。 如此一来, 即使手指 910遮蔽了对 象 710,使用者 900仍可通过指标 800与对象 710的比对来点选对象 710, 而 不会有任何困扰。
在步骤 S204 S207中, 当处理单元 120判断出对象深度 dp与手指深度 df的差值小于预定值时, 则视为对象 710已被触发。 第三实施例
请参照图 7及图 8, 图 7绘示第三实施例的立体互动图像的处理方法的 流程图, 图 8绘示第三实施例的立体图像调整后的示意图。 本实施例的立体 互动图像的处理方法与第一实施例的立体互动图像的处理方法不同的处在于 使对象 730呈现立体形式来避免手指 910遮蔽对象 730, 其余相同的处不再 重复叙述。
在步骤 S301 ~ S302中, 检测单元 130检测手指深度 df及观赏距离 L, 处理单元 120并计算对象深度 dp。
在步骤 S303中, 处理单元 120调整对象深度 d 为一连续区间 (例如是 对象深度 dp〜对象深度 dp" 的连续区间), 以使对象 730呈现立体形式, 并 放大对象 730的面积。
举例来说,处理单元 120在对象深度 dp ~对象深度 dp"的连续区间上的 每一个位置均呈现对象 710 (绘示于图 4A ), 以组成立体形式的对象 730。 如 此一来, 使用者 900的手指 910即使遮蔽了一部分的对象 730, 使用者 900 仍然可以看到部分的对象 730。
此外, 处理单元 120亦可将对象 730的面积放大。 对象 730的面积皮放 大后, 较不容易被手指 910所遮蔽, 以方便使用者点选到对象 730。
在步骤 S304 ~ S307中, 当处理单元 120判断出对象深度 d 与手指深度 df的差值小于预定值时, 则视为对象 710已被触发。
虽然上述实施方式系以第一〜第三实施例为例作说明, 然而本申请案并 不以此为限。 举例来说, 第二实施例的指标 800可应用于第一实施例及第三 实施例。
综上所述, 虽然本发明已以实施例揭露如上,然其并非用以限定本发明。 本发明所属技术领域中的普通技术人员, 在不脱离本发明的精神和范围内, 当可作各种的更动与润饰。 因此, 本发明的保护范围当视后附的权利要求范 围所界定者为准

Claims

权利要求
1. 一种立体互动图像的处理方法, 包括:
以一立体显示器显示一立体图像, 该立体图像具有一对象;
以一检测单元检测一使用者的一手指与该立体显示器的一手指深度与该 使用者的一人眼距离该立体显示器的一观赏距离;
以一处理单元依据该观赏距离计算该对象与该立体显示器的一对象深 度; 以及
以该处理单元依据该对象深度或该手指深度, 调整该立体图像, 以避免 该对象被该手指所遮蔽。
2. 如权利要求 1所述的立体互动图像的处理方法,其中在调整该立体图 像的步骤中, 依据该手指深度调整该对象深度, 以移动该对象。
3. 如权利要求 2所述的立体互动图像的处理方法,其中在调整该立体图 像的步骤中, 该对象深度随着时间逐渐变动。
4. 如权利要求 2所述的立体互动图像的处理方法,其中在调整该立体图 像的步骤中, 还放大该对象的面积。
5. 如权利要求 1所述的立体互动图像的处理方法,其中在调整该立体图 像的步骤中, 还依据该手指深度显示一指标。
6. 如权利要求 5所述的立体互动图像的处理方法,其中在调整该立体图 像的步骤中, 该指标与该立体显示器的一指标深度等于该手指深度。
7. 如权利要求 5所述的立体互动图像的处理方法,其中在调整该立体图 像的步骤中, 该指标随着该手指移动。
8. 如权利要求 1所述的立体互动图像的处理方法,其中在调整该立体图 像的步骤中, 调整该对象深度为一连续区间, 以使该对象呈现立体形式。
9. 如权利要求 8所述的立体互动图像的处理方法,其中在调整该立体图 像的步骤中, 还放大该对象的面积。
10. 一种立体互动图像系统, 包括:
一立体显示器, 用以显示一立体图像, 该立体图像具有一对象; 一检测单元, 用以检测一使用者的一手指与该立体显示器的一手指深度 与该使用者的一人眼距离该立体显示器的一观赏距离; 以及 一处理单元, 用以依据该观赏距离计算该对象与该立体显示器的一对象 深度, 并依据该对象深度或该手指深度, 调整该立体图像, 以避免该对象被 该手指所遮蔽。
11. 如权利要求 10所述的立体互动图像系统,其中该处理单元依据该手 指深度调整该对象深度, 以移动该对象。
12. 如权利要求 11所述的立体互动图像系统,其中该处理单元控制该对 象深度随着时间逐渐变动。
13. 如权利要求 11所述的立体互动图像系统,其中该处理单元还放大该 对象的面只。
14. 如权利要求 10所述的立体互动图像系统,其中该处理单元还依据该 手指深度显示一指标。
15. 如权利要求 14所述的立体互动图像系统,其中该处理单元进行控制 以使该指标与该立体显示器的一指标深度等于该手指深度。
16. 如权利要求 14所述的立体互动图像系统,其中该处理单元控制该指 标随着该手指移动。
17. 如权利要求 10所述的立体互动图像系统,其中该处理单元调整该对 象深度为一连续区间, 以使该对象呈现立体形式。
18. 如权利要求 17所述的立体互动图像系统,其中该处理单元还放大该 对象的面只。
PCT/CN2011/084976 2011-12-30 2011-12-30 立体互动图像的处理方法及系统 WO2013097162A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/CN2011/084976 WO2013097162A1 (zh) 2011-12-30 2011-12-30 立体互动图像的处理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2011/084976 WO2013097162A1 (zh) 2011-12-30 2011-12-30 立体互动图像的处理方法及系统

Publications (1)

Publication Number Publication Date
WO2013097162A1 true WO2013097162A1 (zh) 2013-07-04

Family

ID=48696237

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2011/084976 WO2013097162A1 (zh) 2011-12-30 2011-12-30 立体互动图像的处理方法及系统

Country Status (1)

Country Link
WO (1) WO2013097162A1 (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101061507A (zh) * 2004-11-16 2007-10-24 皇家飞利浦电子股份有限公司 用于局部增强的非接触式图像操作
CN101770324A (zh) * 2008-12-31 2010-07-07 商泰软件(上海)有限公司 一种实现三维图形界面互动式操作的方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101061507A (zh) * 2004-11-16 2007-10-24 皇家飞利浦电子股份有限公司 用于局部增强的非接触式图像操作
CN101770324A (zh) * 2008-12-31 2010-07-07 商泰软件(上海)有限公司 一种实现三维图形界面互动式操作的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FUKUDA, H. ET AL.: "Development of Air Touch Interface for Floating 3D Image in the Air.", PROC. OF SPIE., vol. 6696, 12 September 2007 (2007-09-12), pages 2 *
ZHU, JIEJIE ET AL.: "Computer Vision Based Occlusion Handling Algorithm for Video-Based Augmented Reality.", JOURNAL OF COMPUTER-AIDED DESIGN & COMPUTER GRAPHICS., vol. 19, no. 12, December 2007 (2007-12-01) *

Similar Documents

Publication Publication Date Title
US9866825B2 (en) Multi-view image display apparatus and control method thereof
TWI637348B (zh) 影像顯示裝置和影像顯示方法
WO2012090429A1 (ja) ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
EP2905960A1 (en) Display apparatus and controlling method thereof
JP2017535755A5 (zh)
JP2011193348A (ja) 立体画像表示装置の視差量決定装置およびその動作制御方法
WO2016169409A1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
TW201229844A (en) Electronic device and method for correcting touch position
TW201225640A (en) Apparatus and method for displaying stereoscopic images
US11711507B2 (en) Information processing apparatus, program and information processing method
US20130076738A1 (en) 3d display method and system with automatic display range and display mode determination
US20190333468A1 (en) Head mounted display device and visual aiding method
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
TWI528785B (zh) 立體影像的調整裝置及其方法
TWI471799B (zh) 立體互動影像之處理方法及系統
TWI486054B (zh) A portrait processing device, a three-dimensional image display device, a method and a program
CN105867597B (zh) 3d交互方法及3d显示设备
WO2013097162A1 (zh) 立体互动图像的处理方法及系统
JP5765418B2 (ja) 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム
USRE46755E1 (en) Method for playing corresponding 3D images according to different visual angles and related image processing system
TWI411760B (zh) Calculation of the distance between eyes
US20140085434A1 (en) Image signal processing device and image signal processing method
JP2012169822A (ja) 画像処理方法及び画像処理装置
JP6269692B2 (ja) 表示装置、電子機器、およびプログラム
JP5879856B2 (ja) 表示装置、表示方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11878986

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11878986

Country of ref document: EP

Kind code of ref document: A1