CN101872277A - 一种立体成像的触控装置 - Google Patents

一种立体成像的触控装置 Download PDF

Info

Publication number
CN101872277A
CN101872277A CN200910133997A CN200910133997A CN101872277A CN 101872277 A CN101872277 A CN 101872277A CN 200910133997 A CN200910133997 A CN 200910133997A CN 200910133997 A CN200910133997 A CN 200910133997A CN 101872277 A CN101872277 A CN 101872277A
Authority
CN
China
Prior art keywords
touch
dimensional imaging
control
unit
stereopsis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN200910133997A
Other languages
English (en)
Inventor
叶裕洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
E Touch Corp
Original Assignee
E Touch Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by E Touch Corp filed Critical E Touch Corp
Priority to CN200910133997A priority Critical patent/CN101872277A/zh
Priority to CA2672109A priority patent/CA2672109A1/en
Priority to EP09166334A priority patent/EP2244170A1/en
Priority to KR1020090070633A priority patent/KR101119781B1/ko
Publication of CN101872277A publication Critical patent/CN101872277A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Abstract

本发明提供了一种立体成像的触控装置,其包括一影像采集端、一中央处理单元与一触控显示端,所述影像采集端、所述中央处理单元与所述触控显示端依序电连接;所述触控显示单元具有可供触控体进行触控并计算动作轨迹的触控单元、可将立体影像转为多重影像的立体成像单元,则触控显示端设置于显示单元时,所述显示单元显示的立体影像可依据动作轨迹进行即时变化,达到虚拟的立体影像触控的互动效果。

Description

一种立体成像的触控装置
技术领域
本发明提供了一种触控装置,尤其涉及一种可显示立体影像,并在触控时所述立体影像可随之产生对应动作的立体成像的触控装置。
背景技术
随着显示技术的进步,平面显示已经做到高解析度、高全彩的显示效果了,然而,还不够满足人们对于视觉上的感受,在平面显示上,无法感受到深浅、远近的视觉效果,同时,如欲观察所显示的物体其他部分,必须等待影像转换后,才能观察到其他不同方位的影像。
因此,便有许多业者研发可显示立体影像的显示器,其主要在于,一个物体经光线照射后,反射的光线经过肉眼在接收,由视觉神经传达到脑部,会合成为一个立体的影像,而此时的物体是一个实际的立体物体,但由显示器上并无法实际产生一个立体的物体,因此,便可通过光栅等技术,将显示器产生的影像,至少区分为两个,一个专门供左眼接收,另一个则供右眼接收,则在脑中便会呈现一个立体的影像。
目前所熟知的技术有极化区分法(Polarization Division)、时间区分法(Time Division)、波长区分法(Wavelength Division)以及空间区分法(Spatial Division)等;
极化区分法(Polarization Division):在荧幕进行影像输入之前,先通过左右不同偏光方向的偏光板,使得所产生的影像有二种不同偏光方向的画面,即让左右两眼影像的光偏极化方向不同,一个光偏极化是水平方向,另一个光偏极化是垂直方向。使用者所戴的偏极化眼镜也是左右偏极化互相垂直的镜片,偏极化眼镜的左眼是水平偏极化片,仅让水平偏极化影像通过,将垂直偏极化影像挡掉。偏极化眼镜的右眼是垂直偏极化片,仅让垂直偏极化影像通过,而挡掉水平偏极化的影像。
时间区分法(Time Division):让左右两眼的影像在不同时间呈现,假设要呈现左眼的视场画面,此时立体眼镜的左眼视窗会打开,右眼视窗则是关闭的。在下一时间要呈现右眼画面,此时立体眼镜的右眼视窗打开,左眼视窗关闭。所以,左眼仅见左眼视角影像,右眼仅见右眼的视角影像,如果发射器和立体眼镜配合得很好,立体眼镜的两个镜片可以每秒各别遮蔽60次,再通过视觉暂留的原理,我们的大脑会将左右眼各别接收的影像融合成一个立体影像。
波长区分法(Wavelength Division):将左右眼的影像先作偏红和偏绿的画面处理,而观赏者戴上左眼红色、右眼绿色的有色眼镜,左眼只看到红色的左眼视角影像,右眼只看到绿色的右眼视角影像,利用左右不同颜色的画面处理来建构出立体影像。
空间区分法(Spatial Division):即左右两眼的影像分别各自使用独立显示的显示器,左眼显示器显示左眼的视角画面,右眼显示器显示右眼的视角画面。或利用左右影像插排融合的技术,再加上复眼透镜面板(Lenticular Sheet)或视差遮障(Parallax Barrier)于融合影像上,以用来限制左右影像分别进入左右眼,再经过大脑的自动整合后,产生立体深度的影像效果。
以上所述四种方法所呈现的影像都有不同程度的立体效果。而现今大部分在一般平面荧幕上所呈现出的立体影像,在欣赏画面的同时还需配戴其应对的立体眼镜来观看,因此,这样的立体显示系统又可称为Eyeglass-type 3D system。
虽然,Eyeglass-type所显示的影像也有不错的立体效果,然而需配戴眼镜观看,则很难让一般人普遍地接受。除了立体眼镜外观较为特殊外,最主要的原因,在于一般人面对不习惯的介面方式,常会导致一些潜在的人因问题。以头盔式显示器(HMD)为例,有越来越多的研究报告指出,长时间配戴HMD会导致头晕、呕心等现象,因此,免戴镜、自由观赏空间的特点,才是现今立体影像显示的发展方向。
现行裸眼可视的3D立体影像显示方法,复眼透镜面板、视差遮障法、双差视差法或光源狭缝化的方式来实现。
视差遮障法,主要仍是利用双眼的视差来产生立体感,将取得的两个不同角度的影像,分别做等距离的分割成垂直线条状,然后利用插排(interlace)的方式将左右影像交错地融合在一起,则融合图形的偶数部分是右影像;奇数部分是左影像。然而,要达到立体的效果,还需利用透光狭缝(Slit)与不透光遮障(Barrier)垂直相间的光栅条纹,放置于融合图形之上,而狭缝与遮障的宽度,与左右影像切割的宽度一致,并利用遮障的遮蔽作用,来限制左右眼分别看到左右影像,使双眼所看到的影像产生差异而有立体的感觉。但要注意的是,遮障线条与融合图形之间要有一定的距离,才能让左右眼分别看到交错的影像,产生所要的立体感。
当立体成像的技术出现后,随之出现的问题,便是应用于触控面板上了,触控技术已随着科技的发展,以完全结合于型态,如映像管是显示器、液晶显示器等的显示器中,因此,当显示器显示的影像为立体影像时,在使用者进行触控的过程中,所述立体影像势必随之互动才行,因此,如何能使立体影像配合触控时的动作,产生对应的变化,即为本案发明构想的产生。
再者,现行的即时立体影像显示,如美国专利公报,公告号第6404913的Image synthesizing apparatus and method,position detecting apparatus and method,and supply medium,所述专利提出了一个连续立体影像的产生方法,其通过多个摄影装置捕捉物体的表面后,即时显示于液晶面板等显示器上,并透座标预测与座标计算等方式,使立体影像显示更为逼真,但在所述篇专利中,其虽然可以显示立体影像,但并没有立体影像与使用者之间互动技术;换而言之,使用者在观察立体影像时,必须通过外部的键盘、滑鼠等输入装置进行影像的外制或角度的转换,如此便丧失了即时立体影像显示的功效。
发明内容
有鉴于上述的需求,本发明人精心研究,并积个人从事所述项事业的多年经验,终设计出一种崭新的立体成像的触控装置。
本发明的一目的,在于提供一种可显示立体影像的触控装置。
本发明的一目的,在于提供一种采集物体立体影像的触控装置。
本发明的一目的,在于提供一种触控时的立体影像会随之动作的触控装置。
为达上述目的,本发明提供了一种立体成像的触控装置,其包括一影像采集端、一中央处理单元与一触控显示端,所述影像采集端、所述中央处理单元与所述触控显示端依序电连接,所述影像采集端设有一第一影像采集单元和一第二影像采集单元,所述第一影像采集单元用以采集一预设触控体或一预设物体的一第一影像,所述第二影像采集单元用以采集一预设触控体或一预设物体的一第二影像,并将所述第一影像和所述第二影像传输到所述中央处理单元,则所述中央处理单元依据所述第一影像和所述第二影像,产生所述预设物体的一立体影像,或者所述预设触控体的动作轨迹。
所述触控显示端连接至一显示单元,所述触控显示端设有一触控单元与一立体成像单元,所述触控单元包括一触控面板与一触控驱动元件,所述触控面板与所述触控驱动元件依序电连接;以及所述立体成像单元依序设有一立体成像转换板与一立体成像驱动元件;所述触控面板、所述立体成像转换板与所述液晶面板由上至下依序叠设而成,所述触控驱动元件、所述显示驱动元件与所述立体成像驱动元件则分别电连接至所述中央处理单元。
所述立体影像由所述中央处理单元内的一立体影像合成单元整合后,传送至所述触控显示端,则所述显示单元显示所述立体影像,同时,所述立体成像驱动单元所述立体影像转为一多重影像,所述多重影像经肉眼接收后即为一立体影像。
当一触控体在所述触控显示端进行触控时,所述触控单元的计算所述触控体的动作轨迹,由所述中央处理单元纪录动作轨迹的变化,使所述显示单元所显示的立体影像随着所述动作轨迹产生对应的变化。
与现有技术相比,本发明所述的立体成像的触控装置,可显示立体影像,并在触控时所述立体影像可随之产生对应动作。
附图说明
图1为本发明较佳实施例的方块图一;
图2为本发明较佳实施例的方块图二;
图3为本发明较佳实施例的立体示意图;
图4为本发明较佳实施例的流程图一;
图5为本发明较佳实施例的流程图二;
图6为本发明较佳实施例的流程图三。
附图标记说明:影像采集端-1;第一影像采集单元-11;第二影像采集单元-12;立体影像合成单元-2;中央处理单元-3;触控单元-4;触控驱动元件-41;触控面板-42;立体成像单元-5;立体成像驱动元件-51;立体成像转换板-52;显示单元-6;显示驱动元件-61;液晶面板-62;触控显示端-7。
具体实施方式
为使贵审查员能清楚了解本发明的内容,仅以下列说明搭配附图,敬请参阅。
请参阅图1、图2、图3所示,为本发明较佳实施例的方块图一、二与立体示意图,如图所示,本发明的立体成像的触控装置包括一影像采集端1、一中央处理单元3与一触控显示端7,其中:
所述影像采集端1至少具有一第一影像采集单元11、一第二影像采集单元12,所述第一影像采集单元11用以采集一预设触控体的一第一影像,所述第二影像采集单元12用以采集一预设触控体的一第二影像,或者所述第一影像采集单元11和所述第二影像采集单元12用以采集近距离内的物体外观。为了使采集的影像能够更具立体效果,所述影像采集端1也可设置为三个、四个甚至更多个影像采集单元。一般而言,所述第一影像采集单、所述第二二影像采集单元主要为一电荷耦合元件(Charge-coupled Device,CCD),而能直接产生所述第一影像、第二影像,其他如红外线感测器或超音波感测器等,也可作为所述影像采集单元,利用红外线或超音波等,来采集所述触控体的不同表面的外观感测信号,另外,本发明所谓的所述触控体,就实际应用上来说,可为人的手指、专门供触控用的触控笔或一般可用于触控的物体,都属于本发明所述的所述触控体的范畴。
所述中央处理单元3与后述的触控显示端7的各单元电连接,所述中央处理单元3主要用以接收所述立体影像以及接收后述的动作轨迹,而计算所述立体影像依据所述动作轨迹所产生的变化。
例如,所述立体影像呈现一三角锥体,且尖端部份朝向使用者肉眼直视方向,此时所述动作轨迹由上至下,则所述三角锥体将随之旋转,而将底部平坦面正对使用者肉眼直视方向,本段的叙述仅为举例说明所述立体影像与动作轨迹间的互动关系,其他如任意角度的旋转、放大动作、水平或垂直的移动等等,也属于本发明所保护的范畴。
再者,所述中央处理单元3设有一立体影像合成单元2,所述立体影像合成单元2分别与所述第一影像采集单元11和所述第二影像采集单元12电连接,所述立体影像合成单元2用以接收所述第一影像采集单元11、第二影像采集单元12所传输的所述第一影像、第二影像,并将所述第一影像和所述第二影像合成为一立体影像,参照所述第一影像采集单元11、所述第二影像采集单元12为电荷耦合元件时,所述立体影像合成单元2则将所述第一影像和所述第二影像整合为立体影像信号,又所述立体影像合成单元2在立体影像产生时,可通过视差遮障法、双差视差法或光源狭缝化等方式进行。
另外,当第一影像采集单元11、第二影像采集单元12采集所述触控体在触控动作时的所述第一影像、第二影像,则所述立体影像合成单元2在产生所述立体影像后,同时计算出所述触控体的动作轨迹。
所述触控显示端7为包括有一触控单元4与一立体成像单元5所构成,并与一外部预设的显示单元6连接,其中:
所述触控单元4包括一触控面板42和一触控驱动元件41,所述触控面板42和所述触控驱动元件41电连接;且所述触控驱动元件41与所述中央处理单元3电连接;所述触控驱动元件41用以记录所述触控体在所述触控面板42上的所述动作轨迹,并将所述动作轨迹传输至所述中央处理单元3。而所述触控面板42一般而言,可为电阻式触控面板、电容式触控面板、红外线式触控面板、光学式触控面板或超音波式触控面板,不论何种形式的触控面板42,在所述触控体接触时,所述触控驱动元件41将会记录所述触控体移动时的动作轨迹,而动作轨迹除了单一方向的动作外,也可为多方向的动作,以手指的触控举例来说,食指与大拇指同时接触到所述触控面板42,则所述触控驱动元件41将感测到两个接触点,并纪录两个接触点的移动方向,则所述接触点的移动方向可为同方向或不同方向等。
所述显示单元6包括一液晶面板62和一显示驱动元件61,所述液晶面板62和所述显示驱动元件61电连接;且所述显示驱动元件62与所述中央处理单元3电连接,在本实施例中,所述显示单元6以液晶显示器作说明,而举凡阴极射线管(Cathode Ray Tube,CRT)显示器、液晶显示器(Liquid Crystal Display,LCD)、电浆显示器(Plasma Display Panel,PDP)、表面传导电子发射(Surface conduction electron-emitter,SED)显示器或场发射显示器(Field Emission Display,FED)等等,并不限定所述显示单元6的型态。
所述立体成像单元2包括一立体成像转换板52和一立体成像驱动元件51,所述立体成像转换板52和所述立体成像驱动元件51电连接,且所述立体成像驱动元件51与所述中央处理单元3电连接。
所述立体成像驱动元件51用以驱动所述立体成像转换板52,则,当显示单元6产生立体影像后,由所述立体影像转换板52接收,将所述立体影像转为一多重影像,所述多重影像可使所述立体影像依照人肉眼接收影像的特性,区分为左眼与右眼分别接收的影像,经肉眼视差接收后即为所述立体影像;又所述立体成像转换板52为具有光闸结构或复眼透镜面板等,将所述显示单元产生的所述立体影像分为所述多重影像。
请参阅图2、图4所示,为发明较佳实施例的方块图二与动作流程图一,本发明依照下列方式进行立体成像:
(100)中央处理器传输一预设的立体影像至所述显示单元;
在上述步骤进行时,由所述中央处理单元3传输一预定的立体影像至所述显示单元6,所述立体影像可预先储存于预设的储存媒体内,例如所述触控装置结合于移动电话、液晶荧幕、电视荧幕时,所述储存媒体可为存储器、存储卡、硬盘、光盘等。
(101)所述显示单元显示所述立体影像,且所述立体影像通过所述触控显示端的所述立体成像单元;
(102)所述立体成像单元将所述立体影像转为所述多重影像;
(103)所述多重影像经肉眼视收后即为一立体影像。
在上述步骤进行时,所述显示单元6的显示驱动元件61接收到所述中央处理单元3传输的立体影像,便驱动所述液晶面板62显示所述立体影像(由于液晶面板的显像原理为公开且实行的多年的技术,同时并非本发明的诉求,因此不赘述),同时,所述立体成像单元5的立体成像驱动元件51驱动所述立体成像转换板52动作,由于所述立体成像转换板52叠设于所述液晶面板62上方,因此由所述液晶面板62产生的立体影像,将由所述立体成像转换板52转为多重影像,其可使所述立体影像依照人肉眼接收影像的特性,区分为左眼与右眼分别接收的影像,经肉眼视差接收后即为所述立体影像。
请参阅图2、图5所示,为本发明较佳实施例的方块图二与动作流程图二,本发明为依照下列步骤进行立体成像的触控动作:
(200)所述显示单元显示所述立体影像;
上述步骤进行过程如同前述流程图一的叙述,将不赘述。
(201)所述触控体在所述触控显示端进行触控动作;
上述步骤进行时,所述触控体将直接接触到所述触控单元4的所述触控面板,并直接在所述触控面板4的表面上进行触控的动作,可称作接触式触控。
(202)所述触控显示端计算所述触控体的所述动作轨迹;
(203)所述动作轨迹经所述中央处理单元传输至所述显示单元;
上述步骤进行时,所述触控驱动元件41将会记录所述触控体移动时的动作轨迹,例如单一方向移动、多个方向的移动、线性移动或非线性移动等等,并通过座标运算等计算动作轨迹的移动量。
(204)所述显示单元依据所述动作轨迹使显示中的所述立体影像产生对应的变化。
上述步骤进行时,所述中央处理单元3接收所述动作轨迹后,将动作轨迹配合预定的动作,使所述立体影像依据所述动作轨迹产生对应的变化,而在所述显示单元6所显示的立体影像将随之动作,例如,动作轨迹由上至下,则所述立体影像会上下旋转,或者,动作轨迹为两个接触点的距离逐渐变长,则所述立体影像会随之放大等等;同时,通过所述立体成像单元5使所述立体影像分为多重影像,即区分为仅供左眼接收的影像以及仅供右眼接收的影像,经左右两眼分别接收专属的影像后,在脑中便产生立体影像的即时动作效果。
请参阅图2、图6所示,为本发明较佳实施例的方块图2与动作流程图3,本发明为依照下列步骤进行立体成像的触控动作:
(300)所述显示单元显示所述立体影像;
上述步骤进行过程如同前述流程图一的叙述,将不赘述。
(301)所述触控体在所述触控显示端进行触控动作;
上述步骤进行时,所述触控体接近但并未接触到所述触控单元4的所述触控面板,而是在所述触控面板4的表面上空进行触控的动作,可称作非接触式触控。
(302)所述影像采集端的第一影像采集单元、第二影像采集单元分别采集所述触控体的第一影像、第二影像;
上述步骤进行时,所述第一影像采集单元11、第二影像采集单元12将采集所述触控体不同角度的影像,例如正反或左右等。
(303)所述中央处理单元由所述第一影像、第二影像整合所述触控体在触控时的所述动作轨迹;
上述步骤进行时,所述立体影像合成单元51接收所述第一影像采集单元11、第二影像采集单元12所传输的第一影像、第二影像,并通过立体运算,例如CAD中常见的三维模拟等,产生所述触控体的动作轨迹。
(304)所述动作轨迹经所述中央处理单元传输至所述显示单元;
(305)所述显示单元依据所述动作轨迹使显示中的所述立体影像产生对应的变化。
上述步骤进行时,所述中央处理单元3接收所述动作轨迹后,将动作轨迹配合预定的动作,使所述立体影像依据所述动作轨迹产生对应的变化,而在所述显示单元6所显示的立体影像将随之动作,同时,通过所述立体成像单元5使所述立体影像分为多重影像,经左右两眼分别接收后,在脑中便产生立体影像的即时动作效果。
以上所述,仅为本发明的较佳实施例而已,并非用以限定本发明实施的范围;本领域普通技术人员,在不脱离本发明的精神与范围下所作的均等变化与修饰,都应涵盖于本发明的专利范围内。
综上所述,本发明的立体成像的触控装置,具有专利的发明性,及对产业的利用价值;申请人依专利法的规定,向钧局提起发明专利的申请。

Claims (19)

1.一种立体成像的触控装置,其特征在于,其包括:
一影像采集端,具有一第一影像采集单元和一第二影像采集单元,所述第一影像采集单元用以采集一预设物体的一第一影像,所述第二影像采集单元用以采集一预设物体的一第二影像;
一触控显示端,包括一触控单元与一立体成像单元,所述触控单元用以记录一预设触控体在触控时的一动作轨迹,而所述立体成像单元用以将一立体影像转为一多重影像,所述多重影像经肉眼接收后即为一立体影像,以及;
一中央处理单元,分别与所述影像采集端和所述触控显示端电连接;所述中央处理单元用以将所述第一影像和所述第二影像合成为一立体影像,以及接收所述动作轨迹,而将所述立体影像与所述动作轨迹传输至一预设的显示单元,令所述显示单元依据所述动作轨迹显示所述立体影像的即时动作。
2.如权利要求1所述的立体成像的触控装置,其特征在于,所述第一影像采集单元和所述第二影像采集单元为一电荷耦合元件。
3.如权利要求1所述的立体成像的触控装置,其特征在于,所述第一影像采集单元和所述第二影像采集单元为一红外线感测器,其产生所述预设物体的不同表面的外观感测信号,而由所述中央处理单元将该外观感测信号合成为所述立体影像。
4.如权利要求1所述的立体成像的触控装置,其特征在于,所述第一影像采集单元和所述第二影像采集单元为一超音波感测器,其产生预设物体的不同表面的外观感测信号,而由所述中央处理单元将该外观感测信号合成为所述立体影像。
5.如权利要求1所述的立体成像的触控装置,其特征在于,所述第一影像采集单元还采集所述触控体的第一影像,所述第二影像采集单元还采集所述触控体的第二影像,且所述中央处理单元由所述第一、二影像整合所述触控体的触控动作轨迹。
6.如权利要求1所述的立体成像的触控装置,其特征在于,所述触控单元为具有一供所述触控体进行触控的触控面板,以及一用以计算所述触控体的所述动作轨迹的触控驱动元件。
7.如权利要求6所述的立体成像的触控装置,其特征在于,所述触控面板为电阻式触控面板、电容式触控面板、红外线式触控面板、光学式触控面板或超音波式触控面板。
8.如权利要求1所述的立体成像的触控装置,其特征在于,所述立体成像单元为具有一可将所述立体影像转为所述多重影像的立体成像转换板,以及一用以驱动所述立体成像转换板动作的立体成像驱动元件。
9.如权利要求8所述的立体成像的触控装置,其特征在于,所述立体成像转换板为光闸结构或复眼透镜面板。
10.如权利要求9所述的立体成像的触控装置,其特征在于,所述多重影像至少区分为左眼影像或右眼影像。
11.如权利要求1所述的立体成像的触控装置,其特征在于,所述中央处理单元设有一能将所述第一影像和所述二影像合成为所述立体影像的立体影像合成单元。
12.如权利要求11所述的立体成像的触控装置,其特征在于,所述立体影像合成单元在合成所述立体影像时,使用视差遮障法、双差视差法或光源狭缝化。
13.如权利要求1所述的立体成像的触控装置,其特征在于,所述触控显示端的所述触控单元叠设于所述立体成像单元上,以及所述立体成像单元叠设于所述显示单元上,所述显示单元显示的所述立体影像将通过所述立体成像单元。
14.如权利要求1所述的立体成像的触控装置,其特征在于,所述显示单元为阴极射线管显示器、液晶显示器、电浆显示器、表面传导电子发射显示器或场发射显示器。
15.如权利要求1所述的立体成像的触控装置,其特征在于,所述触控显示端依照下列方式进行立体成像:
所述中央处理单元传输一预设立体影像至所述显示单元;
所述显示单元示所述立体影像,且所述立体影像通过所述触控显示端的所述立体成像单元;
所述立体成像单元将所述立体影像转为所述多重影像;
所述多重影像经肉眼接收后即为所述预设立体影像。
16.如权利要求1所述的立体成像的触控装置,其特征在于,所述触控装置依照下列步骤进行立体成像的触控动作:
所述显示单元显示所述立体影像;
所述触控体在所述触控显示端进行触控动作;
所述触控显示端计算所述触控体的所述动作轨迹;
所述动作轨迹经所述中央处理单元传输至所述显示单元;
所述显示单元依据所述动作轨迹使显示中的所述立体影像产生对应的变化。
17.如权利要求16所述的立体成像的触控装置,其特征在于,所述触控体在所述触控显示端进行触控动作的步骤中,所述触控动作为接触式触控。
18.如权利要求1所述的立体成像的触控装置,其特征在于,所述触控装置依照下列步骤进行立体成像的触控动作:
所述显示单元显示所述立体影像;
所述触控体在所述触控显示端进行触控动作;
所述影像采集端的所述第一影像采集单元采集所述触控体的第一影像,所述影像采集端的所述第二影像采集单元采集所述触控体的第二影像;
所述中央处理单元由所述第一影像和所述第二影像整合所述触控体在触控时的所述动作轨迹;
所述动作轨迹经所述中央处理单元传输至所述显示单元;
所述显示单元依据所述动作轨迹使显示中的所述立体影像产生对应的变化。
19.如权利要求18所述的立体成像的触控装置,其特征在于,所述触控体在所述触控显示端进行触控动作的步骤中,所述触控动作为非接触式触控。
CN200910133997A 2009-04-22 2009-04-22 一种立体成像的触控装置 Pending CN101872277A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN200910133997A CN101872277A (zh) 2009-04-22 2009-04-22 一种立体成像的触控装置
CA2672109A CA2672109A1 (en) 2009-04-22 2009-07-17 Stereo imaging touch device
EP09166334A EP2244170A1 (en) 2009-04-22 2009-07-24 Stereo imaging touch device
KR1020090070633A KR101119781B1 (ko) 2009-04-22 2009-07-31 스테레오 영상화 터치 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200910133997A CN101872277A (zh) 2009-04-22 2009-04-22 一种立体成像的触控装置

Publications (1)

Publication Number Publication Date
CN101872277A true CN101872277A (zh) 2010-10-27

Family

ID=42199559

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200910133997A Pending CN101872277A (zh) 2009-04-22 2009-04-22 一种立体成像的触控装置

Country Status (4)

Country Link
EP (1) EP2244170A1 (zh)
KR (1) KR101119781B1 (zh)
CN (1) CN101872277A (zh)
CA (1) CA2672109A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103587479A (zh) * 2012-08-14 2014-02-19 辉达公司 一种用于倒车的裸眼三维视频系统和包括该系统的车辆
CN106095134A (zh) * 2016-06-07 2016-11-09 苏州佳世达电通有限公司 一种电子装置及其记录与显示方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222364B (zh) * 2011-08-13 2012-09-19 南昌航空大学 基于红外多路人工复眼的三维表面形貌重建方法
KR101409845B1 (ko) * 2012-12-20 2014-06-19 전자부품연구원 영상 표시 장치 및 방법
CN105843378A (zh) * 2016-03-17 2016-08-10 中国农业大学 基于体感交互控制的服务终端及其控制方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384859B1 (en) 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
CA2254344A1 (en) 1997-03-14 1998-09-24 Sony Corporation Image synthesizing device and method, position detecting device and method, and supply medium
SE523636C2 (sv) * 2001-07-22 2004-05-04 Tomer Shalit Ab Portabelt datoriserat handhållet organ och förfarande för hantering av ett på en skärm visat objekt
JP4631443B2 (ja) 2005-01-13 2011-02-16 ソニー株式会社 触覚機能付きの入出力装置及び電子機器

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103587479A (zh) * 2012-08-14 2014-02-19 辉达公司 一种用于倒车的裸眼三维视频系统和包括该系统的车辆
US9272664B2 (en) 2012-08-14 2016-03-01 Nvidia Corporation Naked eye 3D video system for backing a vehicle and vehicle including the system
CN106095134A (zh) * 2016-06-07 2016-11-09 苏州佳世达电通有限公司 一种电子装置及其记录与显示方法
CN106095134B (zh) * 2016-06-07 2019-01-18 苏州佳世达电通有限公司 一种电子装置及其记录与显示方法

Also Published As

Publication number Publication date
KR20100116513A (ko) 2010-11-01
CA2672109A1 (en) 2010-10-22
EP2244170A1 (en) 2010-10-27
KR101119781B1 (ko) 2012-05-07

Similar Documents

Publication Publication Date Title
CN103873844B (zh) 多视点自动立体显示器及控制其最佳观看距离的方法
KR101115700B1 (ko) 2차원 및 3차원 영상의 선택적 디스플레이가 가능한디스플레이 장치
KR100753517B1 (ko) 입체 영상 디스플레이 기능을 갖는 이동통신 단말기 및이를 이용한 입체 영상 디스플레이 방법
CN105374325B (zh) 可弯曲立体3d显示装置
CN101361016A (zh) 用于显示3d图像的装置
CN103605211A (zh) 平板化无辅助立体显示装置及方法
KR20140089860A (ko) 디스플레이 장치 및 그 디스플레이 방법
CN102281454B (zh) 立体图像显示装置
CN101872277A (zh) 一种立体成像的触控装置
CN102647604A (zh) 图像显示装置
CN101783968A (zh) 立体显示器
CN105430369A (zh) 自动立体三维显示设备
CN104635337A (zh) 可提高立体图像显示分辨率的蜂窝式透镜阵列设计方法
KR100980298B1 (ko) 모델링된 2차원 영상의 3차원 영상 변환 방법
CN102547351A (zh) 一种立体显示系统及用其实现单屏两视频内容输出的方法
CN202218350U (zh) 3d电视机
May A survey of 3-D display technologies
KR101951297B1 (ko) 영상표시장치
JP2010267192A (ja) 立体結像のタッチ制御装置
CN102073162B (zh) 立体显示设备及其显示方法
KR102334031B1 (ko) 무안경 입체영상표시장치 및 그 구동방법
TW201310069A (zh) 利用聲光效應、具焦距可調功能的立體影像顯示裝置
CN201159797Y (zh) 一种自动立体成像显示器
JP4481275B2 (ja) 3次元映像情報の伝送方法
KR20160024283A (ko) 렌티큘러 렌즈 방식의 입체영상표시장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20101027