CN112130659A - 互动式立体显示装置与互动感应方法 - Google Patents

互动式立体显示装置与互动感应方法 Download PDF

Info

Publication number
CN112130659A
CN112130659A CN201910554044.1A CN201910554044A CN112130659A CN 112130659 A CN112130659 A CN 112130659A CN 201910554044 A CN201910554044 A CN 201910554044A CN 112130659 A CN112130659 A CN 112130659A
Authority
CN
China
Prior art keywords
stereoscopic image
stereoscopic
interactive
gesture
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910554044.1A
Other languages
English (en)
Inventor
杨钧翔
张凯杰
丁志宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mirage Start Co ltd
Lixel Inc
Original Assignee
Mirage Start Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mirage Start Co ltd filed Critical Mirage Start Co ltd
Priority to CN201910554044.1A priority Critical patent/CN112130659A/zh
Publication of CN112130659A publication Critical patent/CN112130659A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种互动式立体显示装置与互动感应方法,在方法中,在立体影像显示装置显示一立体影像时,利用手势感测器感测到在立体影像上的手势,如移动、旋转或缩放动作,可得出对应手势的立体坐标变化量,可以从立体坐标变化量判断一互动指令,接着,可以立体影像显示装置本身,或是通过一立体影像服务器,以此互动指令对照立体影像的影像坐标信息,产生一新的立体影像数据,其特征在于,描述立体影像的色彩信息与三维空间信息,之后在立体影像显示装置上以新的立体影像数据显示新的立体影像。如此,可达到以手势与立体影像互动的效果。

Description

互动式立体显示装置与互动感应方法
技术领域
本发明关于一种立体显示装置,特别涉及可通过显示的立体影像进行互动的互动式立体显示装置与其互动感应方法。
背景技术
一般已知的立体显示装置所采用的技术多半是利用人类双眼视差在脑中组合成具有深度的立体影像的方式,通过显示器显示的影像即设计成两张有差异的画面,当使用者使用特定装置,如红蓝眼镜、偏光眼镜或是快门眼镜,甚至是一种头戴式显示器,就可以将显示器显示的两张有差异的画面分别投射到双眼,之后再于脑中组合成立体影像。
另有裸视立体显示的技术,通过光学组件(透镜、光栅)的设计,可将显示器中影像分别直接投射在人的双眼上,使得在无须特殊装置的情况下直接感受到立体影像。
在各式立体显示技术中,都仍是显示的技术,并未提出让使用者可以直接操作立体影像的互动技术,主要原因是,常见的立体影像显示技术都是在脑中组合的虚像,无法直接与影像产生互动。
发明内容
公开书公开一种互动式立体显示装置与互动感应方法,提供使用者可以用手势在用立体影像显示装置所显示的立体影像上进行互动,让使用者以手势执行移动、旋转或缩放动作,通过转换,可从手势得到立体坐标变化量,能据此判断互动指令,并对应形成新的立体影像,达到以手势与立体影像互动的效果。
根据一实施例,在互动式立体显示装置的互动感应方法中,使用立体影像显示装置根据一立体影像数据显示一立体影像,这时,以一手势感测器感测手势,并得出对应手势的坐标变化量,这个坐标变化量用以判断一互动指令。之后,可以此互动指令对照目前显示的立体影像的影像坐标信息,例如,根据互动指令演算出新的立体影像的影像坐标信息,再经查询影像数据库后得出对应新的立体影像数据,可以此新的立体影像数据显示新的立体影像。
进一步地,提出一种立体影像服务器,可根据互动指令提供立体影像数据,提供立体影像显示装置显示立体影像。
根据手势感测器的实施方式,可以影像检测、光线遮断或声波反射的技术判断出手势,手势可反映出使用者操作时手指、手掌位置与指关节的立体坐标的变化,包括移动、旋转与缩放动作的其中之一或任意组合。
根据互动式立体显示装置的实施例,包括有立体影像显示装置,能根据立体影像数据显示立体影像,以及手势感测器,用以感测手势,并取得手势形成的立体坐标变化,如此,在装置中执行的互动感应方法中,利用手势感测器感测手势,根据手势得出的坐标变化量,能够得到互动指令,经对照立体影像的影像坐标信息,产生新的立体影像数据,再显示出立体影像。
在另一实施例中,所述互动式立体显示装置更连结一立体影像服务器,所述立体影像数据可由立体影像服务器提供,并于立体影像服务器接收互动指令时,可根据互动指令经查询影像料库后提供新的立体影像数据。
在一实施例中,立体影像数据用在描述以立体影像显示装置显示立体影像的色彩信息与三维空间信息。
在一实施例中,立体影像数据由一立体影像服务器提供,立体影像数据为提供立体影像显示装置直接显示立体影像的数据,在根据立体坐标变化量判断出互动指令时,传送互动指令至立体影像服务器,由立体影像服务器根据互动指令提供新的立体影像数据。
在一实施例中,在立体影像服务器中,当接收互动指令时,根据互动指令演算出新的立体影像的影像坐标信息,经查询一影像数据库后得出对应新的立体影像数据。
在一实施例中,手势感测器以一影像检测手段、一光线遮断手段或一声波反射手段判断手势。
在一实施例中,手势反映一手的手指、手掌位置与指关节的立体坐标的变化,互动指令指出移动、旋转与缩放动作的其中之一或任意组合。
在一实施例中,在得出互动指令后,执行一坐标转换,将互动指令在以手势感测器形成的坐标系的坐标信息转换至以立体影像显示装置形成的坐标系中。
再进一步地,提出一种互动式立体显示装置,包括:一立体影像显示装置,根据一立体影像数据显示一立体影像;以及一手势感测器,用以感测一手势,并取得手势形成的一立体坐标变化量;在立体影像显示装置中,取得手势感测器所感测手势得出的立体坐标变化量,再根据立体坐标变化量判断一互动指令,以对照立体影像的影像坐标信息,产生一新的立体影像数据,再以新的立体影像数据显示一新的立体影像。
在一实施例中,更连结一立体影像服务器,立体影像数据由立体影像服务器提供,于立体影像服务器中,于接收互动指令时,根据互动指令经查询一影像料库后提供新的立体影像数据。
在一实施例中,手势感测器以一影像检测手段、一光线遮断手段或一声波反射手段判断手势,手势反映一手的手指、手掌位置与指关节的立体坐标的变化,互动指令指出移动、旋转与缩放动作的其中之一或任意组合。
为使能更进一步了解本发明的特征及技术内容,请参阅以下有关本发明的详细说明与附图,然而所提供的附图仅用在提供参考与说明,并非用来对本发明加以限制。
附图说明
图1显示互动式立体显示装置的实施例示意图;
图2显示互动式立体显示装置的电路实施例图;
图3显示互动式立体显示装置的另一实施例示意图;
图4显示以互动式立体显示装置执行互动感应方法的实施例流程图之一;
图5显示以互动式立体显示装置执行互动感应方法的实施例流程图之二;
图6显示以互动式立体显示装置执行互动感应方法的实施例流程图之三。
具体实施方式
以下是通过特定的具体实施例来说明本发明的实施方式,本领域技术人员可由本说明书所公开的内容了解本发明的优点与效果。本发明可通过其他不同的具体实施例加以施行或应用,本说明书中的各项细节也可基于不同观点与应用,在不悖离本发明的构思下进行各种修改与变更。另外,本发明的附图仅为简单示意说明,并非依实际尺寸的描绘,事先声明。以下的实施方式将进一步详细说明本发明的相关技术内容,但所公开的内容并非用以限制本发明的保护范围。
应当可以理解的是,虽然本文中可能会使用到“第一”、“第二”、“第三”等术语来描述各种组件或者信号,但这些组件或者信号不应受这些术语的限制。这些术语主要是用以区分一组件与另一组件,或者一信号与另一信号。另外,本文中所使用的术语“或”,应视实际情况可能包括相关联的列出项目中的任一个或者多个的组合。
本公开公开一种互动式立体显示装置与互动感应方法,这个技术是提供使用者可以在观看显示在立体影像显示装置上的立体影像时,还能通过手势操控其中立体影像,主要方法是利用手势感测器感测到在立体影像上的手势,如移动、旋转或缩放动作,再得出对应手势的立体坐标变化量,根据所判断的互动指令,对应显示随着手势产生的立体影像,提供用户实现以手势与立体影像互动的技术目的。需要一提的是,这个立体影像可为一静态对象的一立体影像,或是动态对象的连续立体影像。
在一应用中,在所述立体影像显示装置中的显示技术可以是一种浮空显示立体影像的技术,这种技术是由一平面显示面板显示多个子影像(单元影像),多个子影像的组成一个完整的影像(集成影像),显示时,平面显示面板上显示的影像通过一层光学组件(如透镜阵列)显示,每个子影像会通过对应的透镜成像,通过多个透镜可在显示装置上形成一个完整的影像,如此,可以产生一个浮空影像的显示效果。
图1显示互动式立体显示装置的实施例示意图。
此例显示有一立体影像显示装置10,如以上描述的实施例,此立体影像显示装置10由一层光学组件101与显示面板102组成,具备影像处理器,可以处理显示内容,并具备通信能力,可以从外部影像提供来源取得立体影像数据,经影像处理后显示出立体影像103。
进一步地,立体影像显示装置10设有一手势感测器105,用以感测使用者以手12在立体影像103上的动作。所述手势感测器105可以一影像检测手段实现,主要方式是利用照相机取得手12的几个关键部位(如手指、手掌、指关节)的连续画面,通过影像处理,可以取得在一时间间隔前后的影像变化,主要为每个关键部分在手势感测器坐标系的立体坐标(如直角坐标系表示的Xsensor,Ysensor,Zsensor,或球坐标系表示的γ,θ,
Figure BDA0002106336590000051
),经连续取得后,可以得出立体坐标变化量,再转换成立体影像显示装置10坐标系的立体坐标(Xdevice,Ydevice,Zdevice)的变化量,如向量(位移、方向)、速率(距离与时间)等信息,最后可以判断出移动、旋转与缩放动作的其中之一或任意组合的互动指令。
在另一实施例中,手势感测器105可以采用光线遮断的原理来感测出手势,相关技术是先以一光源投射出感测光线,当手12进入这个光线范围内,可以光感测器检测出光线被遮断时在手部产生的光点,再从其中得出每个关键部位反射光线的量(反映变化部位)与时间差(反映深度),同样地,根据连续取得这些光线信息,可以得出手势造成的立体坐标变化量,再判断出移动、旋转与缩放动作的其中之一或任意组合的互动指令。
于再一实施例中,手势感测器105可以包括声波产生器与接收器,利用声波反射的信息判断手势。当手12在手势感测器105的感测范围中,会阻断声波,同样地产生反射波,使得声波接收器可以根据声波的变化,也就可以检测到手12的几个关键部位在空间的变化量,进而转换为立体坐标变化量,能够据此判断出移动、旋转与缩放动作的其中之一或任意组合的互动指令。
如此,利用各种感测手势技术的手势感测器105所实现的互动感应方法,可以依据手势所反映出手12的手指、手掌位置与指关节的立体坐标的变化,以判断得出移动、旋转与缩放动作的其中之一或任意组合的互动指令,之后,经对照影像数据库中记载的立体影像数据,得出立体影像103在各种手势操作下的下一个立体影像数据,显示出下一个立体影像,立体影像数据可以包括一个静态立体影像,或是连续影像形成的立体影片。当其中感测到变化、坐标转换与立体影像演算等的处理程序可以高速演算,可实时反应手势产生实时互动的效果。
图2接着显示互动式立体显示装置的电路实施例图。
图中显示的立体影像显示装置20连接手势感测器22,根据实施例,两者可整合在一个装置内,立体影像显示装置20与手势感测器22为两个内建的模块,或是,立体影像显示装置20与手势感测器22为两个独立装置,再以连线连接,能互相传递信息。
在立体影像显示装置20中,设有执行影像处理与所公开的互动感应方法的影像处理器203,电性连结其他电路组件,如输入接口201,立体影像显示装置20通过输入接口201自手势感测器22接收到感测手势的信息,输入界面201为一通信界面。根据实施例,通过输入接口201所接收的信息为手势感测器22感测到手势形成的立体坐标变化量,使得影像处理器203可以根据立体坐标变化量判断得出的互动指令,再根据互动指令演算出新的立体影像的影像坐标信息。
在影像处理器203中,当取得由手势感测器22得出的手势对应的立体坐标变化量后,可演算出旋转、放大、缩放等互动指令,依据这些互动指令,查询存储单元206中的影像数据库,以得出对应变化的立体影像数据,或是以影像处理器203根据互动指令实时演算得出新的立体影像数据,且可为静态立体影像或连续影像形成的立体影片。立体影像数据用在描述以立体影像显示装置20显示立体影像的色彩信息与三维空间信息。影像处理器203电性连接显示驱动单元204,可以根据立体影像数据的描述得出立体影像,通过显示单元205显示出来。
立体影像显示装置20以有线或无线通信方式连接手势感测器22中的界面单元223,这是一个通信界面,借此传递信息。手势感测器22设有感测组件221,实现利用光线、声波、影像等方式感测手势的技术,所谓手势可以为手部的几个关键部位产生的姿势变化,包括手指、手掌位置、指关节所代表的手势位置。
控制单元222为手势感测器22中的控制电路,通过接口单元223连接立体影像显示装置20,控制单元222能够根据感测组件221得到的感测信息得出手势反映出的立体坐标变化量。
在此一提的是,由手势感测器22感测到手势对应的立体坐标变化量是为以手势感测器22的坐标系的坐标信息,之后提供给立体影像显示装置20时,应执行坐标转换,将互动指令在以手势感测器22形成的坐标系的坐标信息转换至以立体影像显示装置20形成的坐标系中,才能继续对照显示的立体影像的影像坐标信息。
其中,以立体影像显示装置20显示的立体影像,影像的每个位置都是已知,因此可以判断出手势经坐标转换后在相同坐标系中的相关性,这个相关性表达手势形成的立体坐标与显示中的立体影像的关系。举例来说,移动手势造成立体影像朝某个方向的移动,因此立体影像的立体坐标应加入这个方向的变化量,因此在新的位置重新得出新的立体影像,在影像处理器203中,实时查询或是实时演算出一个新的立体影像数据,提供给显示驱动单元204形成显示影像。若为旋转手势,将造成立体影像朝一个方向旋转,因此原本立体影像的立体坐标应加入旋转变化量,也就形成新的立体影像数据,用以显示新的立体影像数据。同理,若为缩放手势,将立体影像在相同参考点位置上的大小变化,该相关的立体坐标也随着变化,影像处理器203查询影像数据库或实时演算,产生新的立体影像数据,提供给显示驱动单元204形成显示影像。
上述移动、旋转与缩放等手势可以任意组合,形成互动指令,再由影像处理器203运算产生新的立体影像数据,立体影像数据为提供立体影像显示装置20直接显示立体影像的数据。
续根据图3所示互动式立体显示装置的另一实施例示意图,此例显示互动式立体显示装置包括有通过网络30连线的立体影像服务器301,上述立体影像数据可由立体影像服务器301提供,立体影像服务器301设有影像数据库303,提供查询得到在各种互动指令对应的立体影像数据。
根据实际运行的方式,当使用者执行互动时,可先查询目前在立体影像显示装置20中存储的数据是否包括了对应互动指令的下一个显示样态,若已经包括新的显示样态,则立体影像显示装置20可自行运算后产生立体影像数据,并显示;若并未包括互动产生的下一个显示样态,可立即通过网络30向立体影像服务器301发出新立体影像资源档的请求,以下载新的立体影像数据,显示出下一个经过互动产生的立体影像。
可参考图1,当使用者以手12在立体影像显示装置10上与立体影像互动时,产生的手势形成立体坐标变化量,并据此得出互动指令,这时,互动指令可通过网络30传送至立体影像服务器301,由立体影像服务器301根据互动指令提供新的立体影像数据。
接着,如图4所示,其中流程图描述以互动式立体显示装置执行互动感应方法的实施例。
在步骤S401中,一开始由立体影像显示装置显示立体影像,并让用户在此立体影像显示装置上进行操作,如步骤S403,立体影像显示装置中的手势感测器将感测到手势,如步骤S405,可以取得对应手势的坐标变化,再如步骤S407,通过立体影像显示装置影像处理器的运算,能根据手势形成的立体坐标变化量,包括特定部位在特定方向产生的移动、旋转与/或缩放产生的立体坐标变化量,判断出互动指令。
之后,如步骤S409,对照原本显示的立体影像的影像坐标信息,可以得出本次手势形成的互动指令所对应新的立体坐标信息,进而得出新的立体影像数据。之后,如步骤S411,通过其中显示功能显示新的立体影像。
图5以另一个流程图描述互动感应方法的实施例流程。
在此例中,一开始如步骤S501,利用手势感测器感测到用户在立体影像显示装置显示的立体影像上的手势,这时,如步骤S503,可以取得关键部位(如手指、指关节、手掌等)的立体坐标变化,如步骤S505,立体坐标变化为手势感测器在一个持续时间感测到手势所造成的,必要时,应由手势感测器形成的坐标系的坐标信息转换至以立体影像显示装置形成的坐标系中,使得在相同坐标系中,可让影像处理器得知手势形成的互动指令与立体影像的相关性。
在步骤S507,从手势判断出其中一或多个关键部位的立体坐标的变化量,可以据此判断出互动指令,在对照原本显示的立体影像的影像坐标信息后,演算出新的立体影像的影像坐标信息(步骤S509),之后经查询影像数据库,可得出立体影像在各种手势操作下的下一个立体影像数据(步骤S511),以取得新的立体影像数据(步骤S513),并用在显示新的立体影像(步骤S515)。
在另一实施例中,除了查询影像数据库得出新的立体影像数据外,还可以根据立体影像在各种手势操作下的变化实时演算得出新的立体影像数据。
图6接着显示以互动式立体显示装置执行互动感应方法的实施例流程图,此流程图描述手势感测器61、立体影像显示装置62与立体影像服务器63之间的互动感应流程。
一开始,如步骤S601,根据使用者的操作,由立体影像显示装置62向立体影像服务器63提出立体影像请求,之后,如步骤S603,立体影像服务器63传送立体影像数据至立体影像显示装置62,显示出立体影像。
接着,如步骤S605,用户在立体影像显示装置62显示的立体影像上以手势操作,使得手势感测器61感测到手势,如步骤S607,通过立体影像显示装置62的影像处理器处理后,得出相对原来显示的立体影像在立体坐标上的变化量,这个变化量形成互动指令,再如步骤S609,传送互动指令至立体影像服务器63,由立体影像服务器63中的处理程序根据互动指令,对照在原本立体影像的影像坐标信息的变化量,演算出新的立体影像的影像坐标信息,并可经查询影像数据库后产生新的立体影像数据,如步骤S611,传送新的立体影像数据至立体影像显示装置62,可以新的立体影像数据显示新的立体影像。
综上所述,在应用在互动式立体显示装置的互动感应方法中,在立体影像显示装置中,通过感测手势的移动、旋转与缩放动作,可以产生互动指令,使得在立体影像显示装置内,或是在立体影像服务器中,可根据互动指令得出对应一显示空间的立体坐标与向量,得出新的立体影像数据,如此,一旦有连续手势,即可根据手势显示连续变化的立体影像,实现以手势操作立体影像的互动效果。
以上所公开的内容仅为本发明的优选可行实施例,并非因此局限本发明的权利要求,所以凡是运用本发明说明书及附图内容所做的等效技术变化,均包含在本发明的权利要求内。

Claims (10)

1.一种互动式立体显示装置的互动感应方法,其特征在于,包括:
根据一立体影像数据,以一立体影像显示装置显示一立体影像;
以一手势感测器感测一手势,并得出对应该手势的一立体坐标变化量;
根据该立体坐标变化量判断一互动指令;
根据该互动指令,对照该立体影像的影像坐标信息,产生一新的立体影像数据;以及
以该新的立体影像数据显示一新的立体影像。
2.如权利要求1所述的互动感应方法,其特征在于,该立体影像数据用在描述以该立体影像显示装置显示该立体影像的色彩信息与三维空间信息。
3.如权利要求2所述的互动感应方法,其特征在于,该立体影像数据由一立体影像服务器提供,该立体影像数据为提供该立体影像显示装置直接显示该立体影像的数据,在根据该立体坐标变化量判断出该互动指令时,传送该互动指令至该立体影像服务器,由该立体影像服务器根据该互动指令提供该新的立体影像数据。
4.如权利要求3所述的互动感应方法,其特征在于,在该立体影像服务器中,当接收该互动指令时,根据该互动指令演算出该新的立体影像的影像坐标信息,经查询一影像数据库后得出对应该新的立体影像数据。
5.如权利要求1所述的互动感应方法,其特征在于,该手势感测器以一影像检测手段、一光线遮断手段或一声波反射手段判断该手势。
6.如权利要求5所述的互动感应方法,其特征在于,该手势反映一手的手指、手掌位置与指关节的立体坐标的变化,该互动指令指出移动、旋转与缩放动作的其中之一或任意组合。
7.如权利要求1至6中任一所述的互动感应方法,其特征在于,在得出该互动指令后,执行一坐标转换,将该互动指令在以该手势感测器形成的坐标系的坐标信息转换至以该立体影像显示装置形成的坐标系中。
8.一种互动式立体显示装置,其特征在于,包括:
一立体影像显示装置,根据一立体影像数据显示一立体影像;以及
一手势感测器,用以感测一手势,并取得该手势形成的一立体坐标变化量;
其特征在于,在该立体影像显示装置中,取得该手势感测器所感测该手势得出的该立体坐标变化量,再根据该立体坐标变化量判断一互动指令,以对照该立体影像的影像坐标信息,产生一新的立体影像数据,再以该新的立体影像数据显示一新的立体影像。
9.如权利要求8所述的互动式立体显示装置,其特征在于,更连结一立体影像服务器,该立体影像数据由该立体影像服务器提供,于该立体影像服务器中,于接收该互动指令时,根据该互动指令经查询一影像料库后提供该新的立体影像数据。
10.如权利要求9所述的互动式立体显示装置,其特征在于,该手势感测器以一影像检测手段、一光线遮断手段或一声波反射手段判断该手势,该手势反映一手的手指、手掌位置与指关节的立体坐标的变化,该互动指令指出移动、旋转与缩放动作的其中之一或任意组合。
CN201910554044.1A 2019-06-25 2019-06-25 互动式立体显示装置与互动感应方法 Pending CN112130659A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910554044.1A CN112130659A (zh) 2019-06-25 2019-06-25 互动式立体显示装置与互动感应方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910554044.1A CN112130659A (zh) 2019-06-25 2019-06-25 互动式立体显示装置与互动感应方法

Publications (1)

Publication Number Publication Date
CN112130659A true CN112130659A (zh) 2020-12-25

Family

ID=73849146

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910554044.1A Pending CN112130659A (zh) 2019-06-25 2019-06-25 互动式立体显示装置与互动感应方法

Country Status (1)

Country Link
CN (1) CN112130659A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI796192B (zh) * 2022-03-31 2023-03-11 國立勤益科技大學 具有手部姿勢操控之虛擬系統

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101986243A (zh) * 2010-11-05 2011-03-16 友达光电股份有限公司 立体影像互动系统及其位置偏移补偿方法
US20130014052A1 (en) * 2011-07-05 2013-01-10 Primesense Ltd. Zoom-based gesture user interface
KR101369358B1 (ko) * 2013-08-06 2014-03-04 홍주희 디스플레이 제어 시스템 및 그 기록매체
CN103914152A (zh) * 2014-04-11 2014-07-09 周光磊 三维空间中多点触控与捕捉手势运动的识别方法与系统
CN104407786A (zh) * 2014-09-30 2015-03-11 深圳市亿思达科技集团有限公司 实现全息图像显示的交互式显示方法、控制方法及系统
US20150242101A1 (en) * 2013-06-26 2015-08-27 Panasonic Intellectual Property Corporation Of America User interface device and display object operating method
US20160062471A1 (en) * 2014-09-03 2016-03-03 Liquid3D Solutions Limited Gesture control system capable of interacting with 3d images
CN109782452A (zh) * 2017-11-13 2019-05-21 群睿股份有限公司 立体影像产生方法、成像方法与系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101986243A (zh) * 2010-11-05 2011-03-16 友达光电股份有限公司 立体影像互动系统及其位置偏移补偿方法
US20130014052A1 (en) * 2011-07-05 2013-01-10 Primesense Ltd. Zoom-based gesture user interface
US20150242101A1 (en) * 2013-06-26 2015-08-27 Panasonic Intellectual Property Corporation Of America User interface device and display object operating method
KR101369358B1 (ko) * 2013-08-06 2014-03-04 홍주희 디스플레이 제어 시스템 및 그 기록매체
CN103914152A (zh) * 2014-04-11 2014-07-09 周光磊 三维空间中多点触控与捕捉手势运动的识别方法与系统
US20160062471A1 (en) * 2014-09-03 2016-03-03 Liquid3D Solutions Limited Gesture control system capable of interacting with 3d images
CN105425937A (zh) * 2014-09-03 2016-03-23 液态三维系统有限公司 可与3d影像互动的手势控制系统
CN104407786A (zh) * 2014-09-30 2015-03-11 深圳市亿思达科技集团有限公司 实现全息图像显示的交互式显示方法、控制方法及系统
CN109782452A (zh) * 2017-11-13 2019-05-21 群睿股份有限公司 立体影像产生方法、成像方法与系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI796192B (zh) * 2022-03-31 2023-03-11 國立勤益科技大學 具有手部姿勢操控之虛擬系統

Similar Documents

Publication Publication Date Title
TWI700516B (zh) 互動式立體顯示裝置與互動感應方法
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
TWI501130B (zh) 虛擬觸控輸入系統
CN106454311B (zh) 一种led三维成像系统及方法
US10650573B2 (en) Synthesizing an image from a virtual perspective using pixels from a physical imager array weighted based on depth error sensitivity
US20190318201A1 (en) Methods and systems for shape based training for an object detection algorithm
TWI701941B (zh) 圖像處理方法及裝置、電子設備及儲存介質
JP2017505933A (ja) 実在の物体上に固定された仮想画像を生成する方法及びシステム
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
EP3413165B1 (en) Wearable system gesture control method and wearable system
JP2012256110A (ja) 情報処理装置、情報処理方法およびプログラム
US10936053B2 (en) Interaction system of three-dimensional space and method for operating same
US20210056370A1 (en) Optical tag based information apparatus interaction method and system
US11194402B1 (en) Floating image display, interactive method and system for the same
CN110728756A (zh) 一种基于增强现实的远程指导的方法与设备
WO2018161564A1 (zh) 手势识别系统、方法及显示设备
TWI754899B (zh) 漂浮影像顯示裝置、互動方法與其系統
RU2020126876A (ru) Устройство и способ формирования изображений вида
CN112130659A (zh) 互动式立体显示装置与互动感应方法
JP2009129021A (ja) 情報入力システムおよび情報入力方法
US11144194B2 (en) Interactive stereoscopic display and interactive sensing method for the same
TWI719834B (zh) 互動式立體顯示裝置與互動感應方法
TWI796022B (zh) 在立體影像上執行互動的方法與立體影像顯示系統
CN110389799B (zh) 元素显示方法及装置、终端、存储介质、电子装置
JP6376251B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination