CN112445320A - 互动显示方法与互动显示系统 - Google Patents
互动显示方法与互动显示系统 Download PDFInfo
- Publication number
- CN112445320A CN112445320A CN201910802178.0A CN201910802178A CN112445320A CN 112445320 A CN112445320 A CN 112445320A CN 201910802178 A CN201910802178 A CN 201910802178A CN 112445320 A CN112445320 A CN 112445320A
- Authority
- CN
- China
- Prior art keywords
- feature
- features
- interactive
- paired
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 148
- 238000000034 method Methods 0.000 title claims abstract description 65
- DMSMPAJRVJJAGA-UHFFFAOYSA-N benzo[d]isothiazol-3-one Chemical compound C1=CC=C2C(=O)NSC2=C1 DMSMPAJRVJJAGA-UHFFFAOYSA-N 0.000 claims description 28
- 230000004044 response Effects 0.000 claims description 18
- 210000003414 extremity Anatomy 0.000 description 72
- 230000003993 interaction Effects 0.000 description 23
- 210000003128 head Anatomy 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000008034 disappearance Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000003857 wrist joint Anatomy 0.000 description 2
- 229920001621 AMOLED Polymers 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04804—Transparency, e.g. transparent or translucent windows
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种互动显示方法与互动显示系统。互动显示系统包括透明显示器与至少一个影像感测装置。通过影像感测装置朝向多个操作者获取影像数据。从影像数据提取操作者的至少一个细节特征与至少一个大范围特征,并检测透明显示器的显示平面上的至少一个投影点。对各细节特征与各大范围特征进行配对。对各投影点与各大范围特征进行配对。依据各细节特征与各大范围特征的配对结果与各投影点与各大范围特征的配对结果决定操作者中的一个的指向、执行互动延续操作及/或提供提示信息。
Description
技术领域
本公开是有关于一种互动显示方法与互动显示系统。
背景技术
透明显示器依其技术原理,可分为穿透式透明显示器与投影式透明显示器。透明显示器具有透明、轻薄等特性,可将显示器上显示的虚拟影像与现实世界的场景结合,赋予使用者一种直观且直觉的视觉体验。透明显示器可广泛地导入车用抬头显示器、自动贩卖机、商品橱窗、博物馆展品导览、观光车辆导览等应用中。观看者不仅可透过透明显示器观看到实物,同时也可在透明显示器上看到叠加在实物上或显示在其周围的信息,甚至透过生物特征追踪技术或触控技术与透明显示器上的显示信息互动。
虽然结合显示技术与生物特征追踪技术或触控技术的指向性互动显示方法已逐渐出现于各种应用上,但这些技术仍存在许多改善空间。例如,互动显示系统可结合多种人体特征或触控点来辨识使用者互动意图,从而提供符合使用者期望的显示信息。然而,在多位使用者同时与互动显示系统进行互动的情况下,互动显示系统可检测到许多人体特征与许多触控点,但互动显示系统可能无法正确配对这些人体特征或触控点,致使互动显示系统易有指向性错乱的问题发生。换言之,在正确配对同一使用者的人体特征与触控点的条件下,使用者的指向才可正确被估测而提供符合使用者预期的显示内容。举例来说,图1是公知透明显示器10与多位使用者互动的示意图。若互动显示系统将使用者A1的眼部特征E1配对至另一使用者B1对显示平面S1施予的触控点T1,则互动显示系统将产生错误的指向V1。因此,互动显示系统将依据错误的指向V1显示透明显示器10后方目标物件Obj1的物件信息(即,毛毛虫),而无法依据正确的指向V2显示符合使用者A1期望的目标物件Obj2的物件信息。
发明内容
本公开的实施例提供一种互动显示方法,适用于包括透明显示器、至少一个影像感测装置与处理装置的互动显示系统。互动显示方法包括下列步骤。通过所述影像感测装置朝向多个操作者获取影像数据。通过所述处理装置执行以下步骤:从所述影像数据提取所述操作者的至少一个细节特征与至少一个大范围特征,并检测所述透明显示器显示平面上的至少一个投影点,其中所述投影点响应于所述操作者的互动行为而产生;对各所述细节特征与各所述大范围特征进行配对;对各所述投影点与各所述大范围特征进行配对;以及依据各所述细节特征与各所述大范围特征的配对结果与各所述投影点与各所述大范围特征的配对结果决定所述操作者中的一个的指向。
本公开的实施例提供一种互动显示系统,包括透明显示器、至少一个影像感测装置与处理装置。处理装置耦接透明显示器与所述影像感测装置。影像感测装置朝向多个操作者获取影像数据。处理装置经配置以执行以下步骤:从所述影像数据提取所述操作者的至少一个细节特征与至少一个大范围特征,并检测所述透明显示器显示平面上的至少一个投影点,其中所述投影点响应于所述操作者的互动行为而产生;对各所述细节特征与各所述大范围特征进行配对;对各所述投影点与各所述大范围特征进行配对;以及依据各所述细节特征与各所述大范围特征的配对结果与各所述投影点与各所述大范围特征的配对结果决定所述操作者中的一个的指向。
为让本公开能更明显易懂,下文特举实施例,并配合附图作详细说明如下。
附图说明
图1是公知透明显示器与多位使用者互动的示意图。
图2是根据本公开实施例的互动显示系统的示意图。
图3A是根据本公开实施例的互动显示方法的流程图。
图3B是根据本公开实施例的透明显示器与多位使用者互动的情境示意图。
图4是根据本公开实施例的互动显示方法的流程图。
图5是根据本公开实施例的互动显示方法的流程图。
图6A是根据本公开实施例的互动显示方法的流程图。
图6B是根据本公开实施例的互动显示方法的情境示意图。
图7A是根据本公开实施例的互动显示方法的流程图。
图7B是根据本公开实施例的互动显示方法的情境示意图。
图8A是根据本公开实施例的互动显示方法的流程图。
图8B是根据本公开实施例的互动显示方法的情境示意图。
图9A是根据本公开实施例的互动显示方法的流程图。
图9B是根据本公开实施例的互动显示方法的情境示意图。
图10A是根据本公开实施例的互动显示方法的流程图。
图10B是根据本公开实施例的互动显示方法的情境示意图。
图11是根据本公开实施例的互动显示方法的流程图。
具体实施方式
本公开的部分实施例接下来将会配合附图来详细描述,以下的描述所引用的元件符号,当不同附图出现相同的元件符号将视为相同或相似的元件。这些实施例只是本公开的一部分,并未揭示所有本公开的可实施方式。更确切的说,这些实施例只是本公开中的互动显示方法以及互动显示系统的范例。
在本公开的实施例中,在有多操作者与透明显示器进行互动的情况中,将属于同一操作者的多种互动意图信息(像是局部器官特征、肢体特征、触控点或浮空指向投影点等等)进行正确配对,以依据对应至同一操作者的多种互动意图信息决定出正确的指向。由此,透明显示器可依据正确的指向显示出符合操作者意图的显示内容。此外,当操作者的特征信息检测失败或互动意图信息无法成功配对时,可提供操作者提示信息(例如:建议移动位置、告知消失特征、告知可辨识或不可辨识的操作者辨识码(User ID)等),以利提升特征检测与配对多种互动意图信息的成功率与准确度。此外,当操作者的特征无法被正确感测或互动意图信息无法成功配对时,还是可依据剩余可用的互动意图信息决定指向,以达到延续互动使用的目的。
图2是根据本公开实施例的互动显示系统的示意图。请参照图2,互动显示系统20包括透明显示器210、至少一个影像感测装置220与处理装置230。处理装置230可耦接透明显示器210与影像感测装置220。互动显示系统20可与多位操作者进行互动。更进一步来说,互动显示系统20可判断多位操作者的指向,并据以提供对应的显示效果与内容。在本公开的实施例中,操作者可以是机器人、机器手臂、工具机或人类使用者,本公开对此不限制。
透明显示器210是具有一定程度的光线穿透性的显示器或浮空投影装置,人类使用者观看时能够呈现出显示器相对于使用者另一侧的景物,例如是薄膜晶体管液晶显示器(Thin film transistor liquid crystal display,TFT-LCD)、场色序(Field sequentialcolor)显示器、主动式有机发光显示器(Active matrix organic light emittingdisplay,AMOLED)、电湿润显示器等穿透式透明显示器,或者是投影式透明显示器。在一个实施例中,透明显示器210除了具备可透视且可显示信息的透明显示面板外,在显示界面上亦可结合触控面板而接收使用者直接接触点击的互动,亦或结合可检测点击、手势触发的感应器,例如是声波、红外线、影像感测手部触发动作,而基于触发动作提供互动显示功能。
影像感测装置220可朝向位于透明显示器210的一侧的多个操作者获取影像数据。在一个实施例中,影像感测装置220为达成获取多操作者影像数据,可置放多组影像感测装置,拓展需照相特征的视野,合并多组检测影像。影像感测装置220可依据红外光感测技术、自然光感测技术、超声波感测技术或雷射感测技术等来获取多位操作者的影像数据,本公开对此不限制。从另一观点来看,影像感测装置220可能是眼动仪、深度照相机、彩色照相机、立体照相机等等影像感测设备。此外,图2是以一个影像感测装置220为例进行说明,但在其他实施例中,影像感测装置的数目可以是一个或多个,本公开对此不限制。
处理装置230包括一个或多个处理器(以下以处理器231为代表进行说明)以及一个或多个储存装置(以下以储存装置232为代表进行说明)。处理装置230可由计算机主机、服务器或具有数据运算能力的计算机装置来实现。此外,处理装置230可由一台或多台电子装置实现,本公开对此不限制。
处理器231例如是中央处理单元(central processing unit,CPU),或是其他可编程的通用或专用微处理器(microprocessor)、数字信号处理器(digital signalprocessor,DSP)、可编程控制器、专用集成电路(application specific integratedcircuits,ASIC)、可编程逻辑设备(programmable logic device,PLD)或其他类似装置或这些装置的组合。处理器231用以执行储存装置232所记录的指令或程序。在本公开中,处理器231用来运算操作者特征提取,细节特征与大范围特征配对,投影点与大范围特征配对。处理器231可依据配对结果决定操作者的指向信息,并依据指向信息决定显示内容。若某一操作者的细节特征、大范围特征或投影点发生缺失,处理器231用来执行互动延续操作而产生延续性的指向信息,并可用以提供提示信息给使用者。
储存装置232可以是任何型态的固定式或可移动式随机存取存储器(randomaccess memory,RAM)、只读存储器(read-only memory,ROM)、闪存(flash memory)或类似元件或上述元件的组合。储存装置232用以储存由影像感测装置220获取的影像数据,且记录可供处理器231存取并执行的程序或指令。本公开中,储存装置232可用来储存影像提取特征信息、可供运算查询的操作者特征数据库。
图3A是根据本公开实施例的互动显示方法的流程图。图3A所述的方法流程可结合图2所示的互动显示系统20来实现。请同时参照图2及图3A。
首先,通过影像感测装置220朝向多个操作者获取影像数据(步骤S310)。影像数据可包括彩色影像、深度影像、红外线感测影像、超声波影像或雷射影像等等。此外,影像数据可包括具有不同影像获取范围的多张影像。举例而言,影像数据可包括对操作者的局部部位进行取像的小范围影像数据,像是脸部影像、手部影像或针对手持物件所获取的小范围影像数据。上述手持装置例如是用以与透明显示器210进行互动的遥控物件或遥控电子装置。此外,影像数据还可包括对操作者的整体进行取像的大范围影像数据,像是涵盖操作者半身或全身的大范围影像数据。
在取得多个操作者的影像数据之后,处理装置230从影像数据提取操作者的至少一个细节特征与至少一个大范围特征,并检测透明显示器210的显示平面上的至少一个投影点(步骤S320)。具体而言,处理装置230可自影像数据提取操作者的至少一个细节特征与至少一个大范围特征。所述细节特征例如是眼睛特征、视线特征、机器人的零件特征、或手持物件上的图腾特征等带有操作者互动意图的特征。所述大范围特征例如是肢体特征、骨架特征、手势特征等等可表示操作者的操控姿态的特征。
此外,显示平面上的投影点是响应于操作者的互动行为而产生,而操作者的互动行为包括实际触碰显示平面的触控行为或未实际触碰显示平面的浮空指向行为。换言之,显示平面上的投影点例如是透明显示器210所检测的触控点,也可以是基于影像分析技术、生物特征感测技术或体感检测技术而估测出来的浮空指向投影点。
接着,处理装置230对各细节特征与各大范围特征进行配对(步骤S330)。并且,处理装置230对各投影点与各大范围特征进行配对(步骤S340)。步骤S330及步骤S340亦可交替操作,两者无顺序关系。换言之,处理装置230将逐一判断细节特征是否可与大范围特征相匹配,以获取细节特配与大范围特征之间的配对连结关系。相同的,处理装置230将逐一判断投影点是否可与大范围特征相匹配,以获取投影点与大范围特征之间的配对连结关系。
具体而言,在提取细节特征与大范围特征时,处理装置230可一并获取细节特征相对于影像坐标系的平面坐标位置与大范围特征相对于影像坐标系的平面坐标位置。此外,在检测投影点时,处理装置230可一并获取投影点相对于屏幕坐标系的平面坐标位置。处理装置230可执行坐标系转换融合,以获取细节特征、大范围特征与投影点相对于同一参考坐标系的空间坐标位置。基此,处理装置230可依据细节特征相对于参考坐标系的空间坐标位置与大范围特征相对于参考坐标系的空间坐标位置配对各细节特征与各大范围特征。处理装置230可依据投影点相对于参考坐标系的空间坐标位置与大范围特征相对于参考坐标系的空间坐标位置配对各投影点与各大范围特征。
举例而言,以细节特征为眼部特征且大范围特征为肢体特征为例,对于同一操作者而言,由于眼睛生长于头部上,因此眼部特征的空间坐标位置必定与肢体特征中的头部特征的空间坐标位置存在特定关联规则。于是,依据眼部特征的空间坐标位置与肢体特征中头部特征的空间坐标位置,处理装置230可将作为细节特征的眼部特征与作为大范围特征的肢体特征进行配对,从而将属于同一操作者的细节特征与大范围特征配对起来。具体而言,处理装置230可判断细节特征的空间坐标位置与大范围特征的空间坐标位置之间的距离是否介于特征数据库所订细节特征对应大范围特征的阈值范围,而决定是否配对细节特征与大范围特征。例如自影像提取之头部特征(即大范围特征)的范围转换成共同空间投影尺寸是10~15cm,眼睛特征(即细节特征)位置虽因人而异,但也会在头部范围内,可据以设定为头部特征之中心点±8cm为一眼睛配对区域。
此外,以投影点为触控点且大范围特征为肢体特征为例,对于同一操作者而言,触控点是因为手部触碰显示平面而产生,因此投影点的空间坐标位置必定与肢体特征中的手部特征的空间坐标位置存在特定关联规则。例如:处理装置230通过大范围影像检测到操作者在触控面板横向7cm的位置进行触控操作并检测到触控面板总共15cm。同时,触控面板检测操作者的触控操作发生在面板横向7cm的触控位置,因此处理装置230可将操作者的大范围特征与触控点进行配对。于是,依据投影点的空间坐标位置与肢体特征中手部特征的空间坐标位置,处理装置230可将作为投影点的触控点与作为大范围特征的肢体特征进行配对,从而配对属于同一操作者的投影点与大范围特征。具体而言,处理装置230可判断触控点的空间坐标位置与手部特征的空间坐标位置是否足够接近,而决定是否配对投影点与大范围特征。
之后,处理装置230可依据各细节特征与各大范围特征的配对结果与各投影点与各大范围特征的配对结果决定操作者中的一个的指向。在本实施例中,响应于细节特征中的第一细节特征与大范围特征中的第一大范围特征通过位置或影像特征信息配对成功且投影点中的第一投影点与第一大范围特征通过位置或影像特征信息配对成功,处理装置230依据第一细节特征与第一投影点决定操作者中的一个的第一指向,以透过透明显示器210依据第一指向显示互动信息(步骤S350)。像是,处理装置230可判断第一指向至指向透明显示器210后方的目标物件,从而驱动透明显示器210于显示目标物件的物件信息。在本公开实施例中,第一细节特征与第一大范围特征成功配对,代表第一细节特征可一对一配对至第一大范围特征。第一投影点与第一大范围特征成功配对,代表第一投影点可一对一配对至第一大范围特征。值得一提的是,由于大范围特征分别与细节特征以及投影点具有特定关联规则,因此细节特征与投影点可先后分别与大范围特征进行配对。之后,与同一大范围特征配对成功的细节特征与投影点就可被判定为对应于同一操作者,而依据属于同一操作者的细节特征与投影点来产生正确的指向,从而避免互动意图信息配对错误而产生错误指向的现象。
举例而言,请参照图3B,图3B是根据本公开实施例的情境示意图。在影像感测装置220获取使用者U1与使用者U2的影像数据后。处理装置230可自影像数据获取眼部特征EU1与EU2以及肢体特征BU1与BU2。处理装置230可依据透明显示器210的触控检测获取触控点TU1与触控点TU2。接着,处理装置230可依据眼部特征EU1的空间坐标位置与肢体特征BU1中头部特征HU1的空间坐标位置来配对眼部特征EU1与肢体特征BU1。并且,处理装置230可依据触控点TU1的空间坐标位置与肢体特征BU1中手部特征GU1的空间坐标位置来配对触控点TU1与肢体特征BU1。于是,处理装置230便可获取眼部特征EU1与触控点TU1之间的对应性,从而依据眼部特征EU1与触控点TU1产生使用者U1的指向DF1。透明显示器210可依据指向DF1显示符合互动意图的互动信息。由此可见,处理装置230可避免将分别属于不同使用者的眼部特征与触控点进行配对而产生错误的指向信息。相似的,处理装置230可利用肢体特征BU2中手部特征GU2与头部特征HU2获取眼部特征EU2与触控点TU2之间的对应性,从而依据眼部特征EU2与触控点TU2产生使用者U2的指向DF2。基此,透明显示器210将基于指向DF1与DF2显示互动信息给使用者U1与U2。
在一个实施例中,处理装置230可进一步判断第一指向是否通过透明显示器210的显示平面,以决定是否依据第一指向显示互动信息。换言之,当第一指向通过透明显示器210的显示范围时,处理装置230可提供互动信息给操作者。否则,当第一指向未通过透明显示器210的显示范围时,处理装置230将不提供互动信息给操作者。
图4是根据本公开实施例的互动显示方法的流程图。图4所述的方法流程可结合图2所示的互动显示系统20来实现。请同时参照图2及图4。步骤S410~S450与前述实施例的步骤S310~S350相似,故其详细内容在此不再赘述。
在本实施例中,处理装置230判断第一指向是否通过透明显示器210的显示平面(步骤S460)。具体而言,第一指向为向量信息,因而处理装置230可判断第一指向是否通过空间中具有特定尺寸的平面(即显示平面)。若第一指向通过透明显示器210的显示平面,处理装置230透过透明显示器210依据第一指向显示互动信息(步骤S470)。如图3B所示,处理装置230可判定第一指向DF1通过透明显示器210的显示平面S2,并透过透明显示器210依据第一指向DF1显示互动信息。另一方面,若第一指向未通过透明显示器210的显示平面,处理装置230禁止透明显示器210依据第一指向显示互动信息(步骤S480)。
在一个实施例中,当细节特征与大范围特征无法成功一对一配对或大范围特征与投影点无法成功一对一配对时,处理装置230可产生予操作者的提示信息,例如:建议移动位置、告知消失特征、可辨识或不可辨识的使用者ID等,并由透明显示器210显示提示信息。由此,若操作者可依据提示信息正确修正所在位置,处理装置230可获取过去原本缺失的细节特征、大范围特征或投影点,从而提升细节特征、大范围特征与投影点的配对成功率。此外,当细节特征、大范围特征与投影点无法成功配对或发生缺失时,处理装置230可依据可用的未成功配对的细节特征、大范围特征或投影点来决定恰当的指向,以使操作者与互动显示系统20之间互动得以延续。
图5是根据本公开实施例的互动显示方法的流程图。图5所述的方法流程可结合图2所示的互动显示系统20来实现。请同时参照图2及图5。步骤S510~S540与前述实施例的步骤S310~S340相似,故其详细内容在此不再赘述。
在本实施例中,响应于配对失败结果,处理装置230执行互动延续操作而产生第二指向,以透过透明显示器210依据第二指向显示互动信息(步骤S550)。配对失败结果包括:细节特征中的第二细节特征未成功配对、投影点中的第二投影点未成功配对,或大范围特征中的第二大范围特征未成功配对。于此,无法成功一对一配对之细节特征、大范围特征、投影点,分别称为第二细节特征、第二大范围特征、第二投影点,而采用任一无法成功配对特征完成之指向称为第二指向。互动延续操作包括:依据未成功配对的第二细节特征、未成功配对的第二大范围特征,或未成功配对的第二投影点,处理装置230决定操作者中的一个第二指向,以透过透明显示器210依据第二指向显示互动信息。
详细而言,于特征提取过程中或投影点的检测过程中可能发生错误,因而导致部分操作者的细节特征、大范围特征或投影点发生缺失。或者,于细节特征与大范围特征的配对过程中可能发生误判。或者,于投影点与大范围特征的配对过程中可能发生误判。或者,于细节特征与大范围特征的配对过程中可能发生重叠配对多操作者。或者,于投影点与大范围特征的配对过程中可能重叠配对多操作者。或者,若操作者的身体部位超出影像感测范围,将导致部分操作者的细节特征或大范围特征发生缺失。上述这些现象都可能造成细节特征与大范围特征无法一对一成功配对,也可能造成投影点与大范围特征无法一对一成功配对。在本实施例中,响应于判定存在配对失败的结果,处理装置230可依据未成功配对的第二细节特征、未成功配对的第二大范围特征或未成功配对的第二投影点来决定用以延续互动体验的第二指向。后续实施例将针对互动延续操作的不同实施态样进行详细说明。此外,基于图4的说明,处理装置230同样可判断第二指向是否通过显示平面而决定是否显示互动信息。
此外,响应于配对失败结果,处理装置230通过透明显示器210显示给操作者的提示信息,例如:建议移动位置、告知消失特征、告知可辨识或不可辨识的使用者ID等,并由透明显示器210显示提示信息(步骤S560)。换言之,处理装置230可依据步骤S530与步骤S540的配对结果产生提示信息。举例而言,假设某一操作者的细节特征发生缺失,则大范围特征中的一个将无法配对至当前提取的细节特征。在此情况下,处理装置230可提示操作者一个移动位置或移动方向。若操作者依据此移动位置或移动方向进行移动,可排除细节特征缺失的状况,而处理装置230可成功配对移动后之操作者的细节特征与大范围特征。
以下将分别针对互动延续操作中的多种指向计算方式列举实施例进行说明。也就是说,图5的步骤S550可包括下列多种不同的实施方式。
图6A是根据本公开实施例的互动显示方法的流程图。图6A所述的方法流程可结合图2所示的互动显示系统20来实现。请同时参照图2及图6A。步骤S610~S640与前述实施例的步骤S310~S340相似,故其详细内容在此不再赘述。
在本实施例中,配对失败结果包括:第二大范围特征未成功配对至细节特征且第二大范围特征成功配对至投影点中的第三投影点。可配对的细节特征、大范围特征、投影点,称为第一细节特征、第一大范围特征、第一投影点,以上三项同时配对所建立之第一细节特征与第一投影点连线指向称为第一指向。无法一对一成功配对之细节特征、大范围特征、投影点,分别称为第二细节特征、第二大范围特征、第二投影点,采用任一无法配对特征完成之指向称为第二指向。对应的,互动延续操作包括:依据未与细节特征配对成功的第二大范围特征以及与第二大范围特征相配对的第三投影点决定所述操作者中的一个的第二指向。也就是说,响应于配对失败结果,处理装置230依据未与细节特征配对成功的第二大范围特征以及与第二大范围特征相配对的第三投影点决定操作者中的一个的第二指向,以透过透明显示器210依据第二指向显示互动信息(步骤S650)。
具体而言,某一操作者的细节特征可能被障碍物阻挡或超出影像感测范围而发生缺失,因而导致第二大范围特征无法成功一对一配对至细节特征。或者,某一操作者的第二大范围特征可能因为配对误判而被配对至两个细节特征,因而导致第二大范围特征无法成功一对一配对至细节特征。在此情况下,若第二大范围特征可成功配对至第三投影点,处理装置230还是可利用第二大范围特征取代之第二细节特征而与第三投影点计算出第二指向。例如,虽然某一操作者的肢体特征无法成功配对至眼部特征或某一操作者的肢体特征被配对至两个眼部特征,但此操作者的肢体特征可成功配对至显示平面上的投影点,则处理装置230可依据肢体特征中的头部特征与显示平面上的投影决定出指向。其中此实施例第二指向仍非完整配对,可予操作者提示信息,例如:建议移动位置、告知消失特征、告知可辨识或不可辨识的使用者ID等,并由透明显示器210显示提示信息。
举例而言,请参照图6B,图6B是根据本公开实施例的互动显示方法的情境示意图。处理装置230可自影像数据提取出一个眼部特征E6_2以及三个肢体特征B6_1~B6_3,并检测出三个触控点T6_1~T6_3。在此情况下,肢体特征B6_2成功配对至眼部特征E6_2,且肢体特征B6_2成功配对至触控点T6_2。因此,处理装置230可依据同样成功配对至肢体特征B6_2的眼部特征E6_2与触控点T6_2决定使用者U6_2的指向。此外,肢体特征B6_1、B6_3未成功配对至任何眼部特征,但肢体特征B6_1、B6_3分别成功配对至触控点T6_1、T6_3。因此,处理装置230于互动延续操作中依据肢体特征B6_1中的头部特征与触控点T6_1决定使用者U6_1的指向,处理装置230例如可连结肢体特征B6_1中的头部特征的空间坐标位置与触控点T6_1的空间坐标位置产生使用者U6_1的指向。类似地,处理装置230可依据相同的方式决定使用者U6_3的指向。
图7A是根据本公开实施例的互动显示方法的流程图。图7A所述的方法流程可结合图2所示的互动显示系统20来实现。请同时参照图2及图7A。步骤S710~S740与前述实施例的步骤S310~S340相似,故其详细内容在此不再赘述。
在本实施例中,大范围特征发生缺失,配对失败结果包括:第二细节特征未成功配对至大范围特征且第二投影点未成功配对至大范围特征。对应的,互动延续操作包括:依据未与大范围特征配对成功的第二细节特征以及未与大范围特征配对成功的第二投影点,依据特征数据库的合理组合,决定操作者中的一个的第二指向。也就是说,响应于配对失败结果,处理装置230依据未与大范围特征配对成功的第二细节特征以及未与大范围特征配对成功的第二投影点,决定操作者中的一个的第二指向,以透过透明显示器210依据第二指向显示互动信息(步骤S750)。
具体而言,某一操作者的大范围特征可能被障碍物阻挡或超出影像感测范围而发生缺失,因而导致第二细节特征无法成功一对一配对至大范围特征且第二投影点也无法成功一对一配对至大范围特征。在此情况下,依据第二细节特征的坐标位置与第二投影点的坐标位置,处理装置230决定利用第二细节特征与第二投影点计算出第二指向。例如,在某一操作者的肢体特征发生缺失的情况下,处理装置230可依据操作者眼睛可聚焦和可伸手触击的距离建立于特征数据库,通过设定眼睛(即细节特征)与触控点(即投影点)距离20~65cm而判定此范围(20~65cm)内的细节特征和触控点可配对来产生第二指向,因此处理装置230可依据未与肢体特征配对成功的眼部特征与未与肢体特征配对成功的投影点计算出第二指向,并予操作者提示信息(例如:建议移动位置、告知消失特征、告知可辨识或不可辨识的使用者ID等),并由透明显示器210显示提示信息。
举例而言,请参照图7B,图7B是根据本公开实施例的互动显示方法的情境示意图。处理装置230可自影像数据提取出三个眼部特征E7_1~E7_3以及一个肢体特征B7_2,并检测出三个触控点T7_1~T7_3。在此情况下,肢体特征B7_2成功配对至眼部特征E7_2,且肢体特征B7_2成功配对至触控点T7_2。因此,处理装置230可依据同样成功配对至肢体特征B7_2的眼部特征E7_2与触控点T7_2决定使用者U7_2的指向。此外,眼部特征E7_1、E7_3未成功配对至任何肢体特征,且触控点T7_1、T7_3未成功配对至任何肢体特征。因此,于互动延续操作中,通过比较眼部特征E7_1、E7_3与触控点T7_1、T7_3之间的距离,处理装置230可依据眼部特征E7_1与较靠近之触控点T7_1决定使用者U7_1的指向,并依据眼部特征E7_2与较靠近之触控点T7_2决定使用者U7_2的指向。
图8A是根据本公开实施例的互动显示方法的流程图。图8A所述的方法流程可结合图2所示的互动显示系统20来实现。请同时参照图2及图8A。步骤S810~S840与前述实施例的步骤S310~S340相似,故其详细内容在此不再赘述。
在本实施例中,投影点无法一对一配对,配对失败结果包括:第二投影点配对至多组大范围特征且大范围特征中的第三大范围特征成功配对至细节特征中的第三细节特征。基此,处理装置230可自大范围特征中挑选出符合特定评分条件的第三大范围特征,以辅助指向信息的决定。于此,可成功一对一配对的细节特征、大范围特征、投影点分别称为第一细节特征、第一大范围特征、第一投影点,而以上三项同时配对所建立之第一细节特征与第一投影点连线指向称为第一指向。相对的,无法一对一成功配对之细节特征、大范围特征、投影点分别称为第二细节特征、第二大范围特征、第二投影点。对应的,互动延续操作包括:自大范围特征中挑选符合特定评分条件的第三大范围特征,并依据与第三大范围特征配对成功的第三细节特征与所述第二投影点决定操作者中的一个的第二指向。也就是说,响应于配对失败结果,处理装置230依据未与大范围特征配对成功的第二投影点与第三细节特征,决定操作者中的一个的第二指向,以透过透明显示器210依据第二指向显示互动信息(步骤S850)。
具体而言,大范围特征与投影点之间的配对可能发生配对误判,而导致第二投影点未成功配对至大范围特征。或者,若两个操作者的碰触显示平面上相同或相当接近的触控位置,则第二投影点可能被配对至两个大范围特征,导致第二投影点未成功配对至大范围特征。在此情况下,处理装置230可先自剩余的大范围特征挑选出符合特定评分条件的第三大范围特征,并取得成功配对至第三大范围特征的第三细节特征,依据第三细节特征的空间坐标位置与第二投影点的空间坐标位置,处理装置230可决定利用第三细节特征与第二投影点计算出第二指向。例如,在某一投影点无法成功一对一配对至肢体特征的情况下,处理装置230对该投影点对应到两个误配的肢体脸部(即两操作者的两大范围特征)与特征数据库中之用于筛选的评分条件挑选出中的一个作为第三大范围特征。于此,评分条件例如是特征数据库中眼睛可聚焦距离与可触控距离的最接近特征,脸部与透明显示器210距离20~65cm,距离近得高分,且脸部朝向和显示平面之朝向的角度偏差小于0~15度,角度小得高分,两个误配的肢体脸部之中高分者被选为第三大范围特征。于是,处理装置230可依据挑选出来的第三大范围特征与第二投影点产生第二指向,像是处理装置230可依据未与肢体特征一对一配对成功的投影点与经筛选之第三大范围特征配对的眼部特征计算出第二指向。其中此实施例第二指向仍非完整配对,可予操作者提示信息,例如:建议移动位置、告知消失特征、告知可辨识或不可辨识的使用者ID等,并由透明显示器210显示提示信息。
在一个实施例中,第三大范围特征可利用已知特征数据库内的知识而被筛选出来。例如:基于16cm的脚板长度,可预测头部在身高90-110cm的位置,且头部应当位于投影点周围20-60cm。基此,可据以利用操作者之第三大范围特征中的头部特征和第二投影点提供第二指向。
举例而言,请参照图8B,图8B是根据本公开实施例的互动显示方法的情境示意图。处理装置230可自影像数据提取出三个眼部特征E8_1~E8_3以及三个肢体特征B8_1~E8_3,并检测出两个触控点T8_1、T8_3。在此情况下,肢体特征B8_3成功配对至眼部特征E8_3,且肢体特征B8_3成功配对至触控点T8_3。因此,处理装置230可依据同样成功配对至肢体特征B8_3的眼部特征E8_3与触控点T8_3决定使用者U8_3的指向。此外,触控点T8_1未成功一对一配对至任何肢体特征。因此,于互动延续操作中,通过比较眼部特征E8_1、E8_2与触控点T8_1之间的距离,处理装置230可依据眼部特征E8_1、E8_2中较靠近触控点T8_1的一者与触控点T8_1决定使用者U8_1与U8_1共用的第二指向,从而避免显示内容混乱。
图9A是根据本公开实施例的互动显示方法的流程图。图9A所述的方法流程可结合图2所示的互动显示系统20来实现。请同时参照图2及图9A。步骤S910~S940与前述实施例的步骤S310~S340相似,故其详细内容在此不再赘述。
在本实施例中,投影点缺失,配对失败结果包括:第二大范围特征未成功配对至投影点且大范围特征中的第二大范围特征成功配对至细节特征中的第三细节特征。对应的,互动延续操作包括:依据未与投影点配对成功的第二大范围特征与第三细节特征,决定操作者中的一个的第二指向。也就是说,响应于配对失败结果,处理装置230依据未与投影点配对成功的第二大范围特征与第三细节特征,决定操作者中的一个的第二指向,以透过透明显示器210依据第二指向显示互动信息(步骤S950)。
具体而言,投影点可能因为检测过程发生错误而发生缺失,因而导致第二大范围特征无法成功配对至任何投影点。在此情况下,若第二大范围特征可成功配对至第三细节特征,处理装置230还是可依据第二大范围特征与第三细节特征计算出第二指向。例如,某一操作者的肢体特征无法成功配对至显示平面上的投影点,但处理装置230例如还是可依据肢体特征中的手部特征与眼睛特征决定第二指向。其中此实施例第二指向仍非完整配对,可予操作者提示信息,例如:建议移动位置、告知消失特征、告知可辨识或不可辨识的使用者ID等,并由透明显示器210显示提示信息。
举例而言,请参照图9B,图9B是根据本公开实施例的互动显示方法的情境示意图。处理装置230可自影像数据提取出三个眼部特征E9_1~E9_3以及三个肢体特征B9_1~B9_3,并检测出一个触控点T9_2。依据前述说明可知,处理装置230可依据眼部特征E9_2、肢体特征B9_2、触控点T9_2决定使用者U9_2的指向。此外,因为投影点缺失,肢体特征B9_1、B9_3未成功配对至任何投影点,但肢体特征B9_1、B9_3分别成功配对至眼部特征E9_1、E9_3。因此,互动延续操作中,处理装置230依据肢体特征B9_1、B9_3中手部特征与眼部特征E9_1、E9_3之间的距离,处理装置230可依据肢体特征B9_1中的手部特征与眼部特征E9_1决定使用者U9_1的指向,处理装置230例如可连结肢体特征B9_1中的手部特征的空间坐标位置与眼部特征E9_1的空间坐标位置产生使用者U9_1的指向。类似地,处理装置230可依据相同的方式决定使用者U9_3的指向。
图10A是根据本公开实施例的互动显示方法的流程图。图10A所述的方法流程可结合图2所示的互动显示系统20来实现。请同时参照图2及图10A。步骤S1010~S1040与前述实施例的步骤S310~S340相似,故其详细内容在此不再赘述。
在本实施例中,大范围特征与细节特征缺失,配对失败结果包括:第二投影点未成功配对至大范围特征且无可关联细节特征或可替代的大范围特征可协同第二投影点产生第二指向。对应的,互动延续操作包括:依据未成功配对的第二投影点与位于透明显示器一侧的目标物件,决定第二指向。也就是说,响应于配对失败结果,处理装置230依据未成功配对的第二投影点,决定操作者中的一个的第二指向,以透过透明显示器210依据第二指向显示互动信息(步骤S1050)。
具体而言,某一操作者的大范围特征与细节特征可能同时被障碍物阻挡或超出影像感测范围而发生缺失,因而导致第二投影点无法成功一对一配对至大范围特征。此外,由于某一操作者的细节特征与大范围特征同时发生缺失,因而无法使用细节特征与检测到的投影点来产生指向。例如:有触控点,没有检测到肢体和眼睛。在此情况下,依据透明显示器210后方的目标物件的空间坐标位置与第二投影点的空间坐标位置,处理装置230可决定利用第二投影点计算出第二指向。其中此实施例第二指向仍非完整配对,可予操作者提示信息,例如:建议移动位置、告知消失特征、告知可辨识或不可辨识的操作者辨识码(User ID)等,并由透明显示器210显示提示信息。
举例而言,请参照图10B,图10B是根据本公开实施例的互动显示方法的情境示意图。处理装置230可自影像数据提取出眼部特征E10_2以及肢体特征B10_2,并检测出触控点T10_1~T10_2。依据前述说明可知,处理装置230可依据眼部特征E10_2、肢体特征B10_2、触控点T10_2决定使用者U10_2的指向。此外,因为眼部特征与肢体特征发生缺失,投影点T10_1未成功配对至任何眼部特征与肢体特征。因此,互动延续操作中,处理装置230依据透明显示器210后方的目标物件的空间坐标位置与投影点T10_1的空间坐标位置决定指向。处理装置230例如可连结投影点T10_1与透明显示器210后方与投影点T10_1最靠近的目标物件的坐标位置而产生使用者U10_1的指向。
在一个实施例中,假设大范围特征为肢体特征。处理装置230可进一步判断肢体特征中的手部特征是否符合互动控制条件。互动控制条件包括肢体特征包括符合指向控制姿态的手部特征且此手部特征足够靠近显示平面。若某一肢体特征不包括符合互动控制条件的手部特征,处理装置230可排除此某一肢体特征。由此,可避免将没有互动意图的路人的肢体特征纳入配对流程而发生误判。
图11是根据本公开实施例的互动显示方法的流程图。图11所述的方法流程可结合图2所示的互动显示系统20来实现。请同时参照图2及图11。
在一个实施例中,大范围特征为肢体特征。在对眼部特征与肢体特征进行配对与对投影点与肢体特征进行配对之前,处理装置230可执行图11所示的步骤S1101~S1104。处理装置230依据大范围特征中的多个关节位置判断大范围特征是否包括符合指向控制姿态特征(步骤S1101)。具体而言,处理装置230可依据特征数据库建立触控手的肩关节至腕关节之间的投影距离或三维空间位置来判断肢体特征是否包括符合指向控制姿态的手部特征,例如:垂手姿态时,肩关节至腕关节对屏幕的投影长度,成人可为50~70cm;举手触控时,此投影长度变短,例如:0~40cm,可以由此判断是否为触控姿态,此可过滤掉垂手靠近屏幕仅是路过的非操作者。或者,处理装置230可依据手指关节来判断肢体特征是否包括符合指向控制姿态的手部特征。
接着,若大范围特征包括符合指向控制姿态特征(步骤S1101判断为是),处理装置230判断符合指向控制姿态的手部特征与显示平面之间的距离是否介于距离范围内(步骤S1102),例如触控手指与屏幕距离接近于0。具体而言,处理装置230可进一步依据手部特征与显示平面之间的距离来判断操作者是否有互动意图。此距离阈值范围可视实际需求而设计之,本公开对此不限制。若指向控制姿态特征与显示平面之间的距离介于距离阈值范围内(步骤S1102判断为是),处理装置230保留包括手部特征的肢体特征(步骤S1103),使保留下来的肢体特征可用以进行配对。
另一方面,若大范围特征不包括符合指向控制姿态特征(步骤S1101判断为否),处理装置230排除不包括符合指向控制姿态特征的大范围特征(步骤S1104)。若指向控制姿态特征与显示平面之间的距离不介于距离阈值范围内(步骤S1102判断为否),处理装置230排除包括指向控制姿态特征的大范围特征(步骤S1105)。由此,可避免将没有互动意图的路人的大范围特征纳入配对流程而发生误判。
在本公开实施例中,在多操作者与互动显示系统中的透明显示器同时进行互动的情况下,大范围特征可用来协助正确配对细节特征与显示平面上的投影点,以更加准确地判断出此些操作者的指向。由此,本公开的互动显示系统可达成高准确度的互动体验,并使得显示于透明显示器上的信息易于观看。
虽然本公开已以实施例公开如上,然其并非用以限定本公开,任何所属技术领域中具有普通知识者,在不脱离本公开的精神和范围内,当可作些许的更动与润饰,故本公开的保护范围当视后附的权利要求书及其均等范围所界定者为准。
[符号说明]
10、210:透明显示器
20:互动显示系统
220:影像感测装置
230:处理装置
231:处理器
232:储存装置
A1、B1、U1、U2、U6_1、U6_2、U6_3、U7_1、U7_2、U7_3、U8_1、U8_2、U8_3、U9_1、U9_2、U9_3、U10_1、U10_2:使用者
E1、EU1、EU2、E6_2、E7_1、E7_2、E7_3、E8_1、E8_2、E8_3、E9_1、E9_2、E9_3、E10_2:眼部特征
S1:显示平面
V1、V2、DF1、DF2:指向
T1、TU1、TU2:触控点
T6_1、T6_2、T6_3、T7_1、T7_2、T7_3、T8_1、T8_3、T9_2、T10_1、T10_2:投影点
Obj1、Obj2:目标物件
BU1、BU2、B6_1、B6_2、B6_3、B7_2、B8_1、B8_2、B8_3、B9_1、B9_2、B9_3、B10_2:肢体特征
GU1、GU2:手部特征
HU1、HU2:头部特征
S310~S350、S410~S480、S510~S560、S610~S650、S710~S750、S810~S850、S910~S950、S1010~S1050、S1101~S1105:步骤
Claims (20)
1.一种互动显示方法,适用于包括透明显示器、至少一个影像感测装置与处理装置的互动显示系统,包括:
通过所述影像感测装置朝向多个操作者获取影像数据;以及
通过所述处理装置执行以下步骤:
从所述影像数据提取所述操作者的至少一个细节特征与至少一个大范围特征,并检测所述透明显示器的显示平面上的至少一个投影点,其中所述投影点响应于所述操作者的互动行为而产生;
对各所述细节特征与各所述大范围特征进行配对;
对各所述投影点与各所述大范围特征进行配对;以及
依据各所述细节特征与各所述大范围特征的配对结果与各所述投影点与各所述大范围特征的配对结果决定所述操作者中的一个的指向。
2.根据权利要求1所述的互动显示方法,其中依据各所述细节特征与各所述大范围特征的配对结果与各所述投影点与各所述大范围特征的配对结果决定所述操作者中的一个的所述指向的步骤包括:
响应于所述细节特征中的第一细节特征与所述大范围特征中的第一大范围特征配对成功且所述投影点中的第一投影点与所述第一大范围特征配对成功,依据配对成功的所述第一细节特征与所述第一投影点决定所述操作者中的一个的第一指向,以透过所述透明显示器依据所述第一指向显示互动信息。
3.根据权利要求1所述的互动显示方法,还包括通过所述处理装置执行以下步骤:
响应于配对失败结果,执行互动延续操作而产生第二指向,以通过所述透明显示器依据所述第二指向显示互动信息或提供给所述操作者的提示信息,
其中所述配对失败结果包括:所述细节特征中的第二细节特征未成功配对、所述投影点中的第二投影点未成功配对,或所述大范围特征中的第二大范围特征未成功配对,
其中所述互动延续操作包括:依据未成功配对的所述第二细节特征、未成功配对的所述第二大范围特征,或未成功配对的所述第二投影点,查询特征数据库中的特征关联评分而选出特征组合,并决定所述操作者中的一个的所述第二指向。
4.根据权利要求3所述的互动显示方法,其中提供所述提示信息的操作包括建议移动位置、告知缺失特征,以及告知操作者辨识码的辨识结果。
5.根据权利要求3所述的互动显示方法,其中所述配对失败结果包括:所述第二大范围特征未成功配对至所述细节特征且所述第二大范围特征成功配对至所述投影点中的第三投影点,
其中所互动延续操作包括:
依据未与所述细节特征配对成功的所述第二大范围特征以及与所述第二大范围特征相配对的所述第三投影点决定所述操作者中的一个的所述第二指向。
6.根据权利要求3所述的互动显示方法,其中所述配对失败结果包括:所述第二细节特征未成功配对至所述大范围特征且所述第二投影点未成功配对至所述大范围特征,
其中所述互动延续操作包括:
依据未与所述大范围特征配对成功的所述第二细节特征以及未与所述大范围特征配对成功的所述第二投影点,决定所述操作者中的一个的所述第二指向。
7.根据权利要求3所述的互动显示方法,其中所述配对失败结果包括:所述第二投影点未成功一对一配对至所述大范围特征且所述大范围特征中的第三大范围特征成功配对至所述细节特征中的第三细节特征,
其中所述互动延续操作包括:
自所述大范围特征中挑选符合特定评分条件的所述第三大范围特征,并依据与所述第三大范围特征配对成功的所述第三细节特征与所述第二投影点决定所述操作者中的一个的所述第二指向。
8.根据权利要求3所述的互动显示方法,其中所述配对失败结果包括:所述第二大范围特征未成功配对至所述投影点且所述第二大范围特征成功配对至所述细节特征中的第三细节特征,
其中所述互动延续操作包括:
依据未与所述投影点配对成功的所述第二大范围特征与所述第三细节特征,决定所述操作者中的一个的所述第二指向。
9.根据权利要求3所述的互动显示方法,其中所述配对失败结果包括:所述第二投影点未成功配对至所述大范围特征,且无可关联细节特征,
其中所述互动延续操作包括:
依据未成功配对的所述第二投影点与位于所述透明显示器一侧的目标物件,决定所述第二指向。
10.根据权利要求1所述的互动显示方法,其中在配对所述大范围特征之前,所述方法还包括通过所述处理装置执行以下步骤:
依据所述大范围特征中的多个关节位置判断所述大范围特征是否包括符合指向控制姿态特征;
若所述大范围特征包括符合所述指向控制姿态特征,判断所述指向控制姿态特征与所述显示平面之间的距离是否介于距离阈值范围内;以及
若所述指向控制姿态特征与所述显示平面之间的距离介于所述距离阈值范围内,保留包括指向控制姿态特征的所述大范围特征。
11.一种互动显示系统,包括:
透明显示器;
影像感测装置,朝向多个操作者获取影像数据;以及
处理装置,耦接所述透明显示器与所述影像感测装置,所述处理装置经配置以执行以下步骤;
从所述影像数据提取所述操作者的至少一个细节特征与至少一个大范围特征,并检测所述透明显示器的显示平面上的至少一个投影点,其中所述投影点响应于所述操作者的互动行为而产生;
对各所述细节特征与各所述大范围特征进行配对;
对各所述投影点与各所述大范围特征进行配对;以及
依据各所述细节特征与各所述大范围特征的配对结果与各所述投影点与各所述大范围特征的配对结果决定所述操作者中的一个的指向。
12.根据权利要求11所述的互动显示系统,所述处理装置还经配置以执行以下步骤;
响应于所述细节特征中的第一细节特征与所述大范围特征中的第一大范围特征配对成功且所述投影点中的第一投影点与所述第一大范围特征配对成功,依据配对成功的所述第一细节特征与所述第一投影点决定所述操作者中的一个的第一指向,以透过所述透明显示器依据所述第一指向显示互动信息。
13.根据权利要求11所述的互动显示系统,所述处理装置还经配置以执行以下步骤;
响应于配对失败结果,执行互动延续操作而产生第二指向,以通过所述透明显示器显示依据所述第二指向显示互动信息或提供给所述操作者的提示信息,
其中所述配对失败结果包括:所述细节特征中的第二细节特征未成功配对、所述投影点中的第二投影点未成功配对,或所述大范围特征中的第二大范围特征未成功配对,
其中所述互动延续操作包括:依据未成功配对的所述第二细节特征、未成功配对的所述第二大范围特征,或未成功配对的所述第二投影点,查询特征数据库中的特征关联评分而选出特征组合,并决定所述操作者中的一个的所述第二指向。
14.根据权利要求13所述的互动显示系统,其中提供所述提示信息的操作包括建议移动位置、告知缺失特征或告知操作者辨识码的辨识结果。
15.根据权利要求13所述的互动显示系统,其中所述配对失败结果包括:所述第二大范围特征未成功配对至所述细节特征且所述第二大范围特征成功配对至所述投影点中的第三投影点,
其中所互动延续操作包括:
依据未与所述细节特征配对成功的所述第二大范围特征以及与所述第二大范围特征相配对的所述第三投影点决定所述操作者中的一个的所述第二指向。
16.根据权利要求13所述的互动显示系统,其中所述配对失败结果包括:所述第二细节特征未成功配对至所述大范围特征且所述第二投影点未成功配对至所述大范围特征,
其中所述互动延续操作包括:
依据未与所述大范围特征配对成功的所述第二细节特征以及未与所述大范围特征配对成功的所述第二投影点,决定所述操作者中的一个的所述第二指向。
17.根据权利要求13所述的互动显示系统,其中所述配对失败结果包括:所述第二投影点未成功一对一配对至所述大范围特征且所述大范围特征中的第三大范围特征成功配对至所述细节特征中的第三细节特征,
其中所述互动延续操作包括:
自所述大范围特征中挑选符合特定评分条件的所述第三大范围特征,并依据与所述三大范围特征配对成功的所述第三细节特征与所述第二投影点决定所述操作者中的一个的所述第二指向。
18.根据权利要求13所述的互动显示系统,其中所述配对失败结果包括:所述第二大范围特征未成功配对至所述投影点且所述第二大范围特征成功配对至所述细节特征中的第三细节特征,
其中所述互动延续操作包括:
依据未与所述投影点配对成功的所述第二大范围特征与所述第三细节特征,决定所述操作者中的一个的所述第二指向。
19.根据权利要求13所述的互动显示系统,其中所述配对失败结果包括:所述第二投影点未成功配对至所述大范围特征,且无可关联细节特征,
其中所述互动延续操作包括:
依据未成功配对的所述第二投影点与位于所述透明显示器一侧的目标物件,决定所述操作者中的一个的所述第二指向。
20.根据权利要求11所述的互动显示系统,其中在配对所述大范围特征之前,所述处理装置还经配置以下执行以下步骤:
依据所述大范围特征中的多个关节位置判断所述大范围特征是否包括符合指向控制姿态特征;
若所述大范围特征包括符合所述指向控制姿态特征,判断所述指向控制姿态特征与所述显示平面之间的距离是否介于距离阈值范围内;以及
若所述指向控制姿态特征与所述显示平面之间的距离介于所述距离阈值范围内,保留包括指向控制姿态特征的所述大范围特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910802178.0A CN112445320A (zh) | 2019-08-28 | 2019-08-28 | 互动显示方法与互动显示系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910802178.0A CN112445320A (zh) | 2019-08-28 | 2019-08-28 | 互动显示方法与互动显示系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112445320A true CN112445320A (zh) | 2021-03-05 |
Family
ID=74741848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910802178.0A Pending CN112445320A (zh) | 2019-08-28 | 2019-08-28 | 互动显示方法与互动显示系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112445320A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110267265A1 (en) * | 2010-04-30 | 2011-11-03 | Verizon Patent And Licensing, Inc. | Spatial-input-based cursor projection systems and methods |
US20120206333A1 (en) * | 2011-02-16 | 2012-08-16 | Seok-Joong Kim | Virtual touch apparatus and method without pointer on screen |
US20160179205A1 (en) * | 2013-06-27 | 2016-06-23 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
US20170287139A1 (en) * | 2009-10-07 | 2017-10-05 | Microsoft Technology Licensing, Llc | Methods and systems for determining and tracking extremities of a target |
CN107357512A (zh) * | 2017-06-09 | 2017-11-17 | 丝路视觉科技股份有限公司 | 一种人物互动方法及人物互动装置 |
CN109683774A (zh) * | 2017-10-19 | 2019-04-26 | 财团法人工业技术研究院 | 交互式显示系统及交互式显示控制方法 |
-
2019
- 2019-08-28 CN CN201910802178.0A patent/CN112445320A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170287139A1 (en) * | 2009-10-07 | 2017-10-05 | Microsoft Technology Licensing, Llc | Methods and systems for determining and tracking extremities of a target |
US20110267265A1 (en) * | 2010-04-30 | 2011-11-03 | Verizon Patent And Licensing, Inc. | Spatial-input-based cursor projection systems and methods |
US20120206333A1 (en) * | 2011-02-16 | 2012-08-16 | Seok-Joong Kim | Virtual touch apparatus and method without pointer on screen |
US20160179205A1 (en) * | 2013-06-27 | 2016-06-23 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
CN107357512A (zh) * | 2017-06-09 | 2017-11-17 | 丝路视觉科技股份有限公司 | 一种人物互动方法及人物互动装置 |
CN109683774A (zh) * | 2017-10-19 | 2019-04-26 | 财团法人工业技术研究院 | 交互式显示系统及交互式显示控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220382379A1 (en) | Touch Free User Interface | |
US10732725B2 (en) | Method and apparatus of interactive display based on gesture recognition | |
US11507336B2 (en) | Augmented reality display sharing | |
JP6480434B2 (ja) | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 | |
US11947729B2 (en) | Gesture recognition method and device, gesture control method and device and virtual reality apparatus | |
CN110322500A (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
US8823642B2 (en) | Methods and systems for controlling devices using gestures and related 3D sensor | |
US10095030B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
US20170106540A1 (en) | Information processing apparatus, information processing method, and program | |
US20190265841A1 (en) | 3d touch interaction device, touch interaction method thereof, and display device | |
US20140317576A1 (en) | Method and system for responding to user's selection gesture of object displayed in three dimensions | |
US11635827B2 (en) | Control device, display device, program, and detection method | |
CN110349212A (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
TWI804671B (zh) | 互動顯示方法與互動顯示系統 | |
US20190369807A1 (en) | Information processing device, information processing method, and program | |
US20230367118A1 (en) | Augmented reality gaming using virtual eyewear beams | |
JP2017084307A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
CN112445320A (zh) | 互动显示方法与互动显示系统 | |
WO2019130729A1 (ja) | 情報処理装置、情報処理方法および情報処理システム | |
Haubner et al. | Recognition of dynamic hand gestures with time-of-flight cameras | |
TWI836680B (zh) | 立體影像互動模擬系統與運作方法 | |
EP3059664A1 (en) | A method for controlling a device by gestures and a system for controlling a device by gestures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |