CN110502095B - 具备手势感测功能的三维显示器 - Google Patents

具备手势感测功能的三维显示器 Download PDF

Info

Publication number
CN110502095B
CN110502095B CN201810475242.4A CN201810475242A CN110502095B CN 110502095 B CN110502095 B CN 110502095B CN 201810475242 A CN201810475242 A CN 201810475242A CN 110502095 B CN110502095 B CN 110502095B
Authority
CN
China
Prior art keywords
gesture
centroid
infrared sensors
groups
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810475242.4A
Other languages
English (en)
Other versions
CN110502095A (zh
Inventor
郭峻廷
孙嘉余
黄昭世
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acer Inc
Original Assignee
Acer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acer Inc filed Critical Acer Inc
Priority to CN201810475242.4A priority Critical patent/CN110502095B/zh
Publication of CN110502095A publication Critical patent/CN110502095A/zh
Application granted granted Critical
Publication of CN110502095B publication Critical patent/CN110502095B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种三维显示器,其包括屏幕、第一和第二侦测单元,以及处理电路。第一侦测单元包括多组第一红外线传感器,设置于屏幕的上方。第二侦测单元包括多组第二红外线传感器,设置于屏幕的下方。处理电路接收多组第一和第二红外线传感器的光学信号以提供第一和第二侦测单元的扫描区域所得的数据、根据第一和第二侦测单元的扫描区域所得的数据判断是否侦测到一手势、计算手势的一个或多个形心的位置、根据一个或多个形心的移动信息来辨识出手势类型,且根据手势的类型指示屏幕以对应手势的方式显示三维对象。本发明可提供一种低成本、低耗能且体积小的具备手势感测功能的三维显示器。

Description

具备手势感测功能的三维显示器
技术领域
本发明涉及一种具备手势感测功能的三维显示器,尤其涉及一种低成本、低耗能且体积小的具备手势感测功能的三维显示器。
背景技术
目前远距感测技术使用非接触式的量测显像,常见的有微波(microwave)、声波(acoustic wave)、红外线(Infrared)、雷射(laser)、立体视觉法(stereoscopic)等,这些大都属于三角测距(triangulation)的应用。三维(3D)显示器搭配手势感测的互动概念虽然早已提出,但一直无法大量贩卖,主要原因之一在于手势感测的摄影机感测组件体积庞大,耗电量大,且往往价格昂贵,不适合安装在一般的笔记本电脑、桌面计算机,或可携式电子装置上。
因此,需要一种低成本、低耗能且体积小的具备手势感测功能的三维显示器。
发明内容
鉴于上述现有技术的问题,本发明的目的在于提供一种低成本、低耗能且体积小的具备手势感测功能的三维显示器。
为达到上述目的,本发明公开一种能具备手势感测功能的三维显示器,其包括一屏幕、一第一侦测单元、一第二侦测单元,以及一处理电路。所述屏幕用来显示一三维对象。所述第一侦测单元包括M组第一红外线传感器,设置于所述屏幕的上方,其中M为大于1的整数。所述第二侦测单元包括N组第二红外线传感器,设置于所述屏幕的下方,其中M为大于1的整数。所述处理电路用来接收所述M组第一红外线传感器和所述N组第二红外线传感器的光学信号,进而提供所述M组第一红外线传感器的扫描区域所得的数据和所述N组第二红外线传感器的扫描区域所得的数据、根据所述M组第一红外线传感器的扫描区域所得的数据和所述N组第二红外线传感器的扫描区域所得的数据判断是否侦测到一手势、计算所述手势的一个或多个形心的位置、根据所述一个或多个形心的移动信息来辨识出所述手势的类型,且根据所述手势的类型指示所述屏幕以对应所述手势的方式显示所述三维对象。
附图说明
图1为本发明实施例中一种具备手势感测功能的三维显示器的功能方块图。
图2为本发明实施例中三维显示器的示意图。
图3A~3D显示了本发明实施例中第一侦测单元运作时的示意图。
图4A~4D为本发明实施例中第二侦测单元运作时的示意图。
图5为本发明实施例中第一侦测单元和第二侦测单元的扫描区域的示意图。
图6和图7为本发明实施例中第一侦测单元和第二侦测单元的扫描方式的示意图。
图8为本发明实施例中第一侦测单元和第二侦测单元运作时的示意图。
图9A~9D为本发明实施例中第一侦测单元和第二侦测单元侦测手势时的示意图。
图10A~10D为本发明实施例中第一侦测单元和第二侦测单元侦测手势时的示意图。
图11A~11D为本发明实施例中第一侦测单元和第二侦测单元侦测手势时的示意图。
其中,附图标记说明如下:
10 第一侦测单元
20 第二侦测单元
30 屏幕
40 处理电路
50 扫描区域
80 手掌
100 三维显示器
A~H 扫描区域
A1~H1 有效扫描范围
A0~H0 滤除扫描范围
S1~S16 子区域
P1~P4、Q1~Q3 形心坐标
具体实施方式
图1为本发明实施例中一种具备手势感测功能的三维显示器100的功能方块图。三维显示器100包括一第一侦测单元10、一第二侦测单元20、一屏幕30,以及一处理电路40。第一侦测单元10包括多组红外线传感器(IR sensor)SRU1~SRUM,第二侦测单元20包括多组红外线传感器SRD1~SRDN,其中M和N为大于1的整数。处理电路40可根据第一侦测单元10的扫描区域所得的数据和第一侦测单元10的扫描区域所得的数据判断是否侦测到一手势、判断手势的类型,再依此指示屏幕30以对应手势的方式显示对象。
在本发明中,三维显示器100可为笔记本电脑、桌面计算机、电视,或可携式电子装置等具备显示功能的装置。然而,三维显示器100的种类并不限定本发明的范畴。
在本发明中,处理电路40可以采用处理器或特殊应用集成电路(application-specific integrated circuit,ASIC)等电路组件来实施。然而,处理电路30的实施方式并不限定本发明的范畴。
图2为本发明实施例中三维显示器100的示意图。为了说明目的,图2显示了M=N=4时的实施例,然而M和N的值并不限定本发明的范畴。在图2所示的三维显示器100中,第一侦测单元10的红外线传感器SRU1~SRU4设置于屏幕30的上方,第二侦测单元20的红外线传感器SRD1~SRD4设置于屏幕30的下方。
本发明的三维显示器100采用时差测距的技术来提供手势感测功能。由第一侦测单元10的和第二侦测单元20内的红外线传感器发射红外线光束,红外线光束打到物体表面后反射,再接收信号并记录时间。由于光速为一已知条件,红外线光束信号往返一趟的时间即可换算为信号所行走的距离,进而得知物体的位置。
图3A~3D显示了本发明实施例中第一侦测单元10运作时的示意图。图3A的左方显示了第一侦测单元10中红外线传感器SRU1的扫描区域A的正视图,而图3A的右方显示了第一侦测单元10中红外线传感器SRU1的扫描区域A的上视图。图3B的左方显示了第一侦测单元10中红外线传感器SRU2的扫描区域B的正视图,而图3B的右方显示了第一侦测单元10中红外线传感器SRU2的扫描区域B的上视图。图3C的左方显示了第一侦测单元10中红外线传感器SRU3的扫描区域C的正视图,而图3C的右方显示了第一侦测单元10中红外线传感器SRU3的扫描区域C的上视图。图3D的左方显示了第一侦测单元10中红外线传感器SRU4的扫描区域D的正视图,而图3D的右方显示了第一侦测单元10中红外线传感器SRU4的扫描区域D的上视图。在图3A~3D所示的实施例中,扫描区域A~D为屏幕30前的方锥范围,然而扫描区域A~D的形状并不限定本发明的范畴。
在本发明中,处理电路40可将第一侦测单元10中每一红外线传感器的扫描区域所得的数据分别滤除默认区域内的数据,以分别得到每一红外线传感器的感测区域影像。更详细地说,红外线传感器SRU1的扫描区域A包括一有效扫描范围A1和一滤除扫描范围A0,红外线传感器SRU2的扫描区域B包括一有效扫描范围B1和一滤除扫描范围B0,红外线传感器SRU3的扫描区域C包括一有效扫描范围C1和一滤除扫描范围C0,而红外线传感器SRU4的扫描区域D包括一有效扫描范围D1和一滤除扫描范围D0。红外线传感器SRU1~SRU4的感测区域影像分别为有效扫描范围A1~D1内所得的数据。在本发明一实施例中,有效扫描范围A1~D1彼此之间并未有交集。
图4A~4D显示了本发明实施例中第二侦测单元20运作时的示意图。图4A的左方显示了第二侦测单元20中红外线传感器SRD1的扫描区域E的后视图,而图4A的右方显示了第二侦测单元20中红外线传感器SRD1的扫描区域E的上视图。图4B的左方显示了第二侦测单元20中红外线传感器SRD2的扫描区域F的后视图,而图4B的右方显示了第二侦测单元20中红外线传感器SRD2的扫描区域F的上视图。图4C的左方显示了第二侦测单元20中红外线传感器SRD3的扫描区域G的后视图,而图4C的右方显示了第二侦测单元20中红外线传感器SRD3的扫描区域G的上视图。图4D的左方显示了第二侦测单元20中红外线传感器SRD4的扫描区域H的后视图,而图4D的右方显示了第二侦测单元20中红外线传感器SRD4的扫描区域H的上视图。在图4A~4D所示的实施例中,扫描区域E~H为屏幕30前的方锥范围,然而扫描区域E~H的形状并不限定本发明的范畴。
在本发明中,处理电路40可将第二侦测单元20中每一红外线传感器的扫描区域所得的数据分别滤除默认区域内的数据,以分别得到每一红外线传感器的感测区域影像。更详细地说,红外线传感器SRD1的扫描区域E包括一有效扫描范围E1和一滤除扫描范围E0,红外线传感器SRD2的扫描区域F包括一有效扫描范围F1和一滤除扫描范围F0,红外线传感器SRD3的扫描区域G包括一有效扫描范围G1和一滤除扫描范围G0,而红外线传感器SRD4的扫描区域H包括一有效扫描范围H1和一滤除扫描范围H0。红外线传感器SRD1~SRD4的感测区域影像分别为有效扫描范围E1~H1内所得的数据。在本发明一实施例中,有效扫描范围E1~H1彼此之间并未有交集。
在本发明中,每一扫描区域的有效扫描范围和滤除扫描范围的大小可由M和N的值来决定。图5显示了第一侦测单元10和第二侦测单元20的扫描区域50,其面积相关于显示器30的面积。针对上述M=N=4时的实施例,扫描区域50包括16个子区域S1~S16,其中每一子区域内为第一侦测单元10中一红外线传感器的感测区域影像和第二侦测单元20中一红外线传感器的感测区域影像的联集。换句话说,当处理电路40根据第一侦测单元10和第二侦测单元20的所得的数据判断侦测到一手势时,手势的形心移动可由第一侦测单元10中一相对应红外线传感器和第二侦测单元20中一相对应红外线传感器来侦测。举例来说,子区域S4内的形心移动信息由第一侦测单元10的红外线传感器SRU1和第二侦测单元20的红外线传感器SRD4来监控,子区域S11内形心移动信息由第一侦测单元10的红外线传感器SRU2和第二侦测单元20的红外线传感器SRD2来监控。
图6和图7为本发明实施例中第一侦测单元10和第二侦测单元20扫描方式的示意图。在图6所示的实施例中,图框1内第一侦测单元10的红外线传感器SRU1取得有效扫描范围A1内的数据而第二侦测单元20的红外线传感器SRD1取得有效扫描范围E1内的数据,图框2内第一侦测单元10的红外线传感器SRU2取得有效扫描范围B 1内的数据而第二侦测单元20的红外线传感器SRD2取得有效扫描范围F1内的数据,图框3内第一侦测单元10的红外线传感器SRU3取得有效扫描范围C1内的数据而第二侦测单元20的红外线传感器SRD3取得有效扫描范围E1内的数据,图框4内第一侦测单元10的红外线传感器SRU4取得有效扫描范围D1内的数据而第二侦测单元20的红外线传感器SRD4取得有效扫描范围H1内的数据。在图7所示的实施例中,图框1内第一侦测单元10的红外线传感器SRU1~SRU4会分别取得有效扫描范围A1、B1、C1和D1的数据,而图框2内第二侦测单元20的红外线传感器SRD1~SRD4会分别取得有效扫描范围E1、F1、G1和H1的资料。然而,第一侦测单元10和第二侦测单元20的扫描方式并不限定本发明的范畴。
图8为本发明实施例中第一侦测单元10和第二侦测单元20运作时的示意图。假设用户的手掌80出现在扫描区域50内,第一侦测单元10和第二侦测单元20可侦测到4个形心坐标P1~P4,其中位于子区域S4内的形心坐标P1是来自第一侦测单元10的红外线传感器SRU1的效扫描范围A1数据和第二侦测单元20的红外线传感器SRD4的有效扫描范围H1数据,位于子区域S8内的形心坐标P2是来自第一侦测单元10的红外线传感器SRU1的效扫描范围A1数据和第二侦测单元20的红外线传感器SRD3有效扫描范围G1数据,位于子区域7内的形心坐标P3是来自第一侦测单元10的红外线传感器SRU2的效扫描范围B1数据和第二侦测单元20的红外线传感器SRD3的有效扫描范围G1数据,而位于子区域S11内的形心坐标P4是来自第一侦测单元10的红外线传感器SRU2的效扫描范围B1数据和第二侦测单元20的红外线传感器SRD2的有效扫描范围F1数据。
图9A~9D为本发明实施例中第一侦测单元10和第二侦测单元20侦测手势时的示意图。图9A和9B依序显示了用户手掌80在下达抓取手势时的过程,其中在第9A图所示的初始状态下第一侦测单元10和第二侦测单元20侦测到第一至第三形心的坐标P1~P3,而在第9B图所示的结束状态下第一侦测单元10和第二侦测单元20侦测到第一至第三形心的坐标Q1~Q3。根据形心坐标P1~P3和Q1~Q3的位置变化,处理电路40可判断出各形心的移动方向,其中第一形心和第二形心彼此接近,而第三形心远离屏幕30移动,如第9C图中的箭头所示。根据各形心的移动方向,处理电路40可判断出用户手掌80在下达抓取手势,进而依此指示屏幕30相对地显示对象被抓取时的按压状态,如图9D所示。
图10A~10D为本发明实施例中第一侦测单元10和第二侦测单元20侦测手势时的示意图。图10A和10B图依序显示了用户手掌80在下达转动手势时的过程,其中在第10A图所示的初始状态下第一侦测单元10和第二侦测单元20侦测到第一和第二形心的坐标坐标P1~P2,而在第10B图所示的结束状态下第一侦测单元10和第二侦测单元20侦测到第一和第二形心的坐标Q1~Q2。根据形心坐标P1~P2和Q1~Q2的位置变化,处理电路40可判断出各形心的移动方向,其中第一形心和第二形心彼此之间的距离不变,第一形心远离屏幕30移动,且第二形心接近屏幕30移动,如第10C图中的箭头所示。根据各形心的移动方向,处理电路40可判断出用户手掌80在下达转动手势,进而依此指示屏幕30显示对象依手势方向M1被旋转的状态,如图10D所示。
图11A~11D为本发明实施例中第一侦测单元10和第二侦测单元20侦测手势时的示意图。图11A~11B依序显示了用户手掌80在下达移动手势时的过程,其中在图11A所示的初始状态下第一侦测单元10和第二侦测单元20侦测到第一形心的坐标P1,而在图11B所示的结束状态下第一侦测单元10和第二侦测单元20侦测到第一形心的坐标Q1。根据形心坐标P1和Q1的位置变化,处理电路40可判断出各形心的移动方向,其中第一形心和屏幕30之间的距离不变,但由屏幕30的一侧移至另一侧,如图11C中的箭头所示。根据各形心的移动方向,处理电路40可判断出用户手掌80在下达移动手势,进而依此指示屏幕30显示对象依手势方向M1被移动的状态,如图11D所示。
综上所述,本发明的三维显示器使用低成本、低耗能且体积小的红外线传感器来侦测手势的位置,再搭配多组红外线传感器的位置和分时扫描的设计,将相关于显示器面积的扫描区域分为多个子区域以辨识手势的移动信息,进而判断出手势种类以指示屏幕以对应手势的方式显示对象。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种能具备手势感测功能的三维显示器,其特征在于,包括:
一屏幕,用来显示一三维对象;
一第一侦测单元,其包括M组第一红外线传感器,设置于所述屏幕的上方,其中M为大于1的整数;
一第二侦测单元,其包括N组第二红外线传感器,设置于所述屏幕的下方,其中N为大于1的整数;以及
一处理电路,用来:
接收所述M组第一红外线传感器和所述N组第二红外线传感器的光学信号,进而提供所述M组第一红外线传感器的扫描区域所得的数据和所述N组第二红外线传感器的扫描区域所得的数据;
根据所述M组第一红外线传感器的扫描区域所得的数据和所述N组第二红外线传感器的扫描区域所得的数据判断是否侦测到一手势;
计算所述手势的一个或多个形心的位置;
根据所述一个或多个形心的移动信息来辨识出所述手势的类型;且
根据所述手势的类型指示所述屏幕以对应所述手势的方式显示所述三维对象;
将所述M组第一红外线传感器的扫描区域所得的数据分别滤除M个默认区域内的数据以分别得到所述M组第一红外线传感器的M个感测区域影像;
将所述N组第二红外线传感器的扫描区域所得的数据分别滤除N个默认区域内的数据以分别得到所述N组第二红外线传感器的N个感测区域影像;
取得所述M组第一红外线传感器中每一第一红外线传感器的感测区域影像和所述N组第二红外线传感器中每一第二红外线传感器的感测区域影像的联集以得到MxN个子区域;以及
当侦测到所述手势时,根据所述手势出现在所述MxN个子区域中的一个或多个子区域以计算出所述一个或多个形心的位置。
2.如权利要求1所述的三维显示器,其特征在于,所述M组第一红外线传感器的M个感测区域影像彼此之间并未有交集,且所述N组第二红外线传感器的N个感测区域影像彼此之间并未有交集。
3.如权利要求1所述的三维显示器,其特征在于,所述M组第一红外线传感器是在一第一图框内进行扫描,而所述N组第二红外线传感器是在一第二图框内进行扫描。
4.如权利要求1所述的三维显示器,其特征在于,所述M组第一红外线传感器依序在一第一图框至一第M图框内进行扫描,所述N组第二红外线传感器依序在一第一图框至一第N图框内进行扫描,且M=N。
5.如权利要求1所述的三维显示器,其特征在于,所述M组第一红外线传感器的扫描区域为所述屏幕前的一第一方锥范围,而所述N组第二红外线传感器的扫描区域为所述屏幕前的一第二方锥范围。
6.如权利要求1所述的三维显示器,其特征在于:
当侦测到所述手势且计算出所述手势的一第一形心、一第二形心和一第三形心的位置时,判断所述第一形心、所述第二形心和所述第三形心的移动方向;
当判断所述第一形心和所述第三形心彼此接近,且所述第二形心远离所述屏幕移动时,判断所述手势为一抓取手势;且
所述第二形心的位置位于所述第一形心和所述第三形心之间。
7.如权利要求1所述的三维显示器,其特征在于:
当侦测到所述手势且计算出所述手势的一第一形心和一第二形心的位置时,判断所述第一形心和所述第二形心的移动方向;且
当判断所述第一形心和所述第二形心彼此之间的距离不变,所述第一形心远离所述屏幕移动,且所述第二形心接近所述屏幕移动时,判断所述手势为一旋转手势。
8.如权利要求1所述的三维显示器,其特征在于:
当侦测到所述手势且计算出所述手势的一第一形心的位置时,
判断所述第一形心的移动方向;且
当判断所述第一形心和所述屏幕之间的距离不变,但由所述屏幕的一侧移至另一侧时,判断所述手势为一移动手势。
CN201810475242.4A 2018-05-17 2018-05-17 具备手势感测功能的三维显示器 Active CN110502095B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810475242.4A CN110502095B (zh) 2018-05-17 2018-05-17 具备手势感测功能的三维显示器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810475242.4A CN110502095B (zh) 2018-05-17 2018-05-17 具备手势感测功能的三维显示器

Publications (2)

Publication Number Publication Date
CN110502095A CN110502095A (zh) 2019-11-26
CN110502095B true CN110502095B (zh) 2021-10-29

Family

ID=68584979

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810475242.4A Active CN110502095B (zh) 2018-05-17 2018-05-17 具备手势感测功能的三维显示器

Country Status (1)

Country Link
CN (1) CN110502095B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002048642A2 (en) * 2000-11-19 2002-06-20 Canesta, Inc. Method for enhancing performance in a system utilizing an array of sensors that sense at least two-dimensions
CN102226880A (zh) * 2011-06-03 2011-10-26 北京新岸线网络技术有限公司 一种基于虚拟现实的体感操作方法及系统
CN103365410A (zh) * 2012-04-03 2013-10-23 纬创资通股份有限公司 手势感测装置及具有手势输入功能的电子系统
TW201423484A (zh) * 2012-12-14 2014-06-16 Pixart Imaging Inc 動態偵測系統
CN104137031A (zh) * 2012-03-01 2014-11-05 英特尔公司 屏上对象的手动操纵
KR101456983B1 (ko) * 2013-11-20 2014-11-26 주식회사 루멘스 각도 인지형 명령 입력 시스템, 비접촉식 조이스틱 및 각도 인지 명령 입력 방법
CN104220966A (zh) * 2012-03-26 2014-12-17 硅立康通讯科技株式会社 动作手势感测模块及动作手势感测方法
CN104732193A (zh) * 2013-12-19 2015-06-24 光宝科技股份有限公司 手势辨识系统及其手势辨识方法
CN105204650A (zh) * 2015-10-22 2015-12-30 上海科世达-华阳汽车电器有限公司 一种手势识别方法、控制器、装置及设备
CN107407959A (zh) * 2014-09-30 2017-11-28 惠普发展公司,有限责任合伙企业 基于姿势的三维图像的操纵

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002048642A2 (en) * 2000-11-19 2002-06-20 Canesta, Inc. Method for enhancing performance in a system utilizing an array of sensors that sense at least two-dimensions
CN102226880A (zh) * 2011-06-03 2011-10-26 北京新岸线网络技术有限公司 一种基于虚拟现实的体感操作方法及系统
CN104137031A (zh) * 2012-03-01 2014-11-05 英特尔公司 屏上对象的手动操纵
CN104220966A (zh) * 2012-03-26 2014-12-17 硅立康通讯科技株式会社 动作手势感测模块及动作手势感测方法
CN103365410A (zh) * 2012-04-03 2013-10-23 纬创资通股份有限公司 手势感测装置及具有手势输入功能的电子系统
TW201423484A (zh) * 2012-12-14 2014-06-16 Pixart Imaging Inc 動態偵測系統
KR101456983B1 (ko) * 2013-11-20 2014-11-26 주식회사 루멘스 각도 인지형 명령 입력 시스템, 비접촉식 조이스틱 및 각도 인지 명령 입력 방법
CN104732193A (zh) * 2013-12-19 2015-06-24 光宝科技股份有限公司 手势辨识系统及其手势辨识方法
CN107407959A (zh) * 2014-09-30 2017-11-28 惠普发展公司,有限责任合伙企业 基于姿势的三维图像的操纵
CN105204650A (zh) * 2015-10-22 2015-12-30 上海科世达-华阳汽车电器有限公司 一种手势识别方法、控制器、装置及设备

Also Published As

Publication number Publication date
CN110502095A (zh) 2019-11-26

Similar Documents

Publication Publication Date Title
US8971565B2 (en) Human interface electronic device
EP2353069B1 (en) Stereo optical sensors for resolving multi-touch in a touch detection system
US8754850B2 (en) Apparatus, system, method, and program for processing information
US8339378B2 (en) Interactive input system with multi-angle reflector
US8415958B2 (en) Single layer capacitive image sensing
TWI454993B (zh) 以成像元件為主之觸控系統
EP0829798A2 (en) Image-based touchscreen
US20110199335A1 (en) Determining a Position of an Object Using a Single Camera
TWI498785B (zh) 觸控感應裝置以及觸碰點偵測方法
US8659577B2 (en) Touch system and pointer coordinate detection method therefor
JP4054847B2 (ja) 光デジタイザ
WO2012103693A1 (en) Multiple-input touch panel and method for gesture recognition
WO2005031554A1 (ja) 光学式位置検出装置
EP2402844B1 (en) Electronic devices including interactive displays and related methods and computer program products
US8780084B2 (en) Apparatus for detecting a touching position on a flat panel display and a method thereof
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
JP2016218893A (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
CN110502095B (zh) 具备手势感测功能的三维显示器
TWI454653B (zh) 三維絕對座標偵測系統、互動三維顯示系統以及辨識物體之三維座標的方法
US20160139735A1 (en) Optical touch screen
TWI697810B (zh) 具備手勢感測功能之三維顯示器
KR20200039983A (ko) 공간 터치 감지 장치 및 이를 포함하는 표시 장치
US20050057533A1 (en) Detecting stylus location using single linear image sensor
JP2018063555A (ja) 情報処理装置、情報処理方法及びプログラム
KR20090037535A (ko) 터치스크린의 입력 처리 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant