CN103529929B - 手势识别系统及可识别手势动作的眼镜 - Google Patents

手势识别系统及可识别手势动作的眼镜 Download PDF

Info

Publication number
CN103529929B
CN103529929B CN201210345791.2A CN201210345791A CN103529929B CN 103529929 B CN103529929 B CN 103529929B CN 201210345791 A CN201210345791 A CN 201210345791A CN 103529929 B CN103529929 B CN 103529929B
Authority
CN
China
Prior art keywords
glasses
recognition system
infrared light
gesture recognition
lens body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210345791.2A
Other languages
English (en)
Other versions
CN103529929A (zh
Inventor
赖宏光
许恩峰
谢孟寰
黄昱豪
陈念泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixart Imaging Inc
Original Assignee
Pixart Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixart Imaging Inc filed Critical Pixart Imaging Inc
Publication of CN103529929A publication Critical patent/CN103529929A/zh
Application granted granted Critical
Publication of CN103529929B publication Critical patent/CN103529929B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种可识别手势动作的眼镜,包括镜框以及手势识别系统。手势识别系统设置在镜框上。手势识别系统适于检测位于眼镜前方的手势动作并对应地产生控制命令。手势识别系统适于传送控制命令至电子装置,以控制电子装置。

Description

手势识别系统及可识别手势动作的眼镜
技术领域
本发明涉及一种眼镜,且特别是涉及一种可识别手势动作的眼镜。
背景技术
随着智能型手机的蓬勃发展,为便于使用者在手机上的操作与使用,触控式面板的灵敏度与流畅度也随着改善,且相关的触控式手势,也随着越来越多元化,例如拇指与食指的推拨动作即对应放大或缩小的功能,或是向右拨动即对应下一张照片的命令。然而,上述所采用的手势识别都是利用触控式面板来进行。
目前,以光学方式进行手势识别的相关技术随着目前多媒体的蓬勃发展也快速地发展起来,例如目前即有的智能型电视便可通过使用者的手势,而进行选台或声量的控制。然而,目前手势识别装置都是设置在电子装置端,而手势识别装置由于是利用光学感测的方式进行,因此其操作距离便有所限制,如美国专利公告号第5594469号所披露的技术。
发明内容
本发明提供一种手势识别系统,其具有无线传输单元而可将控制命令传递至远处的电子装置上。
本发明另提供一种眼镜,其具有上述的手势识别系统,而可控制远处的电子装置。
本发明的其它目的和优点可以从本发明所揭露的技术特征中得到进一步的了解。
为达上述之一或部份或全部目的或是其它目的,本发明的一实施例提出一种手势识别系统,其包括图像传感器、处理器以及传输单元。图像传感器适于获取多张图像,其中这些图像包含物体移动的轨迹。处理器处理这些图像并识别物体移动的轨迹以产生控制命令。传输单元适于将控制命令传递至电子装置,以控制电子装置。
在本发明的一实施例中,手势识别系统不整合于电子装置中。
在本发明的一实施例中,控制命令包括启动关闭命令、画面缩放的命令、翻页命令、音量控制命令或频道选择的命令。
在本发明的一实施例中,物体移动的轨迹包括向上移动轨迹、向下移动轨迹、向左移动轨迹、向右移动轨迹、向前移动轨迹、向后移动的轨迹或旋转移动轨迹。
在本发明的一实施例中,手势识别系统更包括发光组件。发光组件适于提供光束,其中图像传感器所获取这些图像为物体所反射的这些光束的图像。
本发明的另一实施例提出一种眼镜,其包括眼镜本体以及手势识别系统。手势识别系统装设在眼镜本体上。手势识别系统包括图像传感器以及处理器。图像传感器适于获取多张图像,其中这些图像包含物体移动的轨迹。处理器处理这些图像并识别物体移动的轨迹而产生控制命令。传输单元适于将控制命令传递至电子装置,以控制电子装置。
在本发明的一实施例中,手势识别系统设置在眼镜本体的连接部上。
在本发明的一实施例中,手势识别系统设置在眼镜本体的镜脚上。
本发明的另一实施例提出一种眼镜,其包括眼镜本体以及手势识别系统。眼镜本体具有至少一显示单元。手势识别系统装设在眼镜本体上。手势识别系统包括图像传感器以及处理器。图像传感器适于获取多张图像,其中这些图像包含物体移动的轨迹。处理器处理这些图像并识别物体移动的轨迹以产生控制命令,其中处理器适于将控制命令传递至显示单元,以控制显示单元。
在本发明的一实施例中,至少一显示单元包括左眼镜片或右眼镜片。在本发明的一实施例中,左眼镜片或右眼镜片为有激发光二极管显示面板。
本发明的另一实施例提出一种眼镜,其包括眼镜本体以及手势识别系统。眼镜本体具有左眼镜片或右眼镜片。手势识别系统装设在眼镜本体上。手势识别系统包括图像传感器以及处理器。图像传感器适于获取多张图像,其中这些图像包含物体移动的轨迹。处理器处理这些图像并识别物体移动的轨迹以产生控制命令,其中处理器适于将控制命令传递至投影单元,以控制投影单元所投影至左眼镜片或右眼镜片上的画面。
基于上述,本发明的手势识别系统具有无线传输组件,因此即便手势识别系统本身具有一定操作距离,但由于其可通过装设在眼镜或是其它可携式装置上,如蓝牙耳机、手机或平版计算机,从而便可使得手势识别系统随时地位于使用者的周边,进而可通过手势识别系统的无线传输组件而将控制命令传递至所要控制的电子装置上,即传统的操作距离将被大大地扩大。另外,手势识别系统装设在眼镜的不同部位,将有助于使用者的进行手势的操作,例如:可设置在眼镜的连接部位置,或者是设置在边框的外围而可以降低手势操作时同时遮挡到部分视线。再者,若是眼镜本身即具有显示画面的显示单元时,手势识别系统也可不装设有无线传输单元,即处理器所产生的控制命令将可直接地传递至显示单元,从而可控制眼镜本身的显示画面。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图式作详细说明如下。
附图说明
图1为本发明一实施例的可识别手势的眼镜的示意图;
图2为图1的手势识别系统的方块示意图;
图3展示一种部分一体成型的眼镜的示意图;
图4为手势识别系统的处理器设置在电子装置端的示意图;
图5及图6展示本发明另一实施例的眼镜及其手势识别系统的示意图;
图7及图8展示本发明又一实施例的眼镜及其手势识别系统的示意图。
附图标记说明
100、100a、100b:眼镜
110:眼镜框
112:左镜片嵌合框
114:右镜片嵌合框
116:连接部
118a、118b:左右两镜脚
122:左眼镜片
124:右眼镜片
122a、124b:镜片
130、130a、130b、130c:手势识别系统
131:控制单元
132:图像传感器
134:处理器
136:传输单元
138:发光组件
140:开关组件
150:投影装置
200:电子装置
210:接收单元
C1:控制命令
L1:光束
I1:图像数据。
具体实施方式
有关本发明的前述及其它技术内容、特点与功效,在以下配合参考图式的一更好的实施例的详细说明中可清楚的体现。以下实施例中所提到的方向用语,例如:上、下、左、右、前或后等,仅是参考附图的方向。因此,使用的方向用语是用来说明并非用来限制本发明。
图1为本发明一实施例的可识别手势的眼镜的示意图。请参考图1,本实施例的可识别手势的眼镜100具有眼镜框110,其中左眼镜片122与右眼镜片124可嵌合在眼镜框110上。具体来说,眼镜框110包括左镜片嵌合框112、右镜片嵌合框114、连接部116以及左右两镜脚118a、118b。连接部116连接左镜片嵌合框112以及右镜片嵌合框114。左镜脚118a连接所述左镜片嵌合框112,而右镜脚118b连接所述右镜片嵌合框114,其中左右镜脚118a、118b主要是用来承靠并固定眼镜100在使用者的头部的两侧。
在一实施例中,眼镜框110可以是采用一体成型的结构,即左镜片嵌合框112、右镜片嵌合框114、连接部116及左右两镜脚118a、118b系为一体成型。本实施例的眼镜框110可以是采用部分一体成型的结构作为举例说明,即仅左镜片嵌合框112、右镜片嵌合框114与连接部116为一体成型,如图3所示出的眼镜100,但不限于此。
请继续参考图1,本实施例的眼镜110还具有手势识别系统130,其中手势识别系统130可设置在眼镜框110上或设置在眼镜框110内。举例来说,手势识别系统130可设置在眼镜框110的连接部116上,其中本实施例的手势识别系统130系以嵌入连接部116内作为举例说明。在另一实施例中,手势识别系统还可以嵌合并部分暴露在镜片嵌合框112、114或镜脚118a、118b的外侧,如此一来,检测使用者手部挥动的位置便不一定需要在使用者的正前方,而可以在左前方或右前方进行手部的挥动控制,进而可避免影响使用者的视线。在一实施例中,手势识别系统130亦可以是采用外挂的方式设置在眼镜100上,如此一来,原先已近视的使用者便可直接地将手势识别系统130外挂在原先的眼镜上,而无须配戴两副眼镜。
在本实施例中,手势识别系统130可包括图像传感器132以及处理器134,其中图像传感器132适于连续获取使用者的手部运动轨迹的图像,而处理器134则适于接收这些图像并依据使用者的手部运动轨迹而产生控制命令C 1,如图1与图2所示,其中图2为图1的手势识别系统的方块示意图。
在一实施例中,手势识别系统130可具有传输单元136,适于将控制命令C1传递至电子装置200,以控制所述电子装置200,例如:启动或关闭所述电子装置200、放大或缩小电子装置200所显示的画面信息、控制电子装置200的画面所显示的光标,或是对电子装置200所显示的画面信息进行翻页的命令等等。换言之,控制命令C 1可以是启动关闭命令、放大缩小画面的命令、前一页后一页的翻页命令、音量控制命令或频道选择的命令等等。
在本实施例中,电子装置200可以是显示装置(电视、屏幕)、手持电子装置(手机、平板计算机)、家电类电器或汽机车上的电子设备等等。特别需要说明的是,上述的电子装置200皆须需对应使用一接收单元210以接收所述控制命令C1。换言之,本实施例的眼镜100可通过无线传输的方式将控制命令C1传递至电子装置200,以控制电子装置200,如此将可有效地提供远距离控制电子装置200的控制方式,而不会受限于使用者与电子装置距离过远,手势识别系统无法检测到使用者的手势动作。需要提到的是,由于使用无线传输的方式可能会导致部分使用者在使用上可能会有电磁波的顾虑,因此,在一实施例中,眼镜100的手势识别单元200亦可通过有线的方式连接至电子装置200。
另外,为了提高识别使用者的手部动作的表现,手势识别系统130还可具有发光组件138,其中发光组件138适于提供光束L1,而图像传感器132则适于接收使用者手部动作所反射的所述光束L1,而对应地产生多张图像。同样地,处理器134则适于接收这些图像并依据使用者的手部运动轨迹而产生前述的控制命令C1。在本实施例中,发光组件138可以是采用可提供红外光的发光组件,而图像传感器132则可以是采用可接收红外线的图像传感器,其中由于使用者的手部挥动动作与眼镜100之间通常不易存在其它对象,因此位于眼镜上的手势识别系统130便不易误判手部的轨迹。
在一实施例中,眼镜100还可具有开关组件140,其中开关组件140设置在镜框110上,如图1所示。具体来说,开关组件140可用于开启或关闭手势识别系统130,除了可有效节省整体的耗电量亦可避免误判的情况产生。
另外,本实施例的眼镜100可以选择性地嵌合或不嵌合前述的镜片122、124,此部分可依使用者的喜好而调整。在一实施例中,设置在眼镜100的镜框110上的左右镜片可以是矫正视力的镜片,也可以是一般的无度数的镜片,又或者是可以显示画面的镜片,其中可显示画面的镜片可以是透光度良好的有机发光二极管面板,如图5及图6所示出的眼镜100a及其手势识别系统130a。具体来说,由于眼镜100a本身的镜片122a、124b系可直接呈现画面,因此手势识别系统130a便无须设置有前述可进行无线传输的传输单元136,进而可直接地由处理器134传送控制命令C1至镜片122a、124a,以直接控制呈现在镜片122a、124a上的显示画面动作。
在另一实施例中,呈现在画面在镜片的方式亦可通过投影的方式,即眼镜100b还可设置有一投影装置150,其中投影装置150可直接地将画面投影至镜片122、124上,如图7及图8所示出的眼镜100a及其手势识别系统130b。类似地,由于眼镜100b本身的镜片122、124系可通过投影的方式呈现画面,因此手势识别系统130a便无须设置有前述可进行无线传输的传输单元136,进而可直接地由处理器134传送控制命令C1至投影装置150,以控制投影在镜片122、124上的画面。
值得一提的是,手势识别系统130、130a、130b都是通过其本身的处理器134将所接收的手势图像进行处理后产生前述的命令指令。在一实施例中,处理器134亦可设置在电子装置200端,即手势识别系统130c系可利用控制单元131将所获取的图像数据I1通过传输单元136传送至电子装置200上,藉由设置在电子装置200上的处理器136进行处理而产生前述的命令指令C1,如图4所示,其中图4为手势识别系统的处理器设置在电子装置端的示意图。
综上所述,本发明一实施例的手势识别系统及可识别手势动作的眼镜至少具有下列优点。首先,手势识别系统具有无线传输组件,因此即便手势识别系统本身具有一定操作距离,但由于其可通过装设在眼镜或是其它可携式装置上,如蓝牙耳机、手机或平板计算机,从而便可使得手势识别系统随时地位于使用者的周边,进而可通过手势识别系统的无线传输组件而将控制命令传递至所欲控制的电子装置上,即传统的操作距离将被大大地扩大。
另外,手势识别系统装设在眼镜的不同部位,将有助于使用者的进行手势的操作,例如:可设置在眼镜的连接部位置,或者是设置在边框的外围而可以降低手势操作时同时遮挡到部分视线。再者,若是眼镜本身即具有显示画面的显示单元时,手势识别系统也可不装设有无线传输单元,即处理器所产生的控制命令将可直接地传递至显示单元,从而可控制眼镜本身的显示画面。
以上所述实施例,仅为本发明的较佳实施例,不能以此限定本发明实施的范围,即凡依据本发明申请专利范围及发明说明内容所作的简单的等效变化与修饰,都仍属于本发明专利涵盖的范围内。另外本发明的任一实施例或申请专利范围不须实现本发明所披露的全部目的或优点或特点。此外,摘要部分和标题仅是用来辅助专利文件搜寻,并非用来限制本发明的权利范围。

Claims (6)

1.一种眼镜,该眼镜包括:
眼镜本体,包含两镜脚;
手势识别系统,设置在所述眼镜本体上,所述手势识别系统包括:
红外光发光组件,适于提供红外光;
红外线图像传感器,设置在所述眼镜本体的连接部上,适于接收所述眼镜的前方的物体所反射的所述红外光发光组件所提供的所述红外光,而获取多张图像,其中所述图像包含物体移动的轨迹,所述眼镜的前方为相对所述眼镜本体的所述两镜脚的另一方向;
处理器,处理所述图像并识别所述物体移动的轨迹以产生控制命令;以及
传输单元,适于将所述控制命令传递至电子装置,以控制所述电子装置。
2.一种交互式系统,该交互式系统包括:
眼镜,包含两镜脚;
手势识别系统,该手势识别系统包括:
红外光发光组件,适于提供红外光;
红外线图像传感器,设置在所述眼镜的连接部上并适于接收所述眼镜的前方的物体所反射的所述红外光发光组件所提供的所述红外光,而获取多张图像,其中所述图像包含物体移动的轨迹,所述眼镜的前方为相对所述眼镜的所述两镜脚的另一方向;
传输单元,适于将所述图像传递至电子装置;
处理器,设置在所述电子装置中,且所述处理器适于处理所述图像并识别所述物体移动的轨迹以产生控制命令至所述电子装置,以控制所述电子装置。
3.一种眼镜,该眼镜包括:
眼镜本体,包含两镜脚并具有至少一显示单元;
手势识别系统,设置在所述眼镜本体上,所述手势识别系统包括:
红外光发光组件,适于提供红外光;
红外线图像传感器,设置在所述眼镜本体的连接部上,适于接收所述眼镜的前方的物体所反射的所述红外光发光组件所提供的所述红外光,而获取多张图像,其中所述图像包含物体移动的轨迹,所述眼镜的前方为相对所述眼镜本体的所述两镜脚的另一方向;以及
处理器,处理所述图像并识别所述物体移动的轨迹以产生控制命令,其中所述处理器适于将所述控制命令传递至所述显示单元,以控制所述显示单元。
4.根据权利要求3所述的眼镜,其中所述至少一显示单元包括左眼镜片或右眼镜片。
5.根据权利要求4所述的眼镜,其中所述左眼镜片或所述右眼镜片为有激发光二极管显示面板。
6.一种眼镜,该眼镜包括:
眼镜本体,包含两镜脚并具有左眼镜片或右眼镜片;
手势识别系统,设置在所述眼镜本体上,所述手势识别系统包括:
红外光发光组件,适于提供红外光;
红外线图像传感器,设置在所述眼镜本体的连接部上,适于接收所述眼镜的前方的物体所反射的所述红外光发光组件所提供的所述红外光,而获取多张图像,其中所述图像包含物体移动的轨迹,所述眼镜的前方为相对所述眼镜本体的所述两镜脚的另一方向;以及
处理器,处理所述图像并识别所述物体移动的轨迹以产生控制命令,其中所述处理器适于将所述控制命令传递至投影单元,以控制所述投影单元投影至所述左眼镜片或所述右眼镜片上的画面。
CN201210345791.2A 2012-07-06 2012-09-17 手势识别系统及可识别手势动作的眼镜 Active CN103529929B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW101124573 2012-07-06
TW101124573A TWI498771B (zh) 2012-07-06 2012-07-06 可辨識手勢動作的眼鏡

Publications (2)

Publication Number Publication Date
CN103529929A CN103529929A (zh) 2014-01-22
CN103529929B true CN103529929B (zh) 2017-06-20

Family

ID=49878257

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210345791.2A Active CN103529929B (zh) 2012-07-06 2012-09-17 手势识别系统及可识别手势动作的眼镜

Country Status (3)

Country Link
US (6) US9904369B2 (zh)
CN (1) CN103529929B (zh)
TW (1) TWI498771B (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823737B2 (en) * 2008-04-07 2017-11-21 Mohammad A Mazed Augmented reality personal assistant apparatus
US20130339859A1 (en) 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
US9500865B2 (en) 2013-03-04 2016-11-22 Alex C. Chen Method and apparatus for recognizing behavior and providing information
US9672627B1 (en) * 2013-05-09 2017-06-06 Amazon Technologies, Inc. Multiple camera based motion tracking
US10684687B2 (en) * 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
KR101655820B1 (ko) 2014-12-16 2016-09-22 현대자동차주식회사 스마트 글래스를 이용한 도착시간 알림 시스템 및 그 방법
CN104793353B (zh) * 2015-01-04 2017-02-22 北京君正集成电路股份有限公司 智能眼镜
CN113671703A (zh) * 2015-02-17 2021-11-19 曼托第一收购有限责任公司 透视计算机显示系统
ES2551982A1 (es) * 2015-07-21 2015-11-24 Universidad Complutense De Madrid Varilla para gafas con pantalla externa
CN105676656B (zh) * 2015-12-31 2019-11-26 联想(北京)有限公司 处理方法及电子设备
US10908694B2 (en) 2016-02-01 2021-02-02 Microsoft Technology Licensing, Llc Object motion tracking with remote device
CN105866971A (zh) * 2016-06-01 2016-08-17 丹阳市精通眼镜技术创新服务中心有限公司 一种手机后罩眼镜及其制作方法
CN106740573B (zh) * 2016-12-22 2020-06-12 深圳市元征科技股份有限公司 基于智能穿戴设备的车辆预警方法及智能穿戴设备
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US10620910B2 (en) * 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US10419648B2 (en) * 2017-04-08 2019-09-17 Opkix, Inc. Magnetic camera coupling system
CN108881852A (zh) * 2018-07-27 2018-11-23 中船电子科技有限公司 一种用于海关缉私执法的智能眼镜控制方法
CN113227940A (zh) 2018-11-09 2021-08-06 贝克曼库尔特有限公司 具有选择性数据提供的服务眼镜
EP3956858A1 (en) 2019-04-18 2022-02-23 Beckman Coulter, Inc. Securing data of objects in a laboratory environment
CN111651034B (zh) * 2019-12-05 2023-12-26 寰采星科技(宁波)有限公司 智能眼镜以及智能眼镜的控制方法和控制芯片
KR20220137997A (ko) * 2020-02-17 2022-10-12 티케이&에이치 홀딩 에이에스 제스처 검출 시스템
US11449149B2 (en) * 2021-02-03 2022-09-20 Google Llc Assistant device arbitration using wearable device data

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US20070182812A1 (en) * 2004-05-19 2007-08-09 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
CN101052446A (zh) * 2004-11-05 2007-10-10 美泰公司 多用户触摸响应式娱乐设备
EP1859339A2 (en) * 2005-03-10 2007-11-28 Koninklijke Philips Electronics N.V. System and method for detecting the location, size and shape of multiple objects that interact with a touch screen display
US20070052672A1 (en) * 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
KR101312625B1 (ko) * 2006-11-03 2013-10-01 삼성전자주식회사 동작 추적 장치 및 방법
CA2591808A1 (en) * 2007-07-11 2009-01-11 Hsien-Hsiang Chiu Intelligent object tracking and gestures sensing input device
JP2011503709A (ja) * 2007-11-07 2011-01-27 エヌ−トリグ リミテッド デジタイザのためのジェスチャ検出
US9767681B2 (en) * 2007-12-12 2017-09-19 Apple Inc. Handheld electronic devices with remote control functionality and gesture recognition
JP4384697B2 (ja) 2008-03-26 2009-12-16 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、ならびに、プログラム
TWI363491B (en) * 2008-04-28 2012-05-01 Chihwei Wang A sensing controller
CN101344816B (zh) * 2008-08-15 2010-08-11 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
US8217909B2 (en) * 2008-12-19 2012-07-10 Cypress Semiconductor Corporation Multi-finger sub-gesture reporting for a user interface device
EP2389622A1 (en) * 2009-01-26 2011-11-30 Zrro Technologies (2009) Ltd. Device and method for monitoring an object's behavior
US9086875B2 (en) 2009-06-05 2015-07-21 Qualcomm Incorporated Controlling power consumption of a mobile device based on gesture recognition
KR20110010906A (ko) * 2009-07-27 2011-02-08 삼성전자주식회사 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치
US8002408B2 (en) * 2009-08-03 2011-08-23 Nike, Inc. Anaglyphic depth perception training or testing
US20110055753A1 (en) * 2009-08-31 2011-03-03 Horodezky Samuel J User interface methods providing searching functionality
TWI412975B (zh) 2009-09-02 2013-10-21 Pixart Imaging Inc 手勢辨識方法及使用該方法之互動系統
US20110157329A1 (en) * 2009-12-28 2011-06-30 Acer Incorporated Method for switching to display three-dimensional images and digital display system
CN101777250B (zh) * 2010-01-25 2012-01-25 中国科学技术大学 家用电器的通用遥控装置及方法
TWI438647B (zh) 2010-04-14 2014-05-21 Hon Hai Prec Ind Co Ltd 手勢遙控裝置
TW201140340A (en) * 2010-05-04 2011-11-16 Hon Hai Prec Ind Co Ltd Sign language translation system, sign language translation apparatus and method thereof
US20150206000A1 (en) * 2010-06-07 2015-07-23 Affectiva, Inc. Background analysis of mental state expressions
US20110310005A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
TWI533662B (zh) * 2010-06-24 2016-05-11 晨星半導體股份有限公司 顯示裝置與相關的眼鏡
CN101890719B (zh) * 2010-07-09 2015-06-03 中国科学院深圳先进技术研究院 机器人远程控制装置及机器人系统
TW201205339A (en) 2010-07-16 2012-02-01 Edamak Corp Gesture detecting method of a proximity sensing
TW201209694A (en) 2010-08-26 2012-03-01 Chi Mei Comm Systems Inc Electronic device and method for operating on a user interface
JP5581904B2 (ja) * 2010-08-31 2014-09-03 日本精機株式会社 入力装置
TW201216090A (en) * 2010-10-13 2012-04-16 Sunwave Technology Corp Gesture input method of remote control
US20130286163A1 (en) * 2010-11-08 2013-10-31 X6D Limited 3d glasses
US20120159327A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Real-time interaction with entertainment content
CN102547172B (zh) * 2010-12-22 2015-04-29 康佳集团股份有限公司 一种遥控电视机
US20120206419A1 (en) * 2011-02-11 2012-08-16 Massachusetts Institute Of Technology Collapsible input device
US20120212593A1 (en) * 2011-02-17 2012-08-23 Orcam Technologies Ltd. User wearable visual assistance system
US8761437B2 (en) * 2011-02-18 2014-06-24 Microsoft Corporation Motion recognition
US9354310B2 (en) * 2011-03-03 2016-05-31 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for source localization using audible sound and ultrasound
EP3654146A1 (en) * 2011-03-29 2020-05-20 QUALCOMM Incorporated Anchoring virtual images to real world surfaces in augmented reality systems
US9116614B1 (en) * 2011-04-13 2015-08-25 Google Inc. Determining pointer and scroll gestures on a touch-sensitive input device
US8179604B1 (en) * 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US20130021488A1 (en) * 2011-07-20 2013-01-24 Broadcom Corporation Adjusting Image Capture Device Settings
CN102348068B (zh) * 2011-08-03 2014-11-26 东北大学 一种基于头部姿态控制的随动远程视觉系统
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
CA2750287C (en) * 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US20130083018A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Personal audio/visual system with holographic objects
US20130100140A1 (en) * 2011-10-25 2013-04-25 Cywee Group Limited Human body and facial animation systems with 3d camera and method thereof
US9301372B2 (en) * 2011-11-11 2016-03-29 Osram Sylvania Inc. Light control method and lighting device using the same
US8894484B2 (en) * 2012-01-30 2014-11-25 Microsoft Corporation Multiplayer game invitation system
KR102038856B1 (ko) * 2012-02-23 2019-10-31 찰스 디. 휴스턴 환경을 생성하고 환경내 위치기반 경험을 공유하는 시스템 및 방법
US10600235B2 (en) * 2012-02-23 2020-03-24 Charles D. Huston System and method for capturing and sharing a location based experience
US10937239B2 (en) * 2012-02-23 2021-03-02 Charles D. Huston System and method for creating an environment and for sharing an event
US9170674B2 (en) * 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
US8965741B2 (en) * 2012-04-24 2015-02-24 Microsoft Corporation Context aware surface scanning and reconstruction
US9152226B2 (en) * 2012-06-15 2015-10-06 Qualcomm Incorporated Input method designed for augmented reality goggles
US20140002492A1 (en) * 2012-06-29 2014-01-02 Mathew J. Lamb Propagation of real world properties into augmented reality images
US9317971B2 (en) * 2012-06-29 2016-04-19 Microsoft Technology Licensing, Llc Mechanism to give holographic objects saliency in multiple spaces
US20140019253A1 (en) * 2012-07-10 2014-01-16 Richard Ricasata Systems and methods for selecting and displaying interactive advertising content with a lock screen
US8836768B1 (en) * 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
TWI464445B (zh) * 2012-09-26 2014-12-11 Pixart Imaging Inc 薄型化光學系統、光源模組及可攜式電子裝置
US9398272B2 (en) * 2012-11-07 2016-07-19 Google Inc. Low-profile lens array camera
KR20140093590A (ko) * 2013-01-18 2014-07-28 주식회사 오토스윙 유해 섬광 차단 눈부심방지 전자 보안경
US9164588B1 (en) * 2013-02-05 2015-10-20 Google Inc. Wearable computing device with gesture recognition
US9239626B1 (en) * 2013-07-02 2016-01-19 Google Inc. Input system
US10296160B2 (en) * 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9733478B2 (en) * 2014-04-03 2017-08-15 Thomson Licensing Ambient light management for virtual reality glasses

Also Published As

Publication number Publication date
US20140009623A1 (en) 2014-01-09
US9904369B2 (en) 2018-02-27
US11954259B2 (en) 2024-04-09
US20180120949A1 (en) 2018-05-03
CN103529929A (zh) 2014-01-22
US20240168562A1 (en) 2024-05-23
US10976831B2 (en) 2021-04-13
TWI498771B (zh) 2015-09-01
US20190087014A1 (en) 2019-03-21
US10175769B2 (en) 2019-01-08
US10592003B2 (en) 2020-03-17
TW201403380A (zh) 2014-01-16
US20210191525A1 (en) 2021-06-24
US20200174577A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
CN103529929B (zh) 手势识别系统及可识别手势动作的眼镜
US9652036B2 (en) Device, head mounted display, control method of device and control method of head mounted display
US9921646B2 (en) Head-mounted display device and method of controlling head-mounted display device
CN103294180B (zh) 一种人机交互控制方法及电子终端
US9547372B2 (en) Image processing device and head mounted display apparatus including the same
US20130241927A1 (en) Computer device in form of wearable glasses and user interface thereof
US20130265300A1 (en) Computer device in form of wearable glasses and user interface thereof
CN112789583A (zh) 显示装置及其控制方法
US20140168065A1 (en) Motion detection system
CN106919262A (zh) 增强现实设备
JP6398870B2 (ja) ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法
CN108710833B (zh) 一种用户身份的认证方法、移动终端
KR101879334B1 (ko) 근접 센서 및 이의 제어 방법
WO2022095605A1 (zh) 一种手柄控制追踪器
US11216066B2 (en) Display device, learning device, and control method of display device
CN107728856A (zh) 投影系统
EP4357838A1 (en) Electronic device and method for displaying content
CN116830065A (zh) 用于跟踪用户注视并提供增强现实服务的电子装置及其方法
CN116724548A (zh) 用于显示内容的电子装置及其操作方法
TWI492099B (zh) 可辨識手勢動作的眼鏡
US20240046530A1 (en) Method of controlling display module, and electronic device performing the method
US20230138445A1 (en) Wearable electronic device and method for controlling electronic devices using vision information
KR20240041772A (ko) 웨어러블 전자 장치 및 상기 웨어러블 전자 장치를 이용하여 컨트롤러를 식별하는 방법
WO2016190057A1 (ja) ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法
CN112965607A (zh) 一种眼镜鼠标及其控制方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant