CN102112945A - 用于交通工具接口的基于姿态的控制系统 - Google Patents
用于交通工具接口的基于姿态的控制系统 Download PDFInfo
- Publication number
- CN102112945A CN102112945A CN2009801307885A CN200980130788A CN102112945A CN 102112945 A CN102112945 A CN 102112945A CN 2009801307885 A CN2009801307885 A CN 2009801307885A CN 200980130788 A CN200980130788 A CN 200980130788A CN 102112945 A CN102112945 A CN 102112945A
- Authority
- CN
- China
- Prior art keywords
- attitude
- finger
- hand
- control
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 77
- 230000004044 response Effects 0.000 claims abstract description 69
- 239000013598 vector Substances 0.000 claims abstract description 25
- 230000003993 interaction Effects 0.000 claims abstract description 17
- 210000003811 finger Anatomy 0.000 claims description 283
- 230000033001 locomotion Effects 0.000 claims description 75
- 210000003813 thumb Anatomy 0.000 claims description 25
- 230000002452 interceptive effect Effects 0.000 claims description 22
- 210000005224 forefinger Anatomy 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 18
- 238000011002 quantification Methods 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 15
- 230000014509 gene expression Effects 0.000 claims description 14
- 230000005484 gravity Effects 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 14
- 238000013519 translation Methods 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 6
- 230000036544 posture Effects 0.000 description 64
- 230000008878 coupling Effects 0.000 description 11
- 238000010168 coupling process Methods 0.000 description 11
- 238000005859 coupling reaction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 210000004247 hand Anatomy 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 239000000758 substrate Substances 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000036541 health Effects 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 101100177665 Rattus norvegicus Hipk3 gene Proteins 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 101100042793 Gallus gallus SMC2 gene Proteins 0.000 description 1
- 241000282553 Macaca Species 0.000 description 1
- 235000012364 Peperomia pellucida Nutrition 0.000 description 1
- 240000007711 Peperomia pellucida Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000007767 bonding agent Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000002609 medium Substances 0.000 description 1
- 239000012120 mounting media Substances 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000009017 pursuit movement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/26—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/85—Arrangements for transferring vehicle- or driver-related data
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1464—3D-gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/595—Data transfer involving internal databases
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
描述了用于使用姿态来控制交通工具子系统的系统和方法。控制包括经由交通工具中的传感器接收对象的图像并且输出表示对象所做姿态的姿态数据。对象包括用户的至少一只手和/或手指。姿态数据是对象在空间中时间点的瞬时状态。控制包括通过提取对象的位置,恢复对象的量化姿势和方位矢量并且把姿态数据转换成姿态信号来自动地从姿态数据检测对象的姿态。控制包括响应于姿态信号管理与交通工具子系统的用户交互。
Description
相关申请
本申请要求于2008年6月18日提交的美国(US)专利申请No.61/073,740的优先权。
本专利申请是2006年2月8日提交的并且作为美国(US)专利申请公开US 2006/0187196A1出版的、要求2005年2月8日提交的美国专利申请No.60/651,290的优先权的美国专利申请No.11/350,697的部分继续申请。
本申请是2008年4月24日提交的美国专利申请No.12/109,263的部分继续申请。
技术领域
本发明一般来说涉及计算机系统领域,具体来说涉及用于交通工具接口的基于姿态的控制系统和方法。
背景技术
有助于人机交互的传统控制系统和用户接口具有许多不足。
引用方式并入
在本说明书中提到的每篇专利、专利申请和/或公开在相同程度上以整体引用并入本文,如同每篇单独专利、专利申请和/或公开专门和单独被指示为以引用方式并入。
附图说明
图1A是根据实施例的姿态控制系统的框图。
图1B是根据实施例的与交通工具子系统集成的姿态控制系统的框图。
图1C是根据实施例的控制器的框图。
图1D是根据实施例的用于使用姿态控制交通工具子系统的流程图。
图2是根据实施例的标记标签的示图。
图3是根据实施例的姿态符号集中的姿势的示图。
图4是根据实施例的姿态符号集中的方位的示图。
图5是根据实施例的姿态符号集中的双手组合的示图。
图6是根据实施例的姿态符号集中的方位混合的示图。
图7是根据实施例的系统操作的流程图。
图8/1和图8/2示出了根据实施例的示例命令。
具体实施方式
本文描述了用于基于姿态的子系统的控制的系统和方法。在下文具体描述的空间操作环境(SOE)的背景中提供系统和方法的实施例。包括姿态控制系统或基于姿态的控制系统的SOE可以可替代地称为空间用户界面(SUI)或空间界面(SI)。
在以下描述中,具体描述了许多特征从而提供对实施例的更全面理解。明显的是,可以在不具备这些具体细节的情况下实践所述实施例。在其他情况下,没有具体描述公知的特征。
系统
本文在空间操作环境(SOE)的背景下描述了基于姿态的控制系统的实施例。作为示例,图1A是根据实施例的空间操作环境(SOE)的框图。用户把手101和102放在相机104A-104D阵列的查看区150中。相机检测手指和手101和102的定位、方位和运动并且生成输出信号到预处理器105。预处理器105把相机输出转换成提供给系统的计算机处理单元107的姿态信号。计算机107使用输入信息生成命令来控制一个或多个屏幕上的光标并且把视频输出提供给显示器103。
尽管借助单个用户的手作为输入示出了该系统,但是也可以使用多个用户实现该实施例。另外,作为手的替代或添加,该系统可以跟踪用户身体的任何部分或多个部分,包括头、脚、腿、臂、肘、膝等等。
在所示的实施例中,使用四个相机来检测用户的手101和102的定位、方位和运动。应当理解,本实施例可以在不脱离本实施例的范围或精神的情况下使用更多(例如,六个相机、八个相机等)或更少的相机(例如,两个相机)。另外,尽管在示例实施例中对称布置所述相机,但是这种对称不是必要条件。可以使用允许用户的手的定位、方位和运动的任意数量的定位相机。
在一个实施例中,所使用的相机是能够拍摄灰度图像的运动拍摄相机。在一个实施例中,所使用的相机是Vicon生产的如Vicon MX40相机的那些相机。该相机包括相机上处理并且能够每秒1000帧地拍摄图像。运动拍摄相机能够检测和定位标志。
在所述实施例中,使用相机用于光学检测。在其他实施例中,可以使用相机或其他检测器用于电磁、静磁、RFID或其他任何适合类型的检测。
使用预处理器105生成三维空间点重构和骨点(skeletal point)标记。使用姿态转换器106把3D空间信息和标志运动信息转换成计算机处理器可以解译来在显示器上更新光标的定位、形状和动作的命令语言。在替代实施例中,可以把预处理器105和姿态转换器106组合成单个装置。
计算机107可以是如Apple、Dell或其他任何适合制造商制造的任何通用计算机。计算机107运行应用程序并且提供显示输出。另外来自鼠标或其他现有技术的输入装置的光标信息现在来自姿态系统。
与交通工具接口集成的姿态控制系统
图1B是根据实施例的与交通工具子系统120集成的姿态控制系统的框图。交通工具(例如,汽车、拖拉机、飞行器等)的驾驶室区域或其他乘客座舱区域中的人可以使用包括用户的手101和102中的一只手或双手以及手101和102中的一只手或双手的手指的对象来控制交通工具子系统120。交通工具的驾驶室区域是相机104A-104D阵列的查看区。相机检测对象(例如,手101和102以及手的手指)的定位、方位和运动并且生成到预处理器105的输出信号。预处理器105把相机输出转换成提供给系统的控制器107(本文也称为计算机处理单元107或计算机107)的姿态信号。控制器107使用输入信息生成控制一个或多个交通工具子系统120的命令。
实施例的计算机107包括一个或多个控制程序来管理与经由交互系统暴露的汽车子系统组件的用户交互。图1C是根据实施例的控制器107的框图。作为一个示例,该控制器107包括用于对应的汽车子系统组件的姿态控制的气候控制131、音频132、通信133、导航134、导向135、娱乐136、操作信息可视化137和网络控制138程序或应用,但是并不限于这些控制程序。包括在交通工具控制器中的控制程序对应于交通工具中的对于控制可用的交通工具子系统。
尽管采用单个用户的手和/或手指作为跟踪对象示出了该系统,但是可以使用多用户实现该实施例。而且,替代手或除了手之外,该系统还可以跟踪包括用户身体的任何部分中的一个或多个部分的对象,包括头、脚、腿、臂、肘、膝等。
在所示实施例中,使用四个相机来检测用户的手101和102的定位、方位和运动。应当理解,在不脱离本实施例的范围或精神的情况下本实施例可以与更多(例如,六个相机、八个相机等)或更少相机(例如,两个相机)一起使用。另外,尽管在示例实施例中相机对称布置,但是这种对称不是必要条件。可以使用允许用户的手的定位、方位和运动的任意数量的定位相机。
预处理器105生成三维空间点重构和骨点标记。姿态转换器106把3D空间信息和对象运动信息转换成计算机处理器可以解译来控制交通工具子系统的命令语言。在替代实施例中,可以把预处理器105和姿态转换器106组合成单个装置。
与交通工具子系统集成的姿态控制系统的实施例能够使得交通工具上的驾驶者或乘客使用姿态控制交通工具子系统控制组件和交通工具子系统的一个或多个参数。用户因此可以控制例如像领航、导航和借助姿态驱动界面的外围系统功能的交通工具子系统的一个或多个参数。本文所述的姿态控制系统与一个或多个交通工具子系统120,举例来说包括但不限于交互导航装置、无线电广播和数字音频播放器、电话、巡航控制、自动驾驶和其他自动导向模块、气候控制、操作信息可视化和联网应用集成在一起。
本文所述的姿态控制系统包括反馈装置125,为用户提供各种类型的反馈,包括但不限于音频提示、平面显示器上的视觉输出、仪表盘上安装的基于像素的显示器、专用发光或变色指示器和触觉或触感显示器上的视觉输出。尽管反馈装置125被示出耦接到控制器107,但是该实施例并不限于此,反馈装置125可以耦接到集成系统的任何其他元件。
图1D是根据实施例的使用姿态控制140交通工具子系统的流程图。该实施例包括经由交通工具中的多个传感器接收142对象的图像并且输出144表示对象所做姿态的姿态数据。对象包括用户的手和手指中的至少一个。姿态数据是对象在空间中时间点上的瞬时状态。该实施例包括通过提取对象的位置、恢复对象的量化姿势和方位矢量并且把姿态数据转换成姿态信号来从姿态数据自动检测146对象的姿态。该实施例包括响应于姿态信号管理148与多个交通工具子系统的用户交互。
可以采用几种不同的方式配置实施例的姿态控制系统。实施例的系统和方法包含两种不同类型的姿态控制:与特定物理对象靠近的一个或几个手指的最小运动;以及包含整个手部的自由空间运动。当然,这些是理想的分类。实际上,特定配置可能会使得两种姿态控制系统之间的差别变得模糊。
与交通工具子系统集成的姿态控制系统的以下描述结合对汽车背景的细节的偶然引用,但是应当理解,所述系统是完全概括的并且可以采用用于与任何交通工具类型相关联的功能的交互控制。
实施例的交通工具接口的姿态控制系统包括以下中的一个或多个:用于跟踪三维空间中手指和/或整个手的位置的一组传感器;用于处理传感器数据的应用或元件;用于以控制程序或其他基于交通工具的程序或应用可以使用的形式表示手指和/或手的位置的代表组件;管理与经由交互系统暴露的汽车子系统组件的用户交互的控制程序;和/或包括通过视觉和其他通道的连续和/或动态反馈的反馈方案,通过这些反馈,人力操作者不仅被告知姿态控制系统对汽车子系统组件的影响,还被告知姿态控制系统的对操作者相关手势和运动的瞬时、正在进行的和预测的解译。尽管交通工具接口的姿态控制系统没设想对标志的使用,但是以下描述的实施例不限于此。
实施例的传感器可以采取各种形式。实施例使用耦接到一起的两个或更多的小相机来形成立体声视觉系统。将相机定位以查看主交通工具的驾驶室和/或乘客座舱。该立体声视觉系统在其视野内最少生成对象的三维数据点云。在数据集中的点的分辨深度精度根据包括距相机基线的距离的许多因素而变化,但是大约为1毫米(mm)。成像的对象是用户或操作者的空手和/或手指。
替代实施例的传感器是飞行时间深度感测相机。另一替代实施例的传感器是结构光三维传感器。
给定由立体声传感器组生成的点云,姿态控制系统提取手和手指中至少一个的位置,从该位置又可以恢复量化的手部姿势和连续的手和手指方位矢量。针对这种恢复所使用的方法基本上类似于下述方法,不同之处在于交通工具系统开始于非结构点云而非合计标签数据。使得手和手指表示为实现系统互动模式的机构所用。
实施例使用多组立体声耦接相机,或者使用处理像素数据来处理大于一个相机的变型的相关算法。增加相机的数量例如可以扩大视野、减小手的一部分的遮挡造成的困难、和/或提高点云数据的准确度。
根据姿态控制系统的第一互动模式,交通工具的驾驶者借助手指运动控制各种子系统同时使手与方向盘或其他交通工具导向机构接触或非常接近。这种以方向盘为中心的模式包括或者使用对驾驶者每只手上的一部分手指的位置的精确跟踪。
驾驶者开始正常把握在方向盘上,例如手部位于十点钟和两点钟位置,手指环绕在方向盘边缘。伸展任一只手的食指和中指中的任一个激活控制系统。手指运动的各种组合实现导航以及对各种控制模式、交通工具子系统的组件和/或参数的选择。一个替代方案暗含用户拇指而非食指和中指或者连同食指和中指的跟踪运动。
通过依次步进与“加/减”状态变化相结合的可用模式可以实现简单的系统控制(例如,交通工具系统)。手指控制状态空间的简单配置包括伸展任一只手的两个手指以激活控制系统,并且这两个手指的快速握紧和再次伸展弹开在可用的主要控制模式(例如,无线电广播、电话、数字音频播放器、气候控制等)之间轮换。另一只手随后步进通过并且控制该模式中可用的选项。两个手指快速握紧-伸展配置在耦接系统的主要设置模式之间循环。通过单个手指握紧-伸展弹开或者食指和中指分别的按下运动提供各自的向上设置和向下设置的参数的步进。类似的操作实现子模式、子-子模式等的往返运动,在这些情况下控制拓扑结构大于单个水平深度。
因此,例如在无线电广播模式中,初始设置模式是音量控制。食指的快速握紧-伸展将音量设置提高一个增量。相反,中指的握紧-伸展使得音量降低一个增量。将任一个手指向下按压在方向盘(另一个手指保持伸展)以恒定速率提高或降低音量。两个手指握紧-伸展循环到无线电广播预置的下一个设置模式。这里,食指和中指运动控制预置列表的向上和向下往返运动。
手指运动到本文所述的控制输入的相对简单的映射具有几个理想特点。多数交互模式直接取决于熟悉的交通工具接口,例如几乎在各车载无线电广播上都存在的向上/向下按钮。
可以将姿态控制系统耦接到许多可用的输出装置来为用户提供反馈。例如,姿态控制系统的输出包括与姿态或者姿态所实现的控制有关的合成语音反馈。作为另一示例,姿态控制系统的输出包括基本字母数字显示器上的大文本。另外,可以提供包括硬质模压、二元发光按钮显示器或掩模LCD屏的输出。
使用姿态控制系统减小了把手从方向盘移开或者改变正常驾驶手部位置和姿势的需要。这些驾驶友好的人体工学提供舒适和便捷,并且对于安全来说可能是理想的。
如果呈现整个图形显示器并且耦接到姿态控制系统,则另外一组交互行为变得可用。手指运动可以驱动指示光标在图形显示器上的位置,进而允许进行控制模式和设置的非线性选择。在实施例中,该图形显示器集成到挡风玻璃(例如,在平视配置中,其中固有的光学功率使得显示器以针对视觉适应而优化的深度来呈现)或者安装在方向盘的正上方和下方的仪表盘部件中。这种配置将图形显示器置于“方向盘上方”视角的法线的驾驶者最近区域内。
对于非线性控制类型,手部在正常驾驶位置开始。伸展任一只手的食指激活控制系统并且在显示器上显示指示光标。手指尖的相对运动驱动光标在显示区域上的水平和垂直运动。可以通过指示装置近邻选择显示器上的界面图形,并且通过一只或两只手指点击以及无指示装置的手部的把握或者通过无指示装置的手部上食指的二维手指尖运动来操控。可以通过食指握紧-伸展来控制简单(虚拟)开关按钮。虚拟标尺或滑块,例如音量控制如上所述可以由食指和中指来控制。
姿态控制系统的第二交互模式包含自由空间控制。在该模式中,用户(例如,交通工具操作者或乘客)通过在汽车内部的特定开放区内移动一只手以及结合手指与导航系统、无线电广播和/或其他子系统交互。自由空间控制可以与完整图形显示器相结合使用,其中一个实施例可以定位感测音量,并且由此操作者动作定位在显示器的正前方。
在实施例中,指向显示器的“仿真枪”姿势激活控制系统。十个姿势连同他们之间以及借助手部的细粒度目标和运动改变顺序的变换构成了实施例的核心姿态符号集。然而,姿态符号集并不限于十个姿势。实施例的十个姿势通过组合生成:‘仿真枪’的‘枪管’可以单独由食指或者由食指和中指一起形成。对于这两种状态中的任一个,拇指可以垂直于‘枪管’(在手部平面中)或者可以平行于‘枪管’向下‘点击’。而且,对于这四个状态中的任一个,整个手和手指几何关系可以在与重力对齐的平面中以垂直方向,或者在与重力垂直的平面中以水平方向定向。这给出八种基本姿势;另外两个姿势通过旋转手部大部分从而使得‘枪管’基本上指向中间来形成。
根据下文,用姿态描述语言(以下具体描述)表示实施例的十个姿势:
^^^|-:-x(‘一个手指指向’)
^^^||:-x(‘一个手指点击’)
^^||-:-x(‘两个手指指向’)
^^|||:-x (‘两个手指点击’)
^^^|-:vx(‘倾向于一个手指指向’)
^^^||:vx(‘倾向于一个手指点击’)
^^||-:vx(‘倾向于两个手指指向’)
^^|||:vx(‘倾向于两个手指点击’)
^^^|-:.-(‘中间一个手指指向’)
^^||-:.-(‘中间两个手指指向’)
这里提供的姿势和姿态描述语言仅是姿态控制系统中使用的一个示例,并且许多其他示例和组合也是可能的,下面描述其中的一些示例和组合。
实施例的姿态控制系统使用图形显示器或其他反馈装置呈现一组菜单组件、选择组件以及平移和缩放能力。通过系统的导航从目标子系统的高水平选择向下到单个选择组件的操控是一致的。
由于控制系统处于有效状态(随后首次恢复垂直的拇指向上,一个手指指向),所以出现用于当前模式的指示光标和背景菜单组件。光标位置通过食指的运动和/或瞄准来驱动。通过把指示装置定位在组件中并且把拇指移动到向下/点击(与食指对齐)位置完成在按钮、滑块和菜单组件上的基本选择和控制。将光标移动远离屏幕到中间侧调出高水平菜单列表,光标移动限制在二维(向上和向下)。从高水平菜单中选择选项操作来改变控制模式(例如,从电话模式到导航系统模式)。
主交通工具系统的模式可以利用手部的真实三维运动。例如在导航系统模式时,将手倾斜到拇指水平姿势使得正常选择组件半透明并且将映射的位置和缩放限制到手的左向、右向、向上、向下,向前和后向运动。返回到拇指垂直姿势冻结映射视角并且恢复背景菜单和选择组件。
对于获得最小舒适水平和对基本系统的熟悉的操作者来说,许多改进是可能的。例如,上面列举的两个手指姿势可以选择性地被限制到特定的“快捷”功能。驾驶者可以选择来把共有的无线电广播功能,即音量控制和电台预置关联到两个手指姿势,使得这些控制模式始终可用。借助这种激活的定制,交互背景开关不必操控无线电广播,这种控制动作由此可以出现在距其他正在进行的控制序列的‘条带之外’。即(对于当前示例):一个手指姿势进行如上所述动作;两个手指姿势直接并且同时起到无线电广播快捷方式和关联的反馈图形的作用,在有效的手部离开控制空间或者返回到与‘标准’控制语义相关联的一个手指姿势时,后者随后消失。本文所述的各种交互可以结合在一起来形成可能巨大的一组控制和接口行为,如下文具体描述的那样。
标志标签
相对于上述的系统和方法,实施例的系统和方法可以使用用户的一个或多个手指上的标志标签从而使得系统能够定位用户的手部,识别出正在观看左手还是右手,以及哪些手指是可见的。这允许该系统检测用户手部的定位、方位和运动。该信息使得许多姿态将由系统来识别并且由用户作为命令来使用。
在一个实施例中,标志标签是物理标签,包括基板(在本实施例中适于附接到人手上的多个位置)和以唯一标识图案在基板表面上布置的离散标志。
标志和关联的外部感测系统可以工作在允许对其三空间位置进行准确、精确和快速而连续采集的任何域(例如,光学、电磁、静磁等)。标志自身可以主动(例如,通过发射结构化电磁脉冲)或被动(例如,如在本实施例中那样,通过被光学回射)工作。
在采集每帧时,检测系统从仪器实现的工作空间范围(相机或其他检测器的可见范围内)中的当前的标签接收包括所有标志的恢复的三空间位置的聚集‘云’。每个标签上的标志足够多样化并且以唯一图案布置,使得该检测系统可以执行以下任务:(1)分段,其中把每个恢复的标志位置分配给形成单个标签的点的一个和唯一一个子集;(2)标注,其中各个点的分段子集被识别为特定标签;(3)定位,其中恢复识别的标签的三空间位置;以及(4)方位,其中恢复识别的标签的三空间方位。通过标志图案的特定特点可能完成任务(1)和(2),如以下所述并且如在图2中的一个实施例中所图示的那样。
在一个实施例中,标签上的标志附接到规则网格定位的子集。如在本实施例中的那样,这种基本网格可以是传统的笛卡尔类型,或者可以是另外的其他一些规则平面镶嵌(例如,三角形/六角形瓦片排列)。针对标志感测系统的已知空间分辨率建立网格的尺度和间隔,从而可能不会弄混相邻的网格定位。针对所有标签对标志图案的选择应当满足以下约束条件:没有标签图案与通过旋转、转换或镜像的任意组合的其他任何标签图案的一致。还可以选择标志的多样性和布置从而容许某些特定数量的组成标志的损失(或遮挡):在任一随机转换之后,仍然可能不会将损坏的模块与其他任何模块弄乱。
现在参考图2,示出了多个标签201A-201E(左手)和202A-202E(右手)。各个标签为矩形并且在该实施例中由5x7网格阵列组成。选择矩形形状辅助确定标签的方位并且减小镜像复制的可能性。在所示的实施例中,各个手的各个手指都有标签。在一些实施例中,每只手使用一个、两个、三个或四个标签可能足够。每个标签具有不同灰度或颜色阴影的边界。在该边界中是3x5网格阵列。以网格阵列把标志(由图2的黑点表示)置于某些点处来提供信息。
通过将每个图案分段成‘共有’和‘唯一’子图案而将符合条件的信息编码在标签的标志图案中。例如,本实施例规定了两种可能的‘边界图案’,有关矩形边界的标志分布。由此建立标签‘族’-意在用于左手的标签由此可能都使用与标签201A-201E所示的相同边界图案,尽管附接到右手手指的那些标签可以分配有如标签202A-202E所示的不同的图案。选择这种子图案从而可以在标签的所有方位中将左侧图案与右侧图案区分开。在图示示例中,左手图案包括每个角上的标志以及距角网格定位的第二个角上的标志。右手图案具有仅在两个角上的标志和在非角网格定位上的两个标志。图案的检查表明,只要四个标志中的任意三个可见,就肯定可以将左手图案与右手图案区分开。在一个实施例中,边界的颜色或阴影还可以用作偏手性的指示器。
各标签仍然当然必须采用唯一内部图案,在其家族公共边界内分布的标志。在所示实施例中,已发现,由于手指的旋转或方位的原因,内部网格阵列中的两个标志无需复制足以唯一地识别出十个手指中的每一个。即使遮挡标志中的一个,标签的图案和偏手性的组合产生唯一标识符。
在本实施例中,网格定位可视地呈现在刚性基板上作为对把每个回射标志附接到其想要定位的(手动)任务的辅助。这些网格和想要的标志定位经由彩色喷墨打印机逐字地打印到基板上,这里基板是(最初)柔性‘收缩薄膜’的片材。每个模块从该片材切除并且随后被烘烤,在热处理期间每个模块经过精确和可重复的收缩。针对该过程之后的简短间隔,冷却标签可以稍微成形-例如遵循手指的纵向曲线,其后,基板适于为刚性并且可以把标志附接到所指示的网格点。
在一个实施例中,标志自身是三维的,如经由粘合剂或其他任何适合方式附接到基板的小反射球。三维标志可以成为在二维标志上的检测和定位的辅助。然而,可以在不脱离实施例的精神和范围的情况下使用任何一种。
目前,经由Velcro或其他适合方式把标签附接到操作者戴的手套或者可替代地使用柔和的双面胶带直接附接到操作者手指。在第三实施例中,可以与刚性基板一起分配并且把单独标志直接附接或‘印刷’到操作者手指和手上。
姿态符号集
实施例考虑由手部姿势、方位、手部组合以及方位混合组成的姿态符号集。符号语言还实现用于以实施例的姿态符号集设计和传递姿势和姿态。姿态符号集是以简洁的文本形式表现运动联接的瞬时‘姿势状态’的系统。所讨论的联接可以是生物学的(例如人手;或者整个人体;或者蝗虫腿;或猕猴的关节相连的脊骨)或者是非生物学的(例如,机械臂)。在任一种情况下,联接可以是简单的(脊骨)或者分支的(手)。实施例的姿态符号集系统针对任一特定联接创建恒定长度的序列;占据序列‘字符定位’的特定ASCII字符的集合成为联接的瞬时状态或‘姿势’的唯一描述。
手部姿势
图3图示了姿态符号集的实施例中的手部姿势。该实施例假设使用了一只手的五个手指中的每一个。这些手指标记为p-小手指、r-无名指、m-中指、i-食指和t-拇指。在图3中定义和图示了手指和拇指的许多姿势。姿态符号集序列为联接中(在此情况下为手指)各个可表现的自由度创建单个字符位置。而且,各个这种自由度被认为是离散的(或‘量化的’),从而可以通过在该序列位置上分配确定数量的标准ASCII字符之一来表现其整个运动范围。相对主体特用原点和坐标系(手背、蝗虫身体的中心;机械臂的底座等)表现这些自由度。因此使用少量附加的姿态符号集字符位置在更普遍的坐标系中‘作为整体’表现联接的位置和方位。
仍然参考图3,使用ASCII字符定义和标识许多姿势。一些姿势被划分在拇指和非拇指之间。该实施例使用编码从而使得ASCII符号本身作为对姿势的提示。然而,不管提示与否,可以使用任何字符来表示姿势。另外,对于符号序列不需要使用ASCII字符。可以在不脱离该实施例的范围和精神的情况下使用任何适合的符号、数字或其他表示。例如,如果想要的话,符号可以使用每个手指两位,或者根据需要使用其他数量的位。
蜷起的手指由字符“^”表示,而蜷起的拇指由“>”表示。伸直的手指或向上指的拇指由“1”指示并且由“\”或“/”指示一定角度。“-”表示指向笔直侧向的拇指,而“x”表示指向平面的拇指。
使用这些单独的手指和拇指描述,根据实施例可以定义和记下手部姿势的大致数量。每个姿势由如上所述的p-r-m-i-t顺序的五个字符表示。图3图示了许多姿势并且这里借助图示和示例描述一些姿势。手部保持平直并且与地面平行表示为“11111”。拳头表示为“^^^^>”。“确定”记号表示为“111^>”。
在使用提示字符时,字符串提供了易懂的‘人类可读性’的机会。一般来说,可以用眼睛选择描述各自由度的可能的字符集来加快识别和明显类推。例如,垂直条(‘|’)可能表示联接组件是‘平直的’,长度符号(‘L’)可能表示90度弯曲,声调符号(‘^’)可能表示锐弯。如上所述,可以根据需要使用任意字符或编码。
采用如本文所述的姿态字符集序列的任何系统得益于序列比较-识别的高计算效率或者按照文字搜索任何特定姿势变成期望姿势序列与瞬时真实序列之间的‘序列比较’(例如,UNIX的‘strcmp()’功能)。而且,‘通配符字符’的使用为程序员或系统设计者提供了额外熟悉的效率和功效:瞬时状态对于匹配无关的自由度可以规定为询问点(‘?’);可以分配另外的通配符含义。
方位
除了手指和拇指的姿势之外,手的方位可以表示信息。显然还可以选择描述一般空间方位的字符:字符‘<’、‘>’、‘^’,而可以使用‘v’来指示出现在方位字符位置上时的左、右、上和下的概念。图4图示了将姿势和方位组合的编码的手部方位描述符和示例。在实施例中,两个字符位置首先规定手掌的方向并且随后规定手指的方向(如果手指伸直,则与手指的真实弯曲无关)。这两个位置的可能的字符代表方位的‘以主体为中心’的符号:‘-’、‘+’、‘x’、‘*’、‘^’,而‘v’描绘了中间、横向、前面(远离主体向前)、后面(远离主体向后)、头部(向上)和尾部(向下)。
在实施例的符号方案中,指示字符的五个手指姿态之后是冒号,并且随后是定义完整命令姿势的两个方位字符。在一个实施例中,开始位置是指“xyz”姿势,其中拇指竖直指向上,食指指向前,中指垂直于食指,在右手做出该姿势时指向左。这表示为序列“^^x1-:-x”。
‘XYZ-手’是采用人手的几何形状允许对视觉呈现的三维结构进行全部六个自由度导航的技术。尽管该技术仅取决于操作者手部的整体转换和旋转,从而使得其手指在原理上可以保持在期望的任意姿势,但是本实施例宁愿静态配置,其中食指指向远离身体,拇指指向天花板,中指指向左-右。三个手指由此描绘了(粗略地,但是清晰明确的意图)三空间坐标系的三个相互垂直的轴:这样的‘XYZ-手’。
XYZ-手导航随后用手、手指进行上述的在操作者的身体前保持预定的‘中立定位’的姿势。以下列固有方式实现对三空间对象(或相机)的三个转换和三个旋转自由度的访问:手部的左右运动(相对于身体固有坐标系)产生沿计算背景的x轴的运动;手部的上下运动产生沿受控的背景的y轴的运动,而前后的手部运动(向着/远离操作者身体)产生背景内的z轴运动。类似地,操作者的手部围绕食指的旋转造成计算背景的方位的‘滚动’变化;分别通过操作者的手部围绕中指和拇指的旋转,类似地造成‘倾斜’和‘偏转’变化。
注意,尽管这里使用‘计算背景’来指代由XYZ-手的方法所控制的实体--并且看上去暗示了合成的三空间对象或者相机,但是应该理解,该技术对于控制真实世界对象的各个自由度来说同等有效:例如,装备有适当的旋转致动器的视频或运动画面摄像机的平移/倾斜/偏转控制。而且,XYZ-手部姿势所提供的物理自由度在某种程度上可能较少逐字地映射到虚拟域中。在本实施例中,还使用XYZ-手提供对大型全景显示图像的导航访问,从而使得操作者的手部的左右和上下运动产生有关图像的期望的左右和上下‘平移’,而操作者的手部的前后运动映射到‘缩放’控制。
在每种情况下,手部运动与引起的计算转换/旋转之间的耦合可以是直接的(即,操作者的手部的位置或旋转偏移经由一些线性或非线性函数一对一地映射到计算背景中的对象或相机的位置或旋转偏移)或者间接的(即,操作者的手部的位置或旋转偏移经由一些线性或非线性函数一对一地映射到计算背景中位置/方位的第一或更高次导数;进行中的结合随后在计算背景的真实0阶位置/方位发生非静态变化)。后者的这种控制方式类似于汽车‘油门踏板’的使用,其中踏板的恒定偏移或多或少产生恒定的车辆速度。
作为真实世界XYZ-手的本地六自由度坐标原点的‘中立定位’可以被设立(1)作为空间中的绝对位置和方位(即,相对于封闭室);(2)作为相对于操作者自身的固定位置和方位(例如,身体前方8英寸,下巴下方10英寸并且与肩部平面横向平行),与操作者的整体位置和‘航向’无关;或者(3)通过操作者的故意的次要动作(例如使用操作者的‘另一只’手所作的姿态命令,所述命令指示XYZ-手的当前位置和方位应当此后用作转换和旋转原点)进行交互。
进一步方便提供有关XYZ-手的中立定位的‘锁销’区(或者‘静区’),使得该范围内的运动未映射到受控背景中的运动。
其他姿势可以包括:
[|||||:vx]是伸直的手(拇指平行于手指),手掌朝下手指向前。
[|||||:x^]是伸直的手,手掌朝前,手指朝向天花板。
[|||||:-x]是伸直的手,手掌朝身体中心(如果是左手则手掌朝右,如果是右手则手掌朝左)手指向前。
[^^^^-:-x]是单个手拇指向上(拇指指向天花板)。
[^^^|-:-x]是指向前的仿真枪姿势。
双手组合
实施例考虑单手命令和姿势以及双手命令和姿势。图5图示了实施例中的双手组合和相关符号的示例。回顾第一示例的符号,“完全停止”表明其包括两个闭合的拳头。“快照”示例具有每个伸展开的手的拇指和食指,拇指相互指向对方,定义了目标后形成的帧。“方向舵和节气门开始位置”是向上指向面对屏幕的手掌的手指和拇指。
方位混合
图6图示了实施例中的方位混合的示例。在所示的示例中,通过将方位符号对装入手指姿势序列之后的括号内来表示混合。例如,第一命令示出了所有竖直指向的手指位置。第一方位命令对将使得手掌向显示器伸直,第二对具有向屏幕旋转45度倾角的手。尽管在该示例中示出了混合对,但是考虑到任意数量的混合。
示例命令
图8/1和图8/2图示了根据实施例的可以使用的大量可能的命令。尽管本文说明书的部分在于控制显示器上的光标,但是该实施例不限于该操作。事实上,该实施例在操控显示器上的任何和所有以及部分数据连同显示器的状态方面具有重大应用。例如,可以使用命令在视频媒体播放期间替代视频控制。可以使用命令暂停、快进、倒带等。另外,可以实现命令放大或缩小图像以改变图像的方位、在任意方向上平移等。还可以使用该实施例来代替如打开、关闭、保存等的菜单命令。换言之,可以使用手部姿态实现可以设想到的任何命令或者动作。
操作
图7是示出了根据实施例的系统操作的流程图。在701,检测系统检测标志和标签。在702,确定是否检测到标签和标志。如果否,系统返回到701。如果在702检测到标签和标志,则系统进行到703。在703,系统根据所检测的标签和标志识别手、手指和姿势。在704,系统识别姿势的方位。在705,系统识别被检测的一只手或双手的三维空间定位(请注意可以将703、704和705中的任意个或全部相结合)。
在706,把信息转换成如上所述的姿态符号。在707,确定姿势是否有效。这可以使用所生成的符号序列通过简单序列比较来实现。如果姿势无效,则系统返回到701。如果姿势有效,则在708系统把符号和位置信息发送给计算机。在709,计算机响应于该姿态确定要采取的适合动作并且相应地在710更新显示。
在一个实施例中,701-705由相机上的处理器来完成。在其他实施例中,可以根据需要由系统计算机完成处理。
分析和转换
系统能够“分析”和“转换”通过基本系统恢复的低水平姿态流,并且把那些分析和转换的姿态变成可以用来控制广泛的计算机应用和系统的命令流或事件数据。可以在系统中实现这些技术和算法,该系统包括提供实现这些技术的引擎以及构建利用引擎能力的计算机应用的平台两者的计算机代码。
一个实施例关注于在计算机接口中实现人手的大量姿态使用,但是还能够识别其他身体部分做出的姿态(包括但不限于臂、躯干、腿和头)以及各种非手部的身体工具,所有固定和关节连接的部分,包括但不限于圆规、罗盘、柔性曲线近似器和各种形状的指示装置。可以把标志和标签应用到可以根据需要由操作者携带和使用的物品和工具。
这里所述的系统加入了许多改进,使得能够构建富于可以识别和做出姿态的范围的姿态系统,而同时提供了对应用的简单结合。
在一个实施例中的姿态分析和转换系统包括:
1)以几种不同集合水平规定(编码以在计算机程序中使用)姿态的简洁和有效方法;
a.一只手的“姿势”(这只手的各部位相互之间的布置和方位)三维空间的一只手的方位和位置。
b.双手组合,对于考虑姿势、位置或姿势和位置两者的每只手。
c.多人组合;该系统可以跟踪多于两只手,并且从而一人以上可以协同地(或者在游戏应用情况下竞争地)控制目标系统。
d.其中姿势顺序组合的顺序姿态;我们称这些为“动画”姿态。
e.“语义图”姿态,其中操作者跟踪空间中的形状。
2)用于从上面的每个类别登记与给定应用场景相关的特定姿态的编程技术。
3)用于分析姿态流从而可以识别该登记的姿态并且可以把封装那些姿态的事件传送到相关的应用场景的算法。
借助构成元素(1a)到(1f),规范系统(1)提供了使用这里所述的系统的姿态分析和转换能力的基础。
一只手“姿势”被表示为以下的序列:
i)手指与手背之间的相对方位,
ii)量化成少量离散状态。
使用相对结合方位允许这里所述的系统避免不同的手部大小和几何形状相关的问题。对于这种系统不需要“操作者校准”。另外,将姿势规定为相对方位的序列或集合允许通过将姿势表示与另外的滤波器和规范相结合以容易地创建更复杂的姿态规范。
针对姿势规范使用少量离散状态能够简单地指定姿势并且使用各种基本跟踪技术(例如,使用相机的被动光学跟踪,使用光点和相机的主动光学跟踪,电磁场跟踪等)确保准确的姿势识别。
可以部分地(或者最小地)规定每个类别(1a)到(1f)中的姿态,从而忽略非关键数据。例如,两个手指的位置是确定的并且其他手指位置是不重要的姿态可以表示为单个规范,其中给出两个相关手指的操作位置,并且在同一序列中,为其他手指列出“通配符”或一般“忽略这些”指示符。
针对姿态识别这里描述的所有改进,包括但不限于多层规范技术、相对方位的运用、数据量化以及针对每个级别的部分或最小规范的余量,将手部姿态的超过规范归纳为使用其他身体部分和“制造”工具和对象的姿态的规范。
用于“登记姿态”(2)的编程技术由预定义的应用编程接口集调用函数组成,调用函数允许编程者定义引擎应当使得哪些姿态对于运行系统的其他部分可用。
在应用建立时可以使用这些API线程,创建在运行应用程序的持续时间期间使用的静态接口定义。在运行期间也可以使用这些线程,允许接口特性在不工作时发生改变。接口的这种实时变化使得能够
i)构建复杂场景和条件控制状态,
ii)向控制环境动态地添加迟滞(hysteresis),以及
iii)创建应用,其中用户能够改变或扩展运行系统自身的接口符号集。
用于分析姿态流(3)的算法将(1)中规定和在(2)中登记的姿态与输入的低水平姿态数据相比较。在识别出用于登记姿态的匹配时,把代表匹配姿态的事件数据在堆栈上方传送到运行的应用。
在这种系统的设计中有效的实时匹配是理想的,将指定姿态看作是尽可能快的处理的概率树。
另外,内部使用以识别指定姿态的初始比较操作符还暴露给应用程序编程者来使用,使得甚至在应用场景中也可以进行进一步比较(例如在复杂或复合姿态中的灵活的状态检查)。
识别“锁定”语义是本文所述系统的改进。这些语义由登记API(2)(以及,在较小程度上,嵌入在规范符号集(1)中)来暗示。登记API调用函数包括
i)“登入”状态提示符以及“继续”状态提示符,以及
ii)姿态优先级指示符。
如果识别出姿态,则其“继续”条件对于相同或较低优先级的姿态占据所有“登入”条件的优先位置。登入和继续状态之间的这种差异明显增加感知系统可用性。
本文所述的系统包括面对真实世界数据误差和不确定性的鲁棒操作的算法。来自低水平跟踪系统的数据可能是不完整的(由于多种原因,包括光学跟踪、网络中断或处理延迟等中标志的遮挡)。
丢失的数据由分析系统做标记,并且根据丢失数据的数量和背景插入“最后已知的”或“最可能的”状态。
如果丢失有关特定姿态成分的数据(例如,特定接合的方位),而该特定成分的“最后已知的”状态可以作为本质上可能的状态进行分析,则系统在其实时匹配中使用该最后已知的状态。
相反,如果最后已知的状态作为本质上不可能的状态进行分析,则系统退回到该成分的“最佳猜测范围”,并且在其实时匹配中使用该合成数据。
本文描述的规范和分析系统被精心设计来支持“偏手性不可知论”,从而针对多个手部姿态允许任一只手满足姿势需求。
一致的虚拟/显示和物理空间
系统可以提供这样一种环境,其中在一个或多个显示装置(“屏幕”)上描绘的虚拟空间被看作与系统的一个或多个操作者所处的物理空间一致。本文描述了这种环境的实施例。该当前实施例包括固定定位处的三个投影仪驱动屏幕,由单个台式计算机驱动并且使用本文描述的姿态符号集和接口系统来控制。然而,注意,任意数量的屏幕得到正在描述的技术的支持,那些屏幕可以是移动的(而非固定的),屏幕可以由许多独立计算机同时驱动,以及整个系统可以受到任何输入装置或技术的控制。
本公开中描述的接口系统应当具有确定屏幕在物理空间中的尺寸、方位和位置的装置。给定该信息,该系统能够把这些屏幕作为投影定位(并且存在系统的操作者)的物理空间动态地映射到在系统上运行的计算机应用的虚拟空间。作为该自动映射的部分,该系统根据系统所具有的应用的需要以多种方式转换两个空间的尺度、角度、深度、尺寸和其他空间特征。
物理和虚拟空间之间的这种连续转换使得能够一致和普遍应用难以在现有应用平台上实现或者针对在现有平台上运行的各个应用必须逐个(piece-meal)实现的许多接口技术。这些技术包括(但不限于):
1)“文字指示”的使用-在姿态接口环境中使用手部,或者使用物理指示工具或装置-作为普遍和自然接口技术。
2)对屏幕移动或重新定位的自动补偿。
3)根据操作者位置例如模拟视差偏移发生变化以增强深度感受的图形渲染。
4)在屏幕上显示器中包括物理对象-考虑真实世界位置、方位、状态等。例如,站在大型、不透明的屏幕前方的操作者可以看到应用图形以及屏幕(并且可以正在移动或者改变方位)后方的比例模型的真实位置的表示。
值得注意的是,文字指示不同于在基于鼠标的窗口接口和大多数其他同时期的系统中使用的抽象指示。在那些系统中,操作者必须学会管理虚拟指示装置与物理指示装置之间的转换,并且必须有认知地在两者之间映射。
相反,在本公开内容中描述的系统中,不管是从应用还是从用户角度来说,虚拟和物理空间之间都不存在差别(只是虚拟空间更受数学运算的影响),所以不存在操作者的所需要的认知转换。
本文描述的实施例所提供的文字指示的最接近近似是触摸敏感屏幕(例如在许多ATM机器上所见的)。触摸敏感屏幕在屏幕上的二维显示空间与屏幕表面的二维输入空间之间提供一对一的映射。在类似方式中,本文所述的系统在一个或多个屏幕上显示的虚拟空间与操作者所处的物理空间之间提供了灵活的映射(可能但并非必须一对一)。尽管类推的有效性问题,但是值得注意的是,该“映射方法”到三维的扩展,任意大型架构环境以及多屏幕并非微不足道。
除了本文描述的成分之外,系统还可以实现在环境的物理空间与每个屏幕上的显示空间之间实现连续、系统级映射(大概通过旋转、转换、缩放和其他几何关系变换修改)的算法。
实施例的系统包括渲染堆栈,其获得计算对象和映射并且输出虚拟空间的图形表示。
实施例的系统包括输入事件处理堆栈,其从控制系统获得事件数据(在当前实施例中为来自系统和鼠标输入的姿态和指示数据两者)并且把空间数据从输入事件映射到虚拟空间中的坐标。随后将转换后的事件传送给运行的应用。
实施例的系统包括“粘合层”,允许系统具有通过局域网在几个计算机之间运行的应用。
本文所述的实施例包括一种系统,包括:交通工具中的多个传感器,其中所述多个传感器映射对象并且输出表示所述对象所做姿态的姿态数据,其中所述姿态数据是所述对象在空间中时间点的瞬时状态,其中所述对象包括用户的手和手指中的至少一个;处理器,耦接到所述多个传感器,所述处理器从所述姿态数据自动检测所述对象的姿态,所述检测包括提取所述对象的位置,所述检测包括恢复所述对象的量化姿势和方位矢量,所述检测包括把所述姿态数据转换成姿态信号;以及控制器,耦接到所述处理器并且耦接到交通工具的多个交通工具子系统,所述控制器响应于所述姿态信号管理与所述多个交通工具子系统的用户交互。
定位实施例的多个传感器来查看所述交通工具的座舱。
实施例的多个传感器包括多个相机。
实施例的多个相机包括立体视觉系统。
实施例的姿态数据包括表示所述对象的三维数据点云。
实施例的三维数据点云中的数据点的分辨深度精度大约为1毫米(mm)。
实施例的对象的位置包括手的位置。
实施例的对象的位置包括一组手指的位置。
实施例的对象的量化姿势包括至少一只手的量化姿势。
实施例的对象的方位矢量包括至少一只手的连续方位矢量。
实施例的对象的方位矢量包括一组手指的连续方位矢量。
实施例的转换包括把所述姿态的信息转换成姿态符号。
实施例的姿态符号表示姿态符号集,并且所述姿态信号包括所述姿态符号集的通信。
实施例的姿态符号集以文本形式表示所述对象的运动联接的瞬时姿势状态。
实施例的姿态符号集以文本形式表示所述对象的运动联接的方位。
实施例的姿态符号集以文本形式表示所述对象的运动联接的方位组合。
实施例的姿态符号集包括表示所述对象的运动联接状态的字符串。
实施例的系统包括耦接到所述处理器的反馈装置,所述反馈装置为用户提供对应于所述姿态的指示。
实施例的指示包括对所述姿态的解释。
实施例的指示包括响应于所述姿态在所述多个交通工具子系统上实现的效果。
实施例的反馈装置是视觉装置。
实施例的反馈装置是听觉装置。
实施例的反馈装置是音频-视觉装置。
实施例的反馈装置是交通工具平视显示器。
实施例的反馈装置是基于像素的交通工具显示器。
实施例的反馈装置是至少一个变色发光指示器。
实施例的反馈装置是触觉显示器。
实施例的控制器使用第一交互模式管理所述用户交互,所述第一交互模式包括响应于所述姿态来控制与所述多个交通工具子系统的交互,其中所述姿态包括用户的手指运动。
实施例的姿态包括手部两个手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态而循环经过交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
实施例的姿态包括用户手部的手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态而递增地改变所述参数的设置。
实施例的姿态包括按住第一手指和伸展第二手指,其中所述控制器响应于所述姿态以恒定速率改变所述参数的设置。
实施例的姿态包括用户第一只手的至少一个手指的伸展,其中所述处理器响应于所述姿态激活所述控制器。
实施例的用户的手部在所述姿态期间保持与交通工具的导向机构接触。
实施例的至少一个手指是所述用户的食指、中指和拇指中的至少一个。
实施例的姿态包括所述第一只手的两个手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态而循环经过交通工具子系统的多个控制模式,其中所述多个控制模式的每个控制模式都对应于交通工具子系统。
实施例的姿态包括第二只手的两个手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态而循环经过每个控制模式的多个控制选项,其中所述多个控制选项的每个控制选项都对应于交通工具子系统。
实施例的姿态包括所述用户手部的手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态对控件的设置进行控制。
实施例的姿态包括所述用户的手部的第一手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态通过沿第一方向对所述设置进行步进来递增地改变所述设置。
实施例的姿态包括所述用户手部的第二手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态通过沿第二方向对所述设置进行步进来递增地改变所述设置。
实施例的姿态包括按住所述第一手指和伸展所述第二手指,其中所述控制器响应于所述姿态以恒定速率改变所述设置。
实施例的系统包括耦接到所述处理器的图形显示器,所述图形显示器为用户提供对应于所述姿态的指示,其中所述姿态控制显示组件在所述图形显示器上的位置。
实施例的手指运动经由所述显示组件实现所述交通工具子系统的控制组件的非线性选择,其中每个控制组件都允许用户控制交通工具子系统的参数。
实施例的姿态包括所述用户的第一只手的至少一个手指的伸展,其中所述处理器响应于所述姿态激活所述控制器并且使得所述显示组件将被显示。
实施例的姿态包括指尖的相对运动,其中所述处理器响应于所述指尖的相对运动控制所述显示组件在所述图形显示器上的运动。
通过所述显示组件的近邻选择实施例的所述显示器的界面图形,其中所述显示组件是指示装置。
实施例的界面图形对应于所述交通工具子系统的控制组件,其中每个控制组件的界面图形都允许用户控制交通工具子系统的参数。
实施例的姿态包括所述用户手部的手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态经由所述界面图形改变所述参数的设置。
实施例的姿态包括按住第一手指和伸展第二手指,其中所述控制器响应于所述姿态经由所述界面图形改变所述参数的设置。
实施例的显示组件包括拨动开关图标,其中所述姿态包括所述用户手部的手指的握紧-再次伸展运动,其中所述姿态控制所述拨动开关的设置。
实施例的显示组件包括滑块图标,其中所述姿态包括按住第一手指和伸展第二手指,其中所述控制器响应于所述姿态以恒定速率改变所述滑块的设置。
实施例的显示组件包括滑块图标,其中所述姿态包括所述用户手部的手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态而递增地改变所述滑块的设置。
实施例的控制器使用第二交互模式管理所述用户交互,所述第二交互模式包括响应于所述姿态来控制与所述多个交通工具子系统的交互,其中所述姿态包括所述用户的手部运动和手指运动。
实施例的控制器响应于所述姿态而循环经过所述交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
实施例的姿态包括手部的沿第一方向伸展的第一手指。
实施例的姿态包括所述手部的沿第二方向伸展的第二手指。
实施例的姿态包括所述手部、所述第一手指和所述第二手指的组合的垂直方位,其中所述垂直方位把所述手部、所述第一手指和所述第二手指布置在与重力对齐的平面中。
实施例的姿态包括所述手部、所述第一手指和所述第二手指的组合的水平方位,其中所述水平方位把所述手部、所述第一手指和所述第二手指布置在垂直于重力的平面中。
实施例的姿态包括所述手部的沿所述第一方向伸展并且与所述第一手指近似对齐的第三手指。
实施例的第二手指在伸展时与所述第一手指近似垂直。
实施例的第二手指在伸展时与所述第一手指近似平行。
实施例的姿态包括旋转到所述第一手指近似中间指向的位置的手部。
实施例的系统包括耦接到所述处理器的图形显示器,所述图形显示器经由所述姿态为所述用户提供控制,其中所述控制器响应于所述姿态而循环经过所述交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
实施例的姿态控制显示组件在所述图形显示器上的位置。
实施例的姿态包括手部的沿第一方向伸展的第一手指。
实施例的显示组件包括指示装置,其中所述指示装置的位置由所述第一手指的运动和目标中的至少一个控制。
在使用所述第一手指的目标在控制组件内布置所述指示装置并且所述手部的第二手指从第一位置移动到第二位置时,实施例的姿态对控制组件的选择进行控制,其中第一位置近似垂直于所述第一手指延伸,而第二位置近似平行于所述第一手指延伸。
实施例的姿态包括使所述第一手指瞄准远离所述图形显示器的位置,其中所述控制器呈现菜单列表。
实施例的姿态包括使所述第一手指瞄准菜单项并且把所述第二手指移向所述第一位置,其中所述控制器选择所述菜单项作为有效控制组件。
实施例的姿态包括所述手部和所述手部的至少一个手指的组合的垂直方位,其中所述垂直方位把所述手部、所述第一手指和所述第二手指布置在与重力对齐的平面中,其中所述控制器呈现第一组控制组件。
实施例的姿态包括所述手部和所述手部的至少一个手指的组合的水平方位,其中所述水平方位把所述手部、所述第一手指和所述第二手指布置在垂直于重力的平面中,其中所述控制器呈现不同于第一组控制组件的第二组控制组件。
实施例的交通工具子系统包括气候控制装置,多功能显示装置、音频装置、无线电广播装置、数字音频装置、电话、导航装置、巡航控制装置、自动驾驶装置、自动导向装置和联网装置中的至少一个。
实施例的多个传感器包括多个飞行时间深度感测相机。
实施例的多个传感器包括多个结构光三维传感器。
本文所述的实施例包括一种系统,包括:多个传感器,其中所述多个传感器映射对象并且输出表示姿态的姿态数据,其中所述姿态数据是所述对象在空间中时间点的瞬时状态,其中所述对象包括手和手指中的至少一个;以及处理器,耦接到所述多个传感器,所述处理器从所述姿态数据自动检测所述对象的姿态,所述检测包括提取所述对象的位置,所述检测包括恢复所述对象的量化姿势和方位矢量,所述检测包括把所述姿态数据转换成姿态信号并且使用所述姿态信号控制耦接到所述处理器的交通工具子系统。
本文所述的实施例包括一种系统,包括:安装在交通工具中的多个传感器,其中所述多个传感器映射对象并且输出表示所述对象所做姿态的姿态数据,其中所述姿态数据是所述对象在空间中时间点的瞬时状态;处理器,耦接到所述多个传感器,所述处理器从所述姿态数据自动检测所述对象的姿态并且把所述姿态数据转换成姿态信号;控制器,耦接到所述控制器并且耦接到交通工具的交通工具子系统,所述控制器响应于所述姿态信号来控制所述交通工具子系统;以及反馈装置,耦接到所述处理器,所述反馈装置提供对应于所述姿态的视觉和音频反馈中的至少一个。
本文所述的实施例包括一种方法,包括:经由交通工具中的多个传感器接收对象的图像并且输出表示所述对象所做姿态的姿态数据,其中所述姿态数据是所述对象在空间中时间点的瞬时状态,其中所述对象包括用户的手和手指中的至少一个;通过提取所述对象的位置,恢复所述对象的量化姿势和方位矢量以及把所述姿态数据转换成姿态信号来从所述姿态数据自动检测所述对象的姿态;以及响应于所述姿态信号来管理与所述多个交通工具子系统的用户交互。
实施例的方法包括定位所述多个传感器来查看所述交通工具的座舱,其中所述多个传感器包括多个相机。
实施例的姿态数据包括表示所述对象的三维数据点云。
实施例的对象的位置包括手的位置。
实施例的对象的位置包括一组手指的位置。
实施例的对象的量化姿势包括至少一只手的量化姿势。
实施例的对象的方位矢量包括至少一只手的连续方位矢量。
实施例的对象的方位矢量包括一组手指的连续方位矢量。
实施例的转换包括把所述姿态的信息转换成姿态符号,其中所述姿态符号表示姿态符号集,并且所述姿态信号包括所述姿态符号集的通信。
实施例的姿态符号集以文本形式表示所述对象的运动联接的瞬时姿势状态。
实施例的姿态符号集以文本形式表示所述对象的运动联接的方位。
实施例的姿态符号集包括表示所述对象的运动联接状态的字符串。
实施例的方法包括为用户提供对应于所述姿态的指示,其中所述指示包括对所述姿态的解释以及响应于所述姿态在所述多个交通工具子系统上实现的效果中的至少一个。
实施例的用户交互的管理包括使用第一交互模式,所述第一交互模式包括响应于所述姿态来控制与所述多个交通工具子系统的交互,其中所述姿态包括用户的手指运动。
实施例的姿态包括手部的两个手指的握紧-再次伸展运动,其中管理用户交互包括响应于所述姿态而循环经过交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
实施例的姿态包括用户手部的手指的握紧-再次伸展运动,其中管理用户交互包括响应于所述姿态而递增地改变所述参数的设置。
实施例的姿态包括按住第一手指和伸展第二手指,其中管理用户交互包括响应于所述姿态以恒定速率改变所述参数的设置。
实施例的用户的手部在所述姿态期间保持与交通工具的导向机构接触。
实施例的方法包括为用户提供对应于所述姿态的指示,其中所述姿态控制显示组件在图形显示器上的位置。
实施例的手指运动经由所述显示组件实现所述交通工具子系统的控制组件的非线性选择,其中每个控制组件都允许用户控制交通工具子系统的参数。
实施例的姿态包括指尖的相对运动,其中管理用户交互包括响应于所述指尖的相对运动控制所述显示组件在所述图形显示器上的运动。
实施例的方法包括通过所述显示组件的近邻选择所述显示器的界面图形,其中所述显示组件是指示装置。
实施例的界面图形对应于所述交通工具子系统的控制组件,其中每个控制组件的界面图形都允许用户控制交通工具子系统的参数。
实施例的用户交互的管理包括使用第二交互模式,所述第二交互模式包括响应于所述姿态来控制与所述多个交通工具子系统的交互,其中所述姿态包括所述用户的手部运动和手指运动。
实施例的方法包括响应于所述姿态而循环经过所述交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
实施例的姿态包括手部的沿第一方向伸展的第一手指。
实施例的姿态包括所述手部的沿第二方向伸展的第二手指。
实施例的姿态包括所述手部、所述第一手指和所述第二手指的组合的垂直方位,其中所述垂直方位把所述手部、所述第一手指和所述第二手指布置在与重力对齐的平面中。
实施例的姿态包括所述手部、所述第一手指和所述第二手指的组合的水平方位,其中所述水平方位把所述手部、所述第一手指和所述第二手指布置在垂直于重力的平面中。
实施例的姿态包括所述手部的沿所述第一方向伸展并且与所述第一手指近似对齐的第三手指。
实施例的第二手指在伸展时与所述第一手指近似垂直。
实施例的第二手指在伸展时与所述第一手指近似平行。
实施例的姿态包括旋转到所述第一手指近似中间指向的位置的手部。
实施例的方法包括提供显示输出,所述显示输出经由所述姿态为用户提供控制,其中管理用户交互包括响应于所述姿态而循环经过所述交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
实施例的姿态控制显示组件在所述显示输出上的位置。
实施例的姿态包括手部的沿第一方向伸展的第一手指。
实施例的显示组件包括指示装置,其中所述指示装置的位置由所述第一手指的运动和目标中的至少一个控制。
在使用所述第一手指的目标在控制组件内布置所述指示装置并且所述手部的第二手指从第一位置移动到第二位置时,实施例的姿态对控制组件的选择进行控制,其中第一位置近似垂直于所述第一手指延伸,而第二位置近似平行于所述第一手指延伸。
实施例的姿态包括使所述第一手指瞄准远离所述图形显示器的位置,其中所述控制器呈现菜单列表。
实施例的姿态包括使所述第一手指瞄准菜单项并且把所述第二手指移向所述第一位置,其中所述控制器选择所述菜单项作为有效控制组件。
本文描述的基于姿态的控制系统和方法包括处理系统和/或在处理系统下运行和/或与处理系统相结合地运行。如本领域已知的,处理系统包括基于处理器的装置或一起操作的计算装置的任意结合,或者处理系统或装置的元件。例如,处理系统可以包括便携式计算机、在通信网络中运行的便携式通信装置和/或网络服务器中的一个或多个。便携式计算机可以是任意数量的个人计算机、蜂窝电话、个人数字助理、便携式计算装置和便携式通信装置和/或组合,但是不限于此。处理系统可以包括大型计算机系统中的元件。
实施例的处理系统包括至少一个处理器和至少一个存储器装置或子系统。处理系统还可以包括至少一个数据库或者与至少一个数据库耦接。本文一般意义上使用的术语“处理器”是指任何逻辑处理单元,诸如一个或多个中央处理单元(CPU)、数字信号处理器(DSP)、专用集成电路(ASIC)等。处理器和存储器可以整体集成在单个芯片中,分布在主机系统的多个芯片或元件中,和/或由一些算法的组合来提供。本文所述的方法可以采取任意组合形式由(多个)软件算法、程序、固件、硬件、元件、电路中的一个或多个来实现。
实施本文描述的系统和方法的系统元件可以一起定位或者位于单独的定位。因此,实施本文描述的系统和方法的系统元件可以是单个系统、多个系统和/或地理位置上为单独系统的元件。这些元件还可以是单个系统、多个系统和/或地理位置上为单独系统的子元件或子系统。这些元件可以耦接到主机系统或者与该主机系统耦接的系统的一个或多个其他元件。
通信路径耦接系统元件并且包括在元件当中传送或传输文件的任何介质。通信路径包括无线连接、有线连接以及混合无线/有线连接。通信路径还包括与包括局域网(LAN)、城域网(MAN)、广域网(WAN)、专属网络、局间网络或后端网络以及因特网的网络的耦接或连接。而且,通信路径包括如软盘、硬盘驱动器和CD-ROM盘的可移除的固定介质,以及闪速RAM、通用串行总线(USB)连接、RS-232连接、电话线、总线和电子邮件消息。
除了另外明确需要的背景,词语“包括”、“包含”等在说明书通篇被认为包含在内的意思而与排他或穷尽的意思相反,即,“包括但不限于”的意思。使用单数或复数的词语分别还包括多个或单数个。另外,词语“本文”、“下文”、“上文”、“以下”以及类似引入的词汇在本申请中是指作为整体而非本申请的任何特定部分。当引用两个或多项列表使用词语“或”时,该词汇覆盖以下对该词汇的所有解释:列表中的任一项、列表中的所有项以及列表中各项的任意组合。
基于姿态的控制的实施例的以上描述并非意在将所述的系统和方法穷尽或限于所披露的精确形式。尽管为了说明目的描述了基于姿态的控制的特定实施例以及示例,但是正如本领域技术人员将认识到的那样,在其他系统和方法的范围内的各种等同变型是可能的。本文提供的基于姿态的控制的指教不仅仅用于上述系统和方法还可以应用于其他处理系统和方法。
上述各个实施例的元素和动作可以结合起来提供另外的实施例。根据以上具体描述可以对基于姿态的控制做出这些变化或另外变化。
通常,在所附权利要求中,所用的术语不应当被解释为将基于姿态的控制限于在说明书和权利要求中所披露的特定实施例,而应当解释为包括根据权利要求运行的所有系统。因此,基于姿态的控制不限于本公开内容,相反基于姿态的控制的范围完全由权利要求来确定。
尽管以下以某些权利要求形式呈现基于姿态的控制的某些方面,但是发明人设想到以任意数量的权利要求形式的基于姿态的控制的各个方面。因此,发明人保留在提交本申请之后添加附加权利要求的权利从而针对基于姿态的控制的其他方面要求这种附加权利要求。
Claims (115)
1.一种系统,包括:
交通工具中的多个传感器,其中所述多个传感器映射对象并且输出表示所述对象所做姿态的姿态数据,其中所述姿态数据是所述对象在空间中时间点的瞬时状态,其中所述对象包括用户的手和手指中的至少一个;
处理器,耦接到所述多个传感器,所述处理器从所述姿态数据自动检测所述对象的姿态,所述检测包括提取所述对象的位置,所述检测包括恢复所述对象的量化姿势和方位矢量,所述检测包括把所述姿态数据转换成姿态信号;以及
控制器,耦接到所述处理器并且耦接到交通工具的多个交通工具子系统,所述控制器响应于所述姿态信号管理与所述多个交通工具子系统的用户交互。
2.如权利要求1所述的系统,其中定位所述多个传感器来查看所述交通工具的座舱。
3.如权利要求1所述的系统,其中所述多个传感器包括多个相机。
4.如权利要求3所述的系统,其中所述多个相机包括立体视觉系统。
5.如权利要求1所述的系统,其中所述姿态数据包括表示所述对象的三维数据点云。
6.如权利要求5所述的系统,其中所述三维数据点云中的数据点的分辨深度精度大约为1毫米(mm)。
7.如权利要求1所述的系统,其中所述对象的位置包括手的位置。
8.如权利要求1所述的系统,其中所述对象的位置包括一组手指的位置。
9.如权利要求1所述的系统,其中所述对象的量化姿势包括至少一只手的量化姿势。
10.如权利要求1所述的系统,其中所述对象的方位矢量包括至少一只手的连续方位矢量。
11.如权利要求1所述的系统,其中所述对象的方位矢量包括一组手指的连续方位矢量。
12.如权利要求1所述的系统,其中所述转换包括把所述姿态的信息转换成姿态符号。
13.如权利要求12所述的系统,其中所述姿态符号表示姿态符号集,并且所述姿态信号包括所述姿态符号集的通信。
14.如权利要求13所述的系统,其中所述姿态符号集以文本形式表示所述对象的运动联接的瞬时姿势状态。
15.如权利要求13所述的系统,其中所述姿态符号集以文本形式表示所述对象的运动联接的方位。
16.如权利要求13所述的系统,其中所述姿态符号集以文本形式表示所述对象的运动联接的方位组合。
17.如权利要求13所述的系统,其中所述姿态符号集包括表示所述对象的运动联接状态的字符串。
18.如权利要求1所述的系统,包括耦接到所述处理器的反馈装置,所述反馈装置为用户提供对应于所述姿态的指示。
19.如权利要求18所述的系统,其中所述指示包括对所述姿态的解释。
20.如权利要求18所述的系统,其中所述指示包括响应于所述姿态在所述多个交通工具子系统上实现的效果。
21.如权利要求18所述的系统,其中所述反馈装置是视觉装置。
22.如权利要求18所述的系统,其中所述反馈装置是听觉装置。
23.如权利要求18所述的系统,其中所述反馈装置是音频-视觉装置。
24.如权利要求18所述的系统,其中反馈装置是交通工具平视显示器。
25.如权利要求18所述的系统,其中所述反馈装置是交通工具的基于像素的显示器。
26.如权利要求18所述的系统,其中所述反馈装置是至少一个变色发光指示器。
27.如权利要求18所述的系统,其中所述反馈装置是触觉显示器。
28.如权利要求1所述的系统,其中所述控制器使用第一交互模式管理所述用户交互,所述第一交互模式包括响应于所述姿态来控制与所述多个交通工具子系统的交互,其中所述姿态包括用户的手指运动。
29.如权利要求28所述的系统,其中所述姿态包括手部两个手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态而循环经过交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
30.如权利要求29所述的系统,其中所述姿态包括用户手部的手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态而递增地改变所述参数的设置。
31.如权利要求29所述的系统,其中所述姿态包括按住第一手指和伸展第二手指,其中所述控制器响应于所述姿态以恒定速率改变所述参数的设置。
32.如权利要求28所述的系统,其中所述姿态包括用户第一只手的至少一个手指的伸展,其中所述处理器响应于所述姿态激活所述控制器。
33.如权利要求32所述的系统,其中所述用户的手部在所述姿态期间保持与交通工具的导向机构接触。
34.如权利要求32所述的系统,其中所述至少一个手指是所述用户的食指、中指和拇指中的至少一个。
35.如权利要求32所述的系统,其中所述姿态包括所述第一只手的两个手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态而循环经过交通工具子系统的多个控制模式,其中所述多个控制模式的每个控制模式都对应于交通工具子系统。
36.如权利要求35所述的系统,其中所述姿态包括第二只手的两个手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态而循环经过每个控制模式的多个控制选项,其中所述多个控制选项的每个控制选项都对应于交通工具子系统。
37.如权利要求36所述的系统,其中所述姿态包括所述用户手部的手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态对控件的设置进行控制。
38.如权利要求37所述的系统,其中所述姿态包括所述用户手部的第一手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态通过沿第一方向对所述设置进行步进来递增地改变所述设置。
39.如权利要求38所述的系统,其中所述姿态包括所述用户手部的第二手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态通过沿第二方向对所述设置进行步进来递增地改变所述设置。
40.如权利要求39所述的系统,其中所述姿态包括按住所述第一手指和伸展所述第二手指,其中所述控制器响应于所述姿态以恒定速率改变所述设置。
41.如权利要求28所述的系统,包括耦接到所述处理器的图形显示器,所述图形显示器为用户提供对应于所述姿态的指示,其中所述姿态控制显示组件在所述图形显示器上的位置。
42.如权利要求41所述的系统,其中所述手指运动经由所述显示组件实现所述交通工具子系统的控制组件的非线性选择,其中每个控制组件都允许用户控制交通工具子系统的参数。
43.如权利要求42所述的系统,其中所述姿态包括所述用户的第一只手的至少一个手指的伸展,其中所述处理器响应于所述姿态激活所述控制器并且使得所述显示组件被显示。
44.如权利要求43所述的系统,其中所述姿态包括指尖的相对运动,其中所述处理器响应于所述指尖的相对运动控制所述显示组件在所述图形显示器上的运动。
45.如权利要求44所述的系统,其中通过所述显示组件的邻近而选择所述显示器的界面图形,其中所述显示组件是指示装置。
46.如权利要求45所述的系统,其中所述界面图形对应于所述交通工具子系统的控制组件,其中每个控制组件的界面图形都允许用户控制交通工具子系统的参数。
47.如权利要求46所述的系统,其中所述姿态包括所述用户手部的手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态经由所述界面图形改变所述参数的设置。
48.如权利要求46所述的系统,其中所述姿态包括按住第一手指和伸展第二手指,其中所述控制器响应于所述姿态经由所述界面图形改变所述参数的设置。
49.如权利要求41所述的系统,其中所述显示组件包括拨动开关图标,其中所述姿态包括所述用户手部的手指的握紧-再次伸展运动,其中所述姿态控制所述拨动开关的设置。
50.如权利要求41所述的系统,其中所述显示组件包括滑块图标,其中所述姿态包括按住第一手指和伸展第二手指,其中所述控制器响应于所述姿态以恒定速率改变所述滑块的设置。
51.如权利要求41所述的系统,其中所述显示组件包括滑块图标,其中所述姿态包括所述用户手部的手指的握紧-再次伸展运动,其中所述控制器响应于所述姿态递增地改变所述滑块的设置。
52.如权利要求1所述的系统,其中所述控制器使用第二交互模式管理所述用户交互,所述第二交互模式包括响应于所述姿态来控制与所述多个交通工具子系统的交互,其中所述姿态包括所述用户的手部运动和手指运动。
53.如权利要求52所述的系统,其中所述控制器响应于所述姿态而循环经过所述交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
54.如权利要求52所述的系统,其中所述姿态包括手部的沿第一方向伸展的第一手指。
55.如权利要求54所述的系统,其中所述姿态包括所述手部的沿第二方向伸展的第二手指。
56.如权利要求55所述的系统,其中所述姿态包括所述手部、所述第一手指和所述第二手指的组合的垂直方位,其中所述垂直方位把所述手部、所述第一手指和所述第二手指布置在与重力对齐的平面中。
57.如权利要求55所述的系统,其中所述姿态包括所述手部、所述第一手指和所述第二手指的组合的水平方位,其中所述水平方位把所述手部、所述第一手指和所述第二手指布置在垂直于重力的平面中。
58.如权利要求55所述的系统,其中所述姿态包括所述手部的沿所述第一方向伸展并且与所述第一手指近似对齐的第三手指。
59.如权利要求55所述的系统,其中所述第二手指在伸展时与所述第一手指近似垂直。
60.如权利要求55所述的系统,其中所述第二手指在伸展时与所述第一手指近似平行。
61.如权利要求55所述的系统,其中所述姿态包括旋转到所述第一手指近似中间指向的位置的手部。
62.如权利要求52所述的系统,包括耦接到所述处理器的图形显示器,所述图形显示器经由所述姿态为所述用户提供控制,其中所述控制器响应于所述姿态而循环经过所述交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
63.如权利要求62所述的系统,其中所述姿态控制显示组件在所述图形显示器上的位置。
64.如权利要求63所述的系统,其中所述姿态包括手部的沿第一方向伸展的第一手指。
65.如权利要求64所述的系统,其中所述显示组件包括指示装置,其中所述指示装置的位置由所述第一手指的运动和目标中的至少一个控制。
66.如权利要求65所述的系统,其中在使用所述第一手指的目标在控制组件内布置所述指示装置并且所述手部的第二手指从第一位置移动到第二位置时,所述姿态对控制组件的选择进行控制,其中所述第一位置近似垂直于所述第一手指延伸,而所述第二位置近似平行于所述第一手指延伸。
67.如权利要求66所述的系统,其中所述姿态包括使所述第一手指瞄准远离所述图形显示器的位置,其中所述控制器呈现菜单列表。
68.如权利要求67所述的系统,其中所述姿态包括使所述第一手指瞄准菜单项并且把所述第二手指移向所述第一位置,其中所述控制器选择所述菜单项作为有效控制组件。
69.如权利要求62所述的系统,其中所述姿态包括所述手部和所述手部的至少一个手指的组合的垂直方位,其中所述垂直方位把所述手部、所述第一手指和所述第二手指布置在与重力对齐的平面中,其中所述控制器呈现第一组控制组件。
70.如权利要求69所述的系统,其中所述姿态包括所述手部和所述手部的至少一个手指的组合的水平方位,其中所述水平方位把所述手部、所述第一手指和所述第二手指布置在垂直于重力的平面中,其中所述控制器呈现不同于所述第一组控制组件的第二组控制组件。
71.如权利要求1所述的系统,其中所述交通工具子系统包括气候控制装置,多功能显示装置、音频装置、无线电广播装置、数字音频装置、电话、导航装置、巡航控制装置、自动驾驶装置、自动导向装置和联网装置中的至少一个。
72.如权利要求1所述的系统,其中所述多个传感器包括多个飞行时间深度感测相机。
73.如权利要求1所述的系统,其中所述多个传感器包括多个结构光三维传感器。
74.一种系统,包括:
多个传感器,其中所述多个传感器映射对象并且输出表示姿态的姿态数据,其中所述姿态数据是所述对象在空间中时间点的瞬时状态,其中所述对象包括手和手指中的至少一个;以及
处理器,耦接到所述多个传感器,所述处理器从所述姿态数据自动检测所述对象的姿态,所述检测包括提取所述对象的位置,所述检测包括恢复所述对象的量化姿势和方位矢量,所述检测包括把所述姿态数据转换成姿态信号并且使用所述姿态信号控制耦接到所述处理器的交通工具子系统。
75.一种系统,包括:
安装在交通工具中的多个传感器,其中所述多个传感器映射对象并且输出表示所述对象所做姿态的姿态数据,其中所述姿态数据是所述对象在空间中时间点的瞬时状态;
处理器,耦接到所述多个传感器,所述处理器从所述姿态数据自动检测所述对象的姿态并且把所述姿态数据转换成姿态信号;
控制器,耦接到所述处理器并且耦接到所述交通工具的交通工具子系统,所述控制器响应于所述姿态信号控制所述交通工具子系统;以及
反馈装置,耦接到所述处理器,所述反馈装置提供对应于所述姿态的视觉和音频反馈中的至少一个。
76.一种方法,包括:
经由交通工具中的多个传感器接收对象的图像并且输出表示所述对象所做姿态的姿态数据,其中所述姿态数据是所述对象在空间中时间点的瞬时状态,其中所述对象包括用户的手和手指中的至少一个;
通过提取所述对象的位置,恢复所述对象的量化姿势和方位矢量以及把所述姿态数据转换成姿态信号来从所述姿态数据自动检测所述对象的姿态;以及
响应于所述姿态信号管理与所述多个交通工具子系统的用户交互。
77.如权利要求76所述的方法,包括定位所述多个传感器来查看所述交通工具的座舱,其中所述多个传感器包括多个相机。
78.如权利要求76所述的方法,其中所述姿态数据包括表示所述对象的三维数据点云。
79.如权利要求76所述的方法,其中所述对象的位置包括手的位置。
80.如权利要求76所述的方法,其中所述对象的位置包括一组手指的位置。
81.如权利要求76所述的方法,其中所述对象的量化姿势包括至少一只手的量化姿势。
82.如权利要求76所述的方法,其中所述对象的方位矢量包括至少一只手的连续方位矢量。
83.如权利要求76所述的方法,其中所述对象的方位矢量包括一组手指的连续方位矢量。
84.如权利要求76所述的方法,其中所述转换包括把所述姿态的信息转换成姿态符号,其中所述姿态符号表示姿态符号集,并且所述姿态信号包括所述姿态符号集的通信。
85.如权利要求84所述的方法,其中所述姿态符号集以文本形式表示所述对象的运动联接的瞬时姿势状态。
86.如权利要求84所述的方法,其中所述姿态符号集以文本形式表示所述对象的运动联接的方位。
87.如权利要求84所述的方法,其中所述姿态符号集包括表示所述对象的运动联接状态的字符串。
88.如权利要求76所述的方法,包括为用户提供对应于所述姿态的指示,其中所述指示包括对所述姿态的解释以及响应于所述姿态在所述多个交通工具子系统上实现的效果中的至少一个。
89.如权利要求76所述的方法,其中用户交互的管理包括使用第一交互模式,所述第一交互模式包括响应于所述姿态控制与所述多个交通工具子系统的交互,其中所述姿态包括用户的手指运动。
90.如权利要求89所述的方法,其中所述姿态包括手部的两个手指的握紧-再次伸展运动,其中管理用户交互包括响应于所述姿态而循环经过交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
91.如权利要求90所述的方法,其中所述姿态包括用户手部的手指的握紧-再次伸展运动,其中管理用户交互包括响应于所述姿态递增地改变所述参数的设置。
92.如权利要求90所述的方法,其中所述姿态包括按住第一手指和伸展第二手指,其中管理用户交互包括响应于所述姿态以恒定速率改变所述参数的设置。
93.如权利要求89所述的方法,其中所述用户的手部在所述姿态期间保持与交通工具的导向机构接触。
94.如权利要求89所述的方法,包括为用户提供对应于所述姿态的指示,其中所述姿态控制显示组件在所述图形显示器上的位置。
95.如权利要求94所述的方法,其中所述手指运动经由所述显示组件实现所述交通工具子系统的控制组件的非线性选择,其中每个控制组件都允许用户控制交通工具子系统的参数。
96.如权利要求95所述的方法,其中所述姿态包括指尖的相对运动,其中管理用户交互包括响应于所述指尖的相对运动控制所述显示组件在所述图形显示器上的运动。
97.如权利要求96所述的方法,包括通过所述显示组件的邻近而选择所述显示器的界面图形,其中所述显示组件是指示装置。
98.如权利要求97所述的方法,其中所述界面图形对应于所述交通工具子系统的控制组件,其中每个控制组件的界面图形都允许用户控制交通工具子系统的参数。
99.如权利要求76所述的方法,其中所述用户交互的管理包括使用第二交互模式,所述第二交互模式包括响应于所述姿态控制与所述多个交通工具子系统的交互,其中所述姿态包括所述用户的手部运动和手指运动。
100.如权利要求99所述的方法,包括响应于所述姿态而循环经过所述交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
101.如权利要求99所述的方法,其中所述姿态包括手部的沿第一方向伸展的第一手指。
102.如权利要求101所述的方法,其中所述姿态包括所述手部的沿第二方向伸展的第二手指。
103.如权利要求102所述的方法,其中所述姿态包括所述手部、所述第一手指和所述第二手指的组合的垂直方位,其中所述垂直方位把所述手部、所述第一手指和所述第二手指布置在与重力对齐的平面中。
104.如权利要求102所述的方法,其中所述姿态包括所述手部、所述第一手指和所述第二手指的组合的水平方位,其中所述水平方位把所述手部、所述第一手指和所述第二手指布置在垂直于重力的平面中。
105.如权利要求102所述的方法,其中所述姿态包括所述手部的沿所述第一方向伸展并且与所述第一手指近似对齐的第三手指。
106.如权利要求102所述的方法,其中所述第二手指在伸展时与所述第一手指近似垂直。
107.如权利要求102所述的方法,其中所述第二手指在伸展时与所述第一手指近似平行。
108.如权利要求102所述的方法,其中所述姿态包括旋转到所述第一手指近似中间指向的位置的手部。
109.如权利要求99所述的方法,包括提供显示输出,所述显示输出经由所述姿态为用户提供控制,其中管理用户交互包括响应于所述姿态而循环经过所述交通工具子系统的多个控制组件,其中每个控制组件都允许用户控制交通工具子系统的参数。
110.如权利要求109所述的方法,其中所述姿态控制显示组件在所述显示输出上的位置。
111.如权利要求110所述的方法,其中所述姿态包括手部的沿第一方向伸展的第一手指。
112.如权利要求111所述的方法,其中所述显示组件包括指示装置,其中所述指示装置的位置由所述第一手指的运动和目标中的至少一个控制。
113.如权利要求112所述的方法,其中在使用所述第一手指的目标在控制组件内布置所述指示装置并且所述手部的第二手指从第一位置移动到第二位置时,所述姿态对控制组件的选择进行控制,其中所述第一位置近似垂直于所述第一手指延伸,而所述第二位置近似平行于所述第一手指延伸。
114.如权利要求113所述的方法,其中所述姿态包括使所述第一手指瞄准远离所述图形显示器的位置,其中所述控制器呈现菜单列表。
115.如权利要求114所述的方法,其中所述姿态包括使所述第一手指瞄准菜单项并且把所述第二手指移向所述第一位置,其中所述控制器选择所述菜单项作为有效控制组件。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US7374008P | 2008-06-18 | 2008-06-18 | |
US61/073,740 | 2008-06-18 | ||
PCT/US2009/047863 WO2009155465A1 (en) | 2008-06-18 | 2009-06-18 | Gesture-based control system for vehicle interfaces |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102112945A true CN102112945A (zh) | 2011-06-29 |
CN102112945B CN102112945B (zh) | 2016-08-10 |
Family
ID=41434456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200980130788.5A Expired - Fee Related CN102112945B (zh) | 2008-06-18 | 2009-06-18 | 用于交通工具接口的基于姿态的控制系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20090278915A1 (zh) |
EP (1) | EP2304527A4 (zh) |
JP (2) | JP2011525283A (zh) |
KR (1) | KR101652535B1 (zh) |
CN (1) | CN102112945B (zh) |
WO (1) | WO2009155465A1 (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103425244A (zh) * | 2012-05-16 | 2013-12-04 | 意法半导体有限公司 | 手势识别 |
CN103631157A (zh) * | 2012-08-29 | 2014-03-12 | 杨尧任 | 利用手势识别技术控制汽车电器的装置及其应用方法 |
CN103842941A (zh) * | 2011-09-09 | 2014-06-04 | 泰利斯航空电子学公司 | 响应于所感测出的乘客比划动作而执行交通工具娱乐系统的控制 |
CN103869975A (zh) * | 2012-12-18 | 2014-06-18 | 现代自动车株式会社 | 车辆中利用手腕角度操作用户界面的系统和方法 |
CN103998316A (zh) * | 2011-12-29 | 2014-08-20 | 英特尔公司 | 用于控制手势发起和终止的系统、方法和设备 |
CN104040464A (zh) * | 2012-01-10 | 2014-09-10 | 戴姆勒股份公司 | 使用在三维空间中执行的手势以及相关的计算机程序产品控制车辆功能的方法和设备 |
CN104049872A (zh) * | 2013-03-13 | 2014-09-17 | 本田技研工业株式会社 | 利用指向的信息查询 |
CN104411530A (zh) * | 2012-04-02 | 2015-03-11 | 谷歌公司 | 基于姿势的汽车控制 |
CN104854553A (zh) * | 2012-11-27 | 2015-08-19 | 内奥诺德公司 | 在方向盘和仪表板上的光基触摸控制件 |
CN104885128A (zh) * | 2012-12-21 | 2015-09-02 | 因温特奥股份公司 | 基于数据载体定向的命令输入 |
CN104914752A (zh) * | 2014-02-04 | 2015-09-16 | 通用汽车环球科技运作有限责任公司 | 将用户输入准确地变换为具体系统功能的装置和方法 |
CN105579319A (zh) * | 2013-03-12 | 2016-05-11 | 罗伯特·博世有限公司 | 用于识别车载信息系统中的手写手势的系统和方法 |
CN106062668A (zh) * | 2014-01-22 | 2016-10-26 | Lg伊诺特有限公司 | 手势设备、用于手势设备的操作方法以及包括手势设备的车辆 |
CN106462252A (zh) * | 2014-06-30 | 2017-02-22 | 歌乐株式会社 | 非接触操作检测装置 |
CN106488790A (zh) * | 2014-05-21 | 2017-03-08 | 环球城市电影有限责任公司 | 使用无源跟踪元件的游乐园环境中增强的交互性 |
CN104737624B (zh) * | 2012-10-17 | 2017-03-08 | 皇家飞利浦有限公司 | 用于将照明应用于对象的方法和设备 |
WO2017124481A1 (zh) * | 2016-01-23 | 2017-07-27 | 刘建兵 | 根据手势调节座椅的方法以及手势系统 |
CN108475111A (zh) * | 2015-12-31 | 2018-08-31 | 微软技术许可有限责任公司 | 变换轻量骨骼并且使用逆运动学产生有关节的骨骼 |
CN109785655A (zh) * | 2018-12-11 | 2019-05-21 | 北京百度网讯科技有限公司 | 车辆控制方法、装置、设备、无人驾驶车辆及存储介质 |
CN110036370A (zh) * | 2016-12-19 | 2019-07-19 | 日立汽车系统株式会社 | 电子控制装置、电子控制系统和电子控制方法 |
Families Citing this family (209)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US8775023B2 (en) | 2009-02-15 | 2014-07-08 | Neanode Inc. | Light-based touch controls on a steering wheel and dashboard |
US9417700B2 (en) | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US8305188B2 (en) * | 2009-10-07 | 2012-11-06 | Samsung Electronics Co., Ltd. | System and method for logging in multiple users to a consumer electronics device by detecting gestures with a sensory device |
US8543240B2 (en) * | 2009-11-13 | 2013-09-24 | Intuitive Surgical Operations, Inc. | Master finger tracking device and method of use in a minimally invasive surgical system |
TW201135341A (en) * | 2010-04-13 | 2011-10-16 | Hon Hai Prec Ind Co Ltd | Front projection system and method |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US20110296304A1 (en) * | 2010-05-27 | 2011-12-01 | Palm, Inc. | Adaptive Gesture Tutorial |
US8670029B2 (en) * | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US20120050495A1 (en) * | 2010-08-27 | 2012-03-01 | Xuemin Chen | Method and system for multi-view 3d video rendering |
US8467599B2 (en) | 2010-09-02 | 2013-06-18 | Edge 3 Technologies, Inc. | Method and apparatus for confusion learning |
US8582866B2 (en) | 2011-02-10 | 2013-11-12 | Edge 3 Technologies, Inc. | Method and apparatus for disparity computation in stereo images |
US8655093B2 (en) | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
US8666144B2 (en) | 2010-09-02 | 2014-03-04 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
US20120060127A1 (en) * | 2010-09-06 | 2012-03-08 | Multitouch Oy | Automatic orientation of items on a touch screen display utilizing hand direction |
US8760432B2 (en) | 2010-09-21 | 2014-06-24 | Visteon Global Technologies, Inc. | Finger pointing, gesture based human-machine interface for vehicles |
US8817087B2 (en) | 2010-11-01 | 2014-08-26 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
US8730157B2 (en) * | 2010-11-15 | 2014-05-20 | Hewlett-Packard Development Company, L.P. | Hand pose recognition |
US8970589B2 (en) | 2011-02-10 | 2015-03-03 | Edge 3 Technologies, Inc. | Near-touch interaction with a stereo camera grid structured tessellations |
US10025388B2 (en) | 2011-02-10 | 2018-07-17 | Continental Automotive Systems, Inc. | Touchless human machine interface |
KR101800182B1 (ko) | 2011-03-16 | 2017-11-23 | 삼성전자주식회사 | 가상 객체 제어 장치 및 방법 |
US8831794B2 (en) * | 2011-05-04 | 2014-09-09 | Qualcomm Incorporated | Gesture recognition via an ad-hoc proximity sensor mesh for remotely controlling objects |
JP5087157B1 (ja) * | 2011-05-25 | 2012-11-28 | 株式会社コナミデジタルエンタテインメント | 指示受付装置、指示受付方法、ならびに、プログラム |
WO2012174406A1 (en) | 2011-06-15 | 2012-12-20 | University Of Washington | Methods and systems for haptic rendering and creating virtual fixtures from point clouds |
US8886407B2 (en) * | 2011-07-22 | 2014-11-11 | American Megatrends, Inc. | Steering wheel input device having gesture recognition and angle compensation capabilities |
US8713482B2 (en) * | 2011-07-28 | 2014-04-29 | National Instruments Corporation | Gestures for presentation of different views of a system diagram |
US8782525B2 (en) | 2011-07-28 | 2014-07-15 | National Insturments Corporation | Displaying physical signal routing in a diagram of a system |
DE102011110978A1 (de) * | 2011-08-18 | 2013-02-21 | Volkswagen Aktiengesellschaft | Verfahren zum Bedienen einer elektronischen Einrichtung oder einer Applikation und entsprechende Vorrichtung |
DE102011112447A1 (de) * | 2011-09-03 | 2013-03-07 | Volkswagen Aktiengesellschaft | Verfahren und Anordnung zum Bereitstellen einer graphischen Nutzerschnittstelle, insbesondere in einem Fahrzeug |
US20130063336A1 (en) * | 2011-09-08 | 2013-03-14 | Honda Motor Co., Ltd. | Vehicle user interface system |
KR101880998B1 (ko) | 2011-10-14 | 2018-07-24 | 삼성전자주식회사 | 이벤트 기반 비전 센서를 이용한 동작 인식 장치 및 방법 |
DE102011116122A1 (de) * | 2011-10-15 | 2013-04-18 | Volkswagen Aktiengesellschaft | Verfahren zum Bereitstellen einer Bedienvorrichtungin einem Fahrzeug und Bedienvorrichtung |
DE102011054848B4 (de) * | 2011-10-27 | 2014-06-26 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Steuer- und Überwachungseinrichtung für Fahrzeuge |
US9672609B1 (en) | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
DE112012004767T5 (de) * | 2011-11-16 | 2014-11-06 | Flextronics Ap, Llc | Vollständiges Fahrzeugökosystem |
KR101704065B1 (ko) * | 2011-12-16 | 2017-02-07 | 현대자동차주식회사 | 차량 인터랙션 시스템 |
JP5917125B2 (ja) | 2011-12-16 | 2016-05-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、撮像装置および表示装置 |
WO2013093837A1 (en) * | 2011-12-23 | 2013-06-27 | Koninklijke Philips Electronics N.V. | Method and apparatus for interactive display of three dimensional ultrasound images |
US9600728B2 (en) | 2011-12-29 | 2017-03-21 | Intel Corporation | System, methods, and apparatus for in-vehicle fiducial mark tracking and interpretation |
EP2797767A4 (en) * | 2011-12-29 | 2016-08-03 | Intel Corp | SYSTEMS AND METHOD FOR IMPROVED DISPLAY OF IMAGES |
KR101237472B1 (ko) * | 2011-12-30 | 2013-02-28 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
DE102012000201A1 (de) | 2012-01-09 | 2013-07-11 | Daimler Ag | Verfahren und Vorrichtung zum Bedienen von auf einer Anzeigeeinheit eines Fahrzeugs angezeigten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt |
US20130204408A1 (en) * | 2012-02-06 | 2013-08-08 | Honeywell International Inc. | System for controlling home automation system using body movements |
US20130211843A1 (en) * | 2012-02-13 | 2013-08-15 | Qualcomm Incorporated | Engagement-dependent gesture recognition |
US9423877B2 (en) | 2012-02-24 | 2016-08-23 | Amazon Technologies, Inc. | Navigation approaches for multi-dimensional input |
US8806280B2 (en) | 2012-02-27 | 2014-08-12 | Microsoft Corporation | APIs to test a device |
US20140310379A1 (en) * | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Vehicle initiated communications with third parties via virtual personality |
US9195794B2 (en) | 2012-04-10 | 2015-11-24 | Honda Motor Co., Ltd. | Real time posture and movement prediction in execution of operational tasks |
US9587804B2 (en) | 2012-05-07 | 2017-03-07 | Chia Ming Chen | Light control systems and methods |
FR2990815A1 (fr) * | 2012-05-18 | 2013-11-22 | Johnson Contr Automotive Elect | Commande a distance pour activer des fonctionnalites d'un vehicule automobile a l'aide de signaux radiofrequence emis par la commande a distance, systeme de controle a distance comprenant une unite centrale et une commande a distance, et procede pour activer des fonctionnalites d'un vehicule automobile a l'aide d'un systeme de controle a distance |
EP2631739B1 (en) * | 2012-05-21 | 2016-02-03 | Huawei Technologies Co., Ltd. | Contactless gesture-based control method and apparatus |
EP2669109B1 (de) * | 2012-05-30 | 2015-03-04 | Technische Universität Darmstadt | Manöverassistenzsystem |
US9092394B2 (en) * | 2012-06-15 | 2015-07-28 | Honda Motor Co., Ltd. | Depth based context identification |
DE102012012697A1 (de) * | 2012-06-26 | 2014-01-02 | Leopold Kostal Gmbh & Co. Kg | Bediensystem für ein Kraftfahrzeug |
DE102012212787A1 (de) * | 2012-07-20 | 2014-01-23 | Robert Bosch Gmbh | Motorradlenkeranordnung mit Griffüberwachung |
KR101978967B1 (ko) * | 2012-08-01 | 2019-05-17 | 삼성전자주식회사 | 제스처의 방향에 기초하여 상기 제스처를 인식하는 제스처 인식 장치와 제스처 인식 방법 |
DE102012216193B4 (de) | 2012-09-12 | 2020-07-30 | Continental Automotive Gmbh | Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten |
US9423886B1 (en) * | 2012-10-02 | 2016-08-23 | Amazon Technologies, Inc. | Sensor connectivity approaches |
KR101979026B1 (ko) * | 2012-10-30 | 2019-05-15 | 르노삼성자동차 주식회사 | 제스처 인식 시스템 및 방법 그리고 상기 방법을 이용한 차량 제어 방법 |
US12032817B2 (en) * | 2012-11-27 | 2024-07-09 | Neonode Inc. | Vehicle user interface |
US9092093B2 (en) | 2012-11-27 | 2015-07-28 | Neonode Inc. | Steering wheel user interface |
EP2738645A1 (en) | 2012-11-30 | 2014-06-04 | Harman Becker Automotive Systems GmbH | Vehicle gesture recognition system and method |
JP6202810B2 (ja) * | 2012-12-04 | 2017-09-27 | アルパイン株式会社 | ジェスチャ認識装置および方法ならびにプログラム |
US20140181759A1 (en) * | 2012-12-20 | 2014-06-26 | Hyundai Motor Company | Control system and method using hand gesture for vehicle |
US20140181105A1 (en) * | 2012-12-22 | 2014-06-26 | Continental Automotive Systems, Inc. | Vehicle point and select |
US9176588B2 (en) * | 2013-01-14 | 2015-11-03 | Maxm Integrated Products, Inc. | System and method for discerning complex gestures using an array of optical sensors |
US20140320392A1 (en) | 2013-01-24 | 2014-10-30 | University Of Washington Through Its Center For Commercialization | Virtual Fixtures for Improved Performance in Human/Autonomous Manipulation Tasks |
EP2953878B1 (en) | 2013-02-07 | 2017-11-22 | KONE Corporation | Personalization of an elevator service |
DE102013002280A1 (de) | 2013-02-08 | 2014-08-14 | Audi Ag | Verfahren zum Betreiben einer Anzeigevorrichtung eines Kraftwagens sowie Kraftwagen mit einer solchen Anzeigevorrichtung |
US8744645B1 (en) | 2013-02-26 | 2014-06-03 | Honda Motor Co., Ltd. | System and method for incorporating gesture and voice recognition into a single system |
US9122916B2 (en) | 2013-03-14 | 2015-09-01 | Honda Motor Co., Ltd. | Three dimensional fingertip tracking |
US9704350B1 (en) | 2013-03-14 | 2017-07-11 | Harmonix Music Systems, Inc. | Musical combat game |
US8886399B2 (en) * | 2013-03-15 | 2014-11-11 | Honda Motor Co., Ltd. | System and method for controlling a vehicle user interface based on gesture angle |
US10721448B2 (en) | 2013-03-15 | 2020-07-21 | Edge 3 Technologies, Inc. | Method and apparatus for adaptive exposure bracketing, segmentation and scene organization |
US8818716B1 (en) | 2013-03-15 | 2014-08-26 | Honda Motor Co., Ltd. | System and method for gesture-based point of interest search |
FR3003842B1 (fr) * | 2013-03-26 | 2016-03-11 | Airbus Operations Sas | Dispositif de dialogue par gestuelles pour un poste de pilotage. |
US9069415B2 (en) * | 2013-04-22 | 2015-06-30 | Fuji Xerox Co., Ltd. | Systems and methods for finger pose estimation on touchscreen devices |
US20140358332A1 (en) * | 2013-06-03 | 2014-12-04 | Gulfstream Aerospace Corporation | Methods and systems for controlling an aircraft |
US9340155B2 (en) | 2013-09-17 | 2016-05-17 | Toyota Motor Sales, U.S.A., Inc. | Interactive vehicle window display system with user identification |
US20150081133A1 (en) * | 2013-09-17 | 2015-03-19 | Toyota Motor Sales, U.S.A., Inc. | Gesture-based system enabling children to control some vehicle functions in a vehicle |
US9387824B2 (en) | 2013-09-17 | 2016-07-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | Interactive vehicle window display system with user identification and image recording |
US9760698B2 (en) | 2013-09-17 | 2017-09-12 | Toyota Motor Sales, U.S.A., Inc. | Integrated wearable article for interactive vehicle control system |
US9400564B2 (en) | 2013-09-17 | 2016-07-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | Interactive vehicle window display system with a safe driving reminder system |
US9902266B2 (en) | 2013-09-17 | 2018-02-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Interactive vehicle window display system with personal convenience reminders |
US9807196B2 (en) | 2013-09-17 | 2017-10-31 | Toyota Motor Sales, U.S.A. | Automated social network interaction system for a vehicle |
US10216892B2 (en) | 2013-10-01 | 2019-02-26 | Honda Motor Co., Ltd. | System and method for interactive vehicle design utilizing performance simulation and prediction in execution of tasks |
KR101537936B1 (ko) * | 2013-11-08 | 2015-07-21 | 현대자동차주식회사 | 차량 및 그 제어방법 |
KR102206053B1 (ko) * | 2013-11-18 | 2021-01-21 | 삼성전자주식회사 | 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법 |
US9451434B2 (en) | 2013-11-27 | 2016-09-20 | At&T Intellectual Property I, L.P. | Direct interaction between a user and a communication network |
AT514926B1 (de) * | 2013-12-10 | 2015-05-15 | Joanneum Res Forschungsgmbh | Sitzmöbel mit berührungsloser Abtastung der Fingerbewegungen des darin sitzenden Operators zur Steuerung von elektrischen und elektronischen Geräten |
US9248840B2 (en) | 2013-12-20 | 2016-02-02 | Immersion Corporation | Gesture based input system in a vehicle with haptic feedback |
US20150185858A1 (en) * | 2013-12-26 | 2015-07-02 | Wes A. Nagara | System and method of plane field activation for a gesture-based control system |
US10585486B2 (en) | 2014-01-03 | 2020-03-10 | Harman International Industries, Incorporated | Gesture interactive wearable spatial audio system |
US10007329B1 (en) | 2014-02-11 | 2018-06-26 | Leap Motion, Inc. | Drift cancelation for portable object detection and tracking |
DE102014202490A1 (de) | 2014-02-12 | 2015-08-13 | Volkswagen Aktiengesellschaft | Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe |
WO2015134391A1 (en) | 2014-03-03 | 2015-09-11 | University Of Washington | Haptic virtual fixture tools |
US10466657B2 (en) | 2014-04-03 | 2019-11-05 | Honda Motor Co., Ltd. | Systems and methods for global adaptation of an implicit gesture control system |
US9342797B2 (en) | 2014-04-03 | 2016-05-17 | Honda Motor Co., Ltd. | Systems and methods for the detection of implicit gestures |
US10409382B2 (en) | 2014-04-03 | 2019-09-10 | Honda Motor Co., Ltd. | Smart tutorial for gesture control system |
US9754167B1 (en) | 2014-04-17 | 2017-09-05 | Leap Motion, Inc. | Safety for wearable virtual reality devices via object detection and tracking |
WO2015168218A2 (en) | 2014-04-29 | 2015-11-05 | Chia Ming Chen | Light control systems and methods |
US10025990B2 (en) | 2014-05-21 | 2018-07-17 | Universal City Studios Llc | System and method for tracking vehicles in parking structures and intersections |
US10061058B2 (en) | 2014-05-21 | 2018-08-28 | Universal City Studios Llc | Tracking system and method for use in surveying amusement park equipment |
US9600999B2 (en) * | 2014-05-21 | 2017-03-21 | Universal City Studios Llc | Amusement park element tracking system |
US9429398B2 (en) | 2014-05-21 | 2016-08-30 | Universal City Studios Llc | Optical tracking for controlling pyrotechnic show elements |
US10207193B2 (en) | 2014-05-21 | 2019-02-19 | Universal City Studios Llc | Optical tracking system for automation of amusement park elements |
US9433870B2 (en) | 2014-05-21 | 2016-09-06 | Universal City Studios Llc | Ride vehicle tracking and control system using passive tracking elements |
JP6494926B2 (ja) * | 2014-05-28 | 2019-04-03 | 京セラ株式会社 | 携帯端末、ジェスチャ制御プログラムおよびジェスチャ制御方法 |
US9868449B1 (en) | 2014-05-30 | 2018-01-16 | Leap Motion, Inc. | Recognizing in-air gestures of a control object to control a vehicular control system |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US9646201B1 (en) | 2014-06-05 | 2017-05-09 | Leap Motion, Inc. | Three dimensional (3D) modeling of a complex control object |
US10936050B2 (en) | 2014-06-16 | 2021-03-02 | Honda Motor Co., Ltd. | Systems and methods for user indication recognition |
US9710711B2 (en) * | 2014-06-26 | 2017-07-18 | Adidas Ag | Athletic activity heads up display systems and methods |
US10007350B1 (en) | 2014-06-26 | 2018-06-26 | Leap Motion, Inc. | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
DE202014103729U1 (de) | 2014-08-08 | 2014-09-09 | Leap Motion, Inc. | Augmented-Reality mit Bewegungserfassung |
JP3194297U (ja) | 2014-08-15 | 2014-11-13 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | 自動車用及び産業用のモーション感知制御装置 |
US10268321B2 (en) | 2014-08-15 | 2019-04-23 | Google Llc | Interactive textiles within hard objects |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
KR101628482B1 (ko) * | 2014-09-18 | 2016-06-21 | 현대자동차주식회사 | 무선신호 분석을 통한 동작 인식 시스템 및 그 방법 |
KR20160036242A (ko) * | 2014-09-25 | 2016-04-04 | 현대자동차주식회사 | 제스처 인식 장치, 그를 가지는 차량 및 그 제어 방법 |
FR3026502A1 (fr) * | 2014-09-30 | 2016-04-01 | Valeo Comfort & Driving Assistance | Systeme et procede de commande d'un equipement d'un vehicule automobile |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
KR101556521B1 (ko) * | 2014-10-06 | 2015-10-13 | 현대자동차주식회사 | 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법 |
DE202015105611U1 (de) * | 2014-10-22 | 2015-11-09 | Visteon Global Technologies, Inc. | Vorrichtung zur Gestensteuerung in einem Fahrzeug |
DE102014017179B4 (de) * | 2014-11-20 | 2022-10-06 | Audi Ag | Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste |
US10146317B2 (en) | 2014-12-12 | 2018-12-04 | Ford Global Technologies, Llc | Vehicle accessory operation based on motion tracking |
US10452195B2 (en) | 2014-12-30 | 2019-10-22 | Samsung Electronics Co., Ltd. | Electronic system with gesture calibration mechanism and method of operation thereof |
WO2016108502A1 (en) * | 2014-12-30 | 2016-07-07 | Samsung Electronics Co., Ltd. | Electronic system with gesture calibration mechanism and method of operation thereof |
US9547373B2 (en) | 2015-03-16 | 2017-01-17 | Thunder Power Hong Kong Ltd. | Vehicle operating system using motion capture |
US10703211B2 (en) | 2015-03-16 | 2020-07-07 | Thunder Power New Energy Vehicle Development Company Limited | Battery pack, battery charging station, and charging method |
US9586618B2 (en) | 2015-03-16 | 2017-03-07 | Thunder Power Hong Kong Ltd. | Vehicle control system for controlling steering of vehicle |
US9539988B2 (en) | 2015-03-16 | 2017-01-10 | Thunder Power Hong Kong Ltd. | Vehicle camera cleaning system |
US10173687B2 (en) | 2015-03-16 | 2019-01-08 | Wellen Sham | Method for recognizing vehicle driver and determining whether driver can start vehicle |
US9866163B2 (en) | 2015-03-16 | 2018-01-09 | Thunder Power New Energy Vehicle Development Company Limited | Method for controlling operating speed and torque of electric motor |
US9954260B2 (en) | 2015-03-16 | 2018-04-24 | Thunder Power New Energy Vehicle Development Company Limited | Battery system with heat exchange device |
US9550406B2 (en) | 2015-03-16 | 2017-01-24 | Thunder Power Hong Kong Ltd. | Thermal dissipation system of an electric vehicle |
TWI552892B (zh) * | 2015-04-14 | 2016-10-11 | 鴻海精密工業股份有限公司 | 車輛控制系統及其操作方法 |
US10109219B2 (en) * | 2015-04-16 | 2018-10-23 | Robert Bosch Gmbh | System and method for automated sign language recognition |
KR102327044B1 (ko) * | 2015-04-30 | 2021-11-15 | 구글 엘엘씨 | 타입-애그노스틱 rf 신호 표현들 |
KR102002112B1 (ko) | 2015-04-30 | 2019-07-19 | 구글 엘엘씨 | 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적 |
WO2016176574A1 (en) | 2015-04-30 | 2016-11-03 | Google Inc. | Wide-field radar-based gesture recognition |
US10088908B1 (en) * | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US9693592B2 (en) | 2015-05-27 | 2017-07-04 | Google Inc. | Attaching electronic components to interactive textiles |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US9809231B2 (en) * | 2015-10-28 | 2017-11-07 | Honda Motor Co., Ltd. | System and method for executing gesture based control of a vehicle system |
US10692126B2 (en) | 2015-11-17 | 2020-06-23 | Nio Usa, Inc. | Network-based system for selling and servicing cars |
US10599324B2 (en) * | 2015-12-31 | 2020-03-24 | Microsoft Technology Licensing, Llc | Hand gesture API using finite state machine and gesture language discrete values |
US10310618B2 (en) | 2015-12-31 | 2019-06-04 | Microsoft Technology Licensing, Llc | Gestures visual builder tool |
WO2017164835A1 (en) * | 2016-03-21 | 2017-09-28 | Ford Global Technologies, Llc | Virtual vehicle occupant rendering |
US11278369B2 (en) * | 2016-04-28 | 2022-03-22 | Sony Corporation | Control device, control method, and surgical system |
US10492302B2 (en) | 2016-05-03 | 2019-11-26 | Google Llc | Connecting an electronic component to an interactive textile |
US10175781B2 (en) | 2016-05-16 | 2019-01-08 | Google Llc | Interactive object with multiple electronics modules |
US10285456B2 (en) | 2016-05-16 | 2019-05-14 | Google Llc | Interactive fabric |
US20180012197A1 (en) | 2016-07-07 | 2018-01-11 | NextEv USA, Inc. | Battery exchange licensing program based on state of charge of battery pack |
US9928734B2 (en) | 2016-08-02 | 2018-03-27 | Nio Usa, Inc. | Vehicle-to-pedestrian communication systems |
US10031523B2 (en) | 2016-11-07 | 2018-07-24 | Nio Usa, Inc. | Method and system for behavioral sharing in autonomous vehicles |
US10694357B2 (en) | 2016-11-11 | 2020-06-23 | Nio Usa, Inc. | Using vehicle sensor data to monitor pedestrian health |
US10410064B2 (en) | 2016-11-11 | 2019-09-10 | Nio Usa, Inc. | System for tracking and identifying vehicles and pedestrians |
US10708547B2 (en) | 2016-11-11 | 2020-07-07 | Nio Usa, Inc. | Using vehicle sensor data to monitor environmental and geologic conditions |
US10515390B2 (en) | 2016-11-21 | 2019-12-24 | Nio Usa, Inc. | Method and system for data optimization |
US10579150B2 (en) | 2016-12-05 | 2020-03-03 | Google Llc | Concurrent detection of absolute distance and relative movement for sensing action gestures |
US10249104B2 (en) | 2016-12-06 | 2019-04-02 | Nio Usa, Inc. | Lease observation and event recording |
US10074223B2 (en) | 2017-01-13 | 2018-09-11 | Nio Usa, Inc. | Secured vehicle for user use only |
US10471829B2 (en) | 2017-01-16 | 2019-11-12 | Nio Usa, Inc. | Self-destruct zone and autonomous vehicle navigation |
US10031521B1 (en) | 2017-01-16 | 2018-07-24 | Nio Usa, Inc. | Method and system for using weather information in operation of autonomous vehicles |
US9984572B1 (en) | 2017-01-16 | 2018-05-29 | Nio Usa, Inc. | Method and system for sharing parking space availability among autonomous vehicles |
US10464530B2 (en) | 2017-01-17 | 2019-11-05 | Nio Usa, Inc. | Voice biometric pre-purchase enrollment for autonomous vehicles |
US10286915B2 (en) | 2017-01-17 | 2019-05-14 | Nio Usa, Inc. | Machine learning for personalized driving |
US10897469B2 (en) | 2017-02-02 | 2021-01-19 | Nio Usa, Inc. | System and method for firewalls between vehicle networks |
JP6820533B2 (ja) | 2017-02-16 | 2021-01-27 | パナソニックIpマネジメント株式会社 | 推定装置、学習装置、推定方法、及び推定プログラム |
FR3063557B1 (fr) * | 2017-03-03 | 2022-01-14 | Valeo Comfort & Driving Assistance | Dispositif de determination de l'etat d'attention d'un conducteur de vehicule, systeme embarque comportant un tel dispositif, et procede associe |
US20180267615A1 (en) * | 2017-03-20 | 2018-09-20 | Daqri, Llc | Gesture-based graphical keyboard for computing devices |
EP3409553B1 (en) * | 2017-06-01 | 2021-08-04 | Honda Research Institute Europe GmbH | System and method for automated execution of a maneuver or behavior of a system |
US10234302B2 (en) | 2017-06-27 | 2019-03-19 | Nio Usa, Inc. | Adaptive route and motion planning based on learned external and internal vehicle environment |
US10369974B2 (en) | 2017-07-14 | 2019-08-06 | Nio Usa, Inc. | Control and coordination of driverless fuel replenishment for autonomous vehicles |
US10710633B2 (en) | 2017-07-14 | 2020-07-14 | Nio Usa, Inc. | Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles |
US10837790B2 (en) | 2017-08-01 | 2020-11-17 | Nio Usa, Inc. | Productive and accident-free driving modes for a vehicle |
US20190073040A1 (en) * | 2017-09-05 | 2019-03-07 | Future Mobility Corporation Limited | Gesture and motion based control of user interfaces |
US10635109B2 (en) | 2017-10-17 | 2020-04-28 | Nio Usa, Inc. | Vehicle path-planner monitor and controller |
US10935978B2 (en) | 2017-10-30 | 2021-03-02 | Nio Usa, Inc. | Vehicle self-localization using particle filters and visual odometry |
US10606274B2 (en) | 2017-10-30 | 2020-03-31 | Nio Usa, Inc. | Visual place recognition based self-localization for autonomous vehicles |
US10717412B2 (en) | 2017-11-13 | 2020-07-21 | Nio Usa, Inc. | System and method for controlling a vehicle using secondary access methods |
KR102041965B1 (ko) * | 2017-12-26 | 2019-11-27 | 엘지전자 주식회사 | 차량에 구비된 디스플레이 장치 |
EP3735652A1 (en) * | 2018-01-03 | 2020-11-11 | Sony Semiconductor Solutions Corporation | Gesture recognition using a mobile device |
DE102018201897A1 (de) | 2018-02-07 | 2019-08-08 | Ford Global Technologies, Llc | Verfahren zum Betrieb eines selbstfahrenden Kraftfahrzeugs |
US10369966B1 (en) | 2018-05-23 | 2019-08-06 | Nio Usa, Inc. | Controlling access to a vehicle using wireless access devices |
DE102018214784A1 (de) * | 2018-08-30 | 2020-03-05 | Audi Ag | Verfahren zum Darstellen mindestens eines Zusatzanzeigeinhalts |
JP7091983B2 (ja) * | 2018-10-01 | 2022-06-28 | トヨタ自動車株式会社 | 機器制御装置 |
KR102393774B1 (ko) * | 2018-10-08 | 2022-05-03 | 에스케이텔레콤 주식회사 | 음성 인식 장치 및 그 제어방법 |
US11287874B2 (en) | 2018-11-17 | 2022-03-29 | Novarad Corporation | Using optical codes with augmented reality displays |
EP3887192B1 (en) | 2018-11-28 | 2023-06-07 | Neonode Inc. | Motorist user interface sensor |
CN110276292B (zh) * | 2019-06-19 | 2021-09-10 | 上海商汤智能科技有限公司 | 智能车运动控制方法及装置、设备和存储介质 |
US11907432B2 (en) | 2019-09-06 | 2024-02-20 | Bae Systems Plc | User-vehicle interface including gesture control support |
EP3809237A1 (en) * | 2019-10-17 | 2021-04-21 | BAE SYSTEMS plc | User-vehicle interface |
US11237627B2 (en) | 2020-01-16 | 2022-02-01 | Novarad Corporation | Alignment of medical images in augmented reality displays |
US11567492B2 (en) | 2020-01-17 | 2023-01-31 | Zimeno, Inc. | Vehicle control by a remote operator |
US20230054973A1 (en) * | 2020-02-06 | 2023-02-23 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing program |
US12038297B2 (en) | 2020-03-26 | 2024-07-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Remote control of vehicle via smartphone and gesture input |
CN111645701B (zh) * | 2020-04-30 | 2022-12-06 | 长城汽车股份有限公司 | 一种车辆控制方法、装置及系统 |
US20220073316A1 (en) | 2020-07-15 | 2022-03-10 | Leandre Adifon | Systems and methods for operation of elevators and other devices |
US11305964B2 (en) | 2020-07-15 | 2022-04-19 | Leandre Adifon | Systems and methods for operation of elevators and other devices |
EP3985484A1 (en) * | 2020-10-19 | 2022-04-20 | ameria AG | Calibration method, calibration device and control method for touchless gesture control |
US12016633B2 (en) * | 2020-12-30 | 2024-06-25 | Novarad Corporation | Alignment of medical images in augmented reality displays |
US11960644B2 (en) | 2021-08-05 | 2024-04-16 | Rockwell Collins, Inc. | System and method for gaze and pose detection to anticipate operator intent |
US12051274B2 (en) | 2021-08-05 | 2024-07-30 | Rockwell Collins, Inc. | System and method for assessing operator situational awareness via context-aware gaze detection |
US11948265B2 (en) | 2021-11-27 | 2024-04-02 | Novarad Corporation | Image data set alignment for an AR headset using anatomic structures and data fitting |
EP4449841A1 (en) | 2021-12-21 | 2024-10-23 | Kubota Corporation | Agricultural machine and gesture recognition system for agricultural machine |
Family Cites Families (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7164117B2 (en) * | 1992-05-05 | 2007-01-16 | Automotive Technologies International, Inc. | Vehicular restraint system control system and method using multiple optical imagers |
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
EP0450196B1 (en) * | 1990-04-02 | 1998-09-09 | Koninklijke Philips Electronics N.V. | Data processing system using gesture-based input data |
US5139747A (en) * | 1991-01-14 | 1992-08-18 | Semi-Gas Systems, Inc. | Gas filter-purifier |
JP3244798B2 (ja) * | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
US5982352A (en) * | 1992-09-18 | 1999-11-09 | Pryor; Timothy R. | Method for providing human input to a computer |
US5454043A (en) * | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
JPH07282235A (ja) * | 1994-04-15 | 1995-10-27 | Matsushita Electric Ind Co Ltd | 動作認識装置 |
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
DE69634913T2 (de) * | 1995-04-28 | 2006-01-05 | Matsushita Electric Industrial Co., Ltd., Kadoma | Schnittstellenvorrichtung |
US6002808A (en) * | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
EP0849697B1 (en) * | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
JP3749369B2 (ja) * | 1997-03-21 | 2006-02-22 | 株式会社竹中工務店 | ハンドポインティング装置 |
US6075895A (en) * | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6807583B2 (en) * | 1997-09-24 | 2004-10-19 | Carleton University | Method of determining causal connections between events recorded during process execution |
EP0905644A3 (en) * | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6072494A (en) * | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6043805A (en) * | 1998-03-24 | 2000-03-28 | Hsieh; Kuan-Hong | Controlling method for inputting messages to a computer |
JP4565200B2 (ja) * | 1998-09-28 | 2010-10-20 | パナソニック株式会社 | 手動作分節方法および装置 |
US6501515B1 (en) * | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
JP4332649B2 (ja) * | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 |
US7050606B2 (en) * | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
DE10007891C2 (de) * | 2000-02-21 | 2002-11-21 | Siemens Ag | Verfahren und Anordnung zur Interaktion mit einer in einem Schaufenster sichtbaren Darstellung |
US20080122799A1 (en) * | 2001-02-22 | 2008-05-29 | Pryor Timothy R | Human interfaces for vehicles, homes, and other applications |
SE0000850D0 (sv) * | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
US6554166B2 (en) * | 2000-03-14 | 2003-04-29 | Hitachi Metals, Ltd. | Apparatus for producing fine metal balls |
US7109970B1 (en) * | 2000-07-01 | 2006-09-19 | Miller Stephen S | Apparatus for remotely controlling computers and other electronic appliances/devices using a combination of voice commands and finger movements |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7058204B2 (en) * | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
US6703999B1 (en) * | 2000-11-13 | 2004-03-09 | Toyota Jidosha Kabushiki Kaisha | System for computer user interface |
US6804396B2 (en) * | 2001-03-28 | 2004-10-12 | Honda Giken Kogyo Kabushiki Kaisha | Gesture recognition system |
US8300042B2 (en) * | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
US7259747B2 (en) * | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US20040125076A1 (en) * | 2001-06-08 | 2004-07-01 | David Green | Method and apparatus for human interface with a computer |
US20020186200A1 (en) * | 2001-06-08 | 2002-12-12 | David Green | Method and apparatus for human interface with a computer |
US7151246B2 (en) * | 2001-07-06 | 2006-12-19 | Palantyr Research, Llc | Imaging system and methodology |
JP2003131785A (ja) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | インタフェース装置および操作制御方法およびプログラム製品 |
JP2003141547A (ja) * | 2001-10-31 | 2003-05-16 | Matsushita Electric Ind Co Ltd | 手話翻訳装置および手話翻訳方法 |
WO2003071410A2 (en) * | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7170492B2 (en) * | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7348963B2 (en) * | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US20080065291A1 (en) * | 2002-11-04 | 2008-03-13 | Automotive Technologies International, Inc. | Gesture-Based Control of Vehicular Components |
US7576727B2 (en) * | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
US7991920B2 (en) * | 2002-12-18 | 2011-08-02 | Xerox Corporation | System and method for controlling information output devices |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7372977B2 (en) * | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
JP3752246B2 (ja) * | 2003-08-11 | 2006-03-08 | 学校法人慶應義塾 | ハンドパターンスイッチ装置 |
JP4565445B2 (ja) * | 2004-03-18 | 2010-10-20 | 国立大学法人 奈良先端科学技術大学院大学 | 顔情報計測システム |
CN100573548C (zh) * | 2004-04-15 | 2009-12-23 | 格斯图尔泰克股份有限公司 | 跟踪双手运动的方法和设备 |
US7555613B2 (en) * | 2004-05-11 | 2009-06-30 | Broadcom Corporation | Storage access prioritization using a data storage device |
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
EP1849123A2 (en) * | 2005-01-07 | 2007-10-31 | GestureTek, Inc. | Optical flow based tilt sensor |
JP2008537190A (ja) * | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | 赤外線パターンを照射することによる対象物の三次元像の生成 |
EP3693889A3 (en) * | 2005-01-07 | 2020-10-28 | QUALCOMM Incorporated | Detecting and tracking objects in images |
US7966353B2 (en) * | 2005-01-31 | 2011-06-21 | Broadcom Corporation | Method and system for flexibly providing shared access to non-data pool file systems |
JP5631535B2 (ja) * | 2005-02-08 | 2014-11-26 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
KR101430761B1 (ko) * | 2005-05-17 | 2014-08-19 | 퀄컴 인코포레이티드 | 방위-감응 신호 출력 |
US7428542B1 (en) * | 2005-05-31 | 2008-09-23 | Reactrix Systems, Inc. | Method and system for combining nodes into a mega-node |
CN101636745A (zh) * | 2006-12-29 | 2010-01-27 | 格斯图尔泰克股份有限公司 | 使用增强型交互系统操纵虚拟对象 |
JP5015270B2 (ja) * | 2007-02-15 | 2012-08-29 | クアルコム,インコーポレイテッド | 点滅する電磁放射線を用いた入力 |
US20080208517A1 (en) * | 2007-02-23 | 2008-08-28 | Gesturetek, Inc. | Enhanced Single-Sensor Position Detection |
WO2008134745A1 (en) * | 2007-04-30 | 2008-11-06 | Gesturetek, Inc. | Mobile video-based therapy |
EP2153377A4 (en) * | 2007-05-04 | 2017-05-31 | Qualcomm Incorporated | Camera-based user input for compact devices |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US8565535B2 (en) * | 2007-08-20 | 2013-10-22 | Qualcomm Incorporated | Rejecting out-of-vocabulary words |
US9261979B2 (en) * | 2007-08-20 | 2016-02-16 | Qualcomm Incorporated | Gesture-based mobile interaction |
JP5559691B2 (ja) * | 2007-09-24 | 2014-07-23 | クアルコム,インコーポレイテッド | 音声及びビデオ通信のための機能向上したインタフェース |
-
2009
- 2009-06-18 CN CN200980130788.5A patent/CN102112945B/zh not_active Expired - Fee Related
- 2009-06-18 WO PCT/US2009/047863 patent/WO2009155465A1/en active Application Filing
- 2009-06-18 KR KR1020117001280A patent/KR101652535B1/ko active IP Right Grant
- 2009-06-18 JP JP2011514820A patent/JP2011525283A/ja active Pending
- 2009-06-18 US US12/487,623 patent/US20090278915A1/en not_active Abandoned
- 2009-06-18 EP EP09767774A patent/EP2304527A4/en not_active Withdrawn
-
2014
- 2014-06-25 JP JP2014130114A patent/JP6116064B2/ja active Active
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103842941B (zh) * | 2011-09-09 | 2016-12-07 | 泰利斯航空电子学公司 | 响应于所感测出的乘客比划动作而执行交通工具娱乐系统的控制 |
CN103842941A (zh) * | 2011-09-09 | 2014-06-04 | 泰利斯航空电子学公司 | 响应于所感测出的乘客比划动作而执行交通工具娱乐系统的控制 |
CN103998316A (zh) * | 2011-12-29 | 2014-08-20 | 英特尔公司 | 用于控制手势发起和终止的系统、方法和设备 |
CN104040464A (zh) * | 2012-01-10 | 2014-09-10 | 戴姆勒股份公司 | 使用在三维空间中执行的手势以及相关的计算机程序产品控制车辆功能的方法和设备 |
CN104411530B (zh) * | 2012-04-02 | 2018-12-25 | 伟摩有限责任公司 | 基于姿势的汽车控制 |
CN104411530A (zh) * | 2012-04-02 | 2015-03-11 | 谷歌公司 | 基于姿势的汽车控制 |
CN103425244A (zh) * | 2012-05-16 | 2013-12-04 | 意法半导体有限公司 | 手势识别 |
CN103631157A (zh) * | 2012-08-29 | 2014-03-12 | 杨尧任 | 利用手势识别技术控制汽车电器的装置及其应用方法 |
CN104737624B (zh) * | 2012-10-17 | 2017-03-08 | 皇家飞利浦有限公司 | 用于将照明应用于对象的方法和设备 |
CN104854553A (zh) * | 2012-11-27 | 2015-08-19 | 内奥诺德公司 | 在方向盘和仪表板上的光基触摸控制件 |
CN104854553B (zh) * | 2012-11-27 | 2017-03-22 | 内奥诺德公司 | 在方向盘和仪表板上的光基触摸控制件 |
CN103869975B (zh) * | 2012-12-18 | 2018-09-21 | 现代自动车株式会社 | 车辆中利用手腕角度操作用户界面的系统和方法 |
CN103869975A (zh) * | 2012-12-18 | 2014-06-18 | 现代自动车株式会社 | 车辆中利用手腕角度操作用户界面的系统和方法 |
CN104885128A (zh) * | 2012-12-21 | 2015-09-02 | 因温特奥股份公司 | 基于数据载体定向的命令输入 |
CN105579319A (zh) * | 2013-03-12 | 2016-05-11 | 罗伯特·博世有限公司 | 用于识别车载信息系统中的手写手势的系统和方法 |
CN105579319B (zh) * | 2013-03-12 | 2018-02-16 | 罗伯特·博世有限公司 | 用于识别车载信息系统中的手写手势的系统和方法 |
CN104049872A (zh) * | 2013-03-13 | 2014-09-17 | 本田技研工业株式会社 | 利用指向的信息查询 |
CN106062668B (zh) * | 2014-01-22 | 2019-11-15 | Lg伊诺特有限公司 | 手势设备、用于手势设备的操作方法以及包括手势设备的车辆 |
US10108334B2 (en) | 2014-01-22 | 2018-10-23 | Lg Innotek Co., Ltd. | Gesture device, operation method for same, and vehicle comprising same |
CN106062668A (zh) * | 2014-01-22 | 2016-10-26 | Lg伊诺特有限公司 | 手势设备、用于手势设备的操作方法以及包括手势设备的车辆 |
CN104914752B (zh) * | 2014-02-04 | 2018-11-13 | 通用汽车环球科技运作有限责任公司 | 将用户输入准确地变换为具体系统功能的装置和方法 |
CN104914752A (zh) * | 2014-02-04 | 2015-09-16 | 通用汽车环球科技运作有限责任公司 | 将用户输入准确地变换为具体系统功能的装置和方法 |
CN106488790A (zh) * | 2014-05-21 | 2017-03-08 | 环球城市电影有限责任公司 | 使用无源跟踪元件的游乐园环境中增强的交互性 |
CN106488790B (zh) * | 2014-05-21 | 2020-02-14 | 环球城市电影有限责任公司 | 使用无源跟踪元件的游乐园环境中增强的交互性 |
CN106462252B (zh) * | 2014-06-30 | 2019-05-21 | 歌乐株式会社 | 非接触操作检测装置 |
CN106462252A (zh) * | 2014-06-30 | 2017-02-22 | 歌乐株式会社 | 非接触操作检测装置 |
CN108475111A (zh) * | 2015-12-31 | 2018-08-31 | 微软技术许可有限责任公司 | 变换轻量骨骼并且使用逆运动学产生有关节的骨骼 |
WO2017124481A1 (zh) * | 2016-01-23 | 2017-07-27 | 刘建兵 | 根据手势调节座椅的方法以及手势系统 |
CN110036370A (zh) * | 2016-12-19 | 2019-07-19 | 日立汽车系统株式会社 | 电子控制装置、电子控制系统和电子控制方法 |
CN110036370B (zh) * | 2016-12-19 | 2022-04-12 | 日立安斯泰莫株式会社 | 电子控制装置、电子控制系统和电子控制方法 |
US11318929B2 (en) | 2016-12-19 | 2022-05-03 | Hitachi Astemo, Ltd. | Electronic control apparatus, electronic control system, and electronic control method |
CN109785655A (zh) * | 2018-12-11 | 2019-05-21 | 北京百度网讯科技有限公司 | 车辆控制方法、装置、设备、无人驾驶车辆及存储介质 |
CN109785655B (zh) * | 2018-12-11 | 2020-09-29 | 北京百度网讯科技有限公司 | 车辆控制方法、装置、设备、无人驾驶车辆及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR101652535B1 (ko) | 2016-08-30 |
JP2014221636A (ja) | 2014-11-27 |
EP2304527A4 (en) | 2013-03-27 |
EP2304527A1 (en) | 2011-04-06 |
US20090278915A1 (en) | 2009-11-12 |
JP6116064B2 (ja) | 2017-04-19 |
JP2011525283A (ja) | 2011-09-15 |
WO2009155465A1 (en) | 2009-12-23 |
KR20110022057A (ko) | 2011-03-04 |
CN102112945B (zh) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102112945A (zh) | 用于交通工具接口的基于姿态的控制系统 | |
KR100960577B1 (ko) | 제스처 기반의 제어 시스템을 위한 시스템 및 방법 | |
US10261595B1 (en) | High resolution tracking and response to hand gestures through three dimensions | |
US6417836B1 (en) | Computer input device having six degrees of freedom for controlling movement of a three-dimensional object | |
US7774075B2 (en) | Audio-visual three-dimensional input/output | |
CN107992188B (zh) | 虚拟现实交互方法、装置与系统 | |
CN107728792A (zh) | 一种基于手势识别的增强现实三维绘图系统及绘图方法 | |
CN103930944A (zh) | 用于空间输入装置的自适应跟踪系统 | |
CN104838337A (zh) | 用于用户界面的无触摸输入 | |
CN104049872B (zh) | 利用指向的信息查询 | |
JP5788853B2 (ja) | ジェスチャベースの制御システムのためのシステムおよび方法 | |
Iannizzotto et al. | A multimodal perceptual user interface for video-surveillance environments | |
JP4538610B2 (ja) | 情報入出力システム | |
RE | Low cost augmented reality for industrial problems | |
Xiao | Gesture-based user interactions for product design review | |
Mahdikhanlou et al. | 3D object deforming and manipulating through dynamic hand gestures | |
Bae et al. | Practical Hand Skeleton Estimation Method Based on Monocular Camera | |
Nagaruru et al. | Implementation of Cognitive and Virtual Mouse Pointer Control | |
Kasinathan et al. | A Gesture-based Recognition System for Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160810 Termination date: 20200618 |