CN205015835U - 头戴式智能交互系统 - Google Patents
头戴式智能交互系统 Download PDFInfo
- Publication number
- CN205015835U CN205015835U CN201520575656.6U CN201520575656U CN205015835U CN 205015835 U CN205015835 U CN 205015835U CN 201520575656 U CN201520575656 U CN 201520575656U CN 205015835 U CN205015835 U CN 205015835U
- Authority
- CN
- China
- Prior art keywords
- head
- display
- interactive system
- intelligent interactive
- optical module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000003993 interaction Effects 0.000 title abstract description 10
- 230000003287 optical effect Effects 0.000 claims abstract description 82
- 230000033001 locomotion Effects 0.000 claims abstract description 60
- 230000009471 action Effects 0.000 claims abstract description 17
- 210000003128 head Anatomy 0.000 claims abstract description 8
- 230000002452 interceptive effect Effects 0.000 claims description 61
- 230000000007 visual effect Effects 0.000 claims description 12
- 230000004438 eyesight Effects 0.000 claims description 9
- 239000011521 glass Substances 0.000 claims description 5
- 210000001747 pupil Anatomy 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 239000004033 plastic Substances 0.000 claims description 3
- 239000010453 quartz Substances 0.000 claims description 3
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N silicon dioxide Inorganic materials O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 claims description 3
- 239000012780 transparent material Substances 0.000 claims description 3
- 230000008859 change Effects 0.000 abstract description 7
- 230000001105 regulatory effect Effects 0.000 abstract 1
- 210000003414 extremity Anatomy 0.000 description 44
- 238000010586 diagram Methods 0.000 description 17
- 238000004590 computer program Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000000034 method Methods 0.000 description 5
- 230000001179 pupillary effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 210000003205 muscle Anatomy 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003371 toe Anatomy 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Abstract
一种头戴式智能交互系统,包括:头戴单元,佩戴于用户头部;头盔主结构单元,固定在所述头戴单元上,所述头盔主结构单元上设有摄像单元,由光学模块及显示器构成的显示单元,深度图像摄像头单元以及与所述显示器相连接的主控电路;所述显示单元中的光学模块和/或显示器被手动或自动调节用于适应不同用户眼睛的不同瞳距及不同的屈光度,以及不同场景下的不同视距需求,用户通过所述显示单元能看到肢体的真实动作轮廓及数字动作轮廓;所述深度图像摄像头单元用于识别肢体实时的三维空间运动及形态及用户所处的周围环境本实用新型可以摆脱辅助设备的束缚,仅通过肢体姿态的变化、位置及轨迹进行交互控制,可给用户带来更新颖的交互选择和体验。
Description
技术领域
本实用新型涉及头戴式设备的智能交互技术,特别涉及一种头戴式智能交互系统。
背景技术
全息头盔是由法国研制开发的一种360°全息视觉装置,具有广阔的应用前景。就目前的技术而言,全息头盔的交互方式比较单调,一般仅能用鼠标、触摸板、键盘等进行交互控制,无法通过手或肢体的姿态、姿态的变化、位置、轨迹、以及在空中运动来进行交互控制。如果能摆脱鼠标、触摸板、键盘等辅助设备的束缚,实现通过手或肢体的姿态、姿态的变化、位置、轨迹、以及在空中运动进行交互控制,将给用户带来更多的交互选择和更新颖的交互体验。另外,在用手机与全息头盔进行交互操作时,现有的技术要求手机等外接设备必须处于启用的状态,并且需要在屏幕上显示的固定区域进行操作,所以当用户佩戴全息眼镜时,并不能清楚观察到手机屏幕。
实用新型内容
本实用新型实施例提供一种头戴式智能交互系统,以摆脱辅助设备的束缚,仅通过肢体姿态的变化、位置及轨迹进行交互控制,给用户带来更新颖的交互选择和体验。
为实现上述目的,本实用新型实施例提供一种头戴式智能交互系统,所述头戴式智能交互系统包括:
头戴单元,佩戴于用户头部;
头盔主结构单元,固定在所述头戴单元上,所述头盔主结构单元上设有摄像单元,由光学模块及显示器构成的显示单元,深度图像摄像头单元以及与所述显示器相连接的主控电路;其中,
所述显示单元中的光学模块和/或显示器被手动或自动调节用于适应不同用户眼睛的不同瞳距及不同的屈光度,以及不同场景下的不同视距需求,用户通过所述显示单元看到肢体的真实动作轮廓及数字动作轮廓;
所述深度图像摄像头单元用于识别肢体实时的三维空间运动及形态及用户所处的周围环境。
一实施例中,用户通过所述显示单元看到一预设的3D操作区域,并通过肢体触碰所述3D操作区域的对应位置以触发一或多个指令。
一实施例中,所述光学模块为由一片或者多片镜片组成的透镜组,多片镜片相互之间的距离可调,并且所述透镜组和显示器之间的距离可调。
一实施例中,所述光学模块由一片或者多片菲涅尔透镜组成的菲涅尔透镜组,多片菲涅尔透镜之间的距离可调,并且所述菲涅尔透镜组和显示器之间的距离可调。
一实施例中,所述光学模块为镜片及菲涅尔透镜的组合透镜,所述组合透镜中镜片与菲涅尔透镜之间的距离可调,并且所述组合透镜和显示器之间的距离可调。
一实施例中,所述光学模块为包括玻璃、塑胶或石英的透明材质。
一实施例中,所述深度图像摄像头单元包括光飞行时间模块、结构光模块及立体视觉模块三者中的一个或多个,其中,
所述光飞行时间模块、结构光模块及立体视觉模块用于采集肢体形态及肢体间的动作配合。
一实施例中,所述摄像单元包括:第一摄像单元,用于拍摄视频和/或照片,或检测用户肢体在预设3D操作区域的动作。
一实施例中,所述头戴式智能交互系统还包括:手环,与所述主控电路无线连接,内设九轴传感器,用于采集手部整体运动信号及每根手指的运动信号并根据所述手部整体运动信号及每根手指的运动信号进行手部运动轨迹的识别。
一实施例中,所述头戴式智能交互系统还包括:指环,与所述主控电路无线连接,内设九轴传感器,用于采集手部整体运动信号及每根手指的运动信号并根据所述手部整体运动信号及每根手指的运动信号进行手部运动轨迹的识别。
一实施例中,所述预设3D操作区域为与应用场景对应的各种空间结构。
一实施例中,所述预设3D操作区域中心位置可调。
一实施例中,所述头戴式智能交互系统还包括:接近和/或运动传感器,设置在所述深度图像摄像头单元周围,用于感测肢体的运动或用于启动所述深度图像摄像头单元。
一实施例中,所述头戴式智能交互系统还包括:移动终端,所述移动终端的屏幕作为触摸游戏板,无线连接所述主控电路。
一实施例中,所述移动终端的实体键作为所述头戴式智能交互系统的操作键。
一实施例中,所述显示器为一块显示屏或为左右两块显示屏。
一实施例中,所述头戴式智能交互系统还包括:游戏手柄,作为所述头戴式智能交互系统的游戏控制设备,无线连接所述主控电路。
一实施例中,所述头戴式智能交互系统还包括:位置传感器,用于检测所述显示器到光学模块之间的距离,以通过实时调整所述显示器到光学模块之间的距离调整所述视距。
本实用新型实施例的有益效果在于,利用本实用新型实施例的头戴式智能交互系统,可以摆脱辅助设备的束缚,仅通过肢体姿态的变化、位置及轨迹进行交互控制,给用户带来更新颖的交互选择和体验。对于手机等移动终端作为外接设备的交互,本实用新型不需要开启手机就可以将手机屏幕当做触摸屏进行盲操作。
附图说明
为了更清楚地说明本实用新型实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本实用新型的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本实用新型实施例的头戴式智能交互系统的结构示意图;
图2为本实用新型实施例的头戴式智能交互系统的虚拟键盘的结构示意图;
图3为本实用新型一实施例的头戴式智能交互系统的虚拟空间控制区域301的结构示意图;
图4为本实用新型另一实施例的头戴式智能交互系统的虚拟空间控制区域301的结构示意图;
图5为本实用新型实施例中当用户的肢体操作3D操作区域301时显示单元在用户眼中所成的像将发生变化示意图;
图6为本实用新型实施例中拍摄肢体动作的第一摄像单元的位置及拍摄范围示意图;
图7为本实用新型实施例中人眼通过光学模块观看显示单元所显示内容的示意图;
图8为本实用新型实施例中头戴式智能交互系统的实施方式一的应用示意图;
图9为本实用新型实施例中头戴式智能交互系统的实施方式二的应用示意图;
图10及图11为本实用新型实施例的头戴式智能交互系统的移动终端操作屏示意图。
具体实施方式
下面将结合本实用新型实施例中的附图,对本实用新型实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本实用新型一部分实施例,而不是全部的实施例。基于本实用新型中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本实用新型保护的范围。
本实用新型实施例提供一种头戴式智能交互系统,如图1所示,该头戴式智能交互系统包括:头戴单元100及头盔主结构单元200。
头戴单元100可以佩戴于用户头部,头戴单元100的形状可以设计为圆环形或者半球形等任意适合佩戴的形状。
头盔主结构单元200与头戴单元100固定连接,头盔主结构单元200上设有摄像单元(图1中未示出),由光学模块201及显示器202构成的显示单元,深度图像摄像头单元以及与显示器202相连接的主控电路206,其中光学模块201的个数为两个,分别与用户的两只眼睛相对。
图1所示的头戴式智能交互系统中,显示单元的显示器202为一整块显示屏,设置于光学模块201的正前方。
另一实施例中,如图2所示,显示单元的显示器202可以为两块,分别与其中的一个光学模块201相对。
显示单元中的光学模块201和/或显示器202可以被手动或自动调节用于适应不同用户眼睛的不同瞳距及不同的屈光度,以及不同场景下的不同视距需求,用户通过光学模块201可以看到肢体的轮廓。其中,视距为显示单元所显示的虚像到眼睛的距离。
本实用新型实施例的头戴式智能交互系统还包括:位置传感器,设置在显示器与光学模块之间,能够实时检测显示器与光学模块之间的距离D。本实用新型实施例的头戴式智能交互系统中的视距与距离D存在一定的映射关系,每一距离D对应一个不同的视距,主控电路或与其连接的服务器中可以存储视距与距离D的映射关系表。根据该映射关系表,可以通过调整距离D调整视距。
举例说明,假设当前用户距离虚拟画面场景中某棵树的距离为5m(视距),显示器与光学模块之间的距离为50mm,用户想让其下一时刻距离该树的4m,需要通过主控电路查找映射关系表,得出视距为4m时显示器与光学模块之间的距离为40mm,然后驱动电机将显示器与光学模块之间的距离调整为40mm,实现视距的调节。
深度图像摄像头单元用于识别肢体实时的三维空间运动及形态及用户所处的周围环境。
其中,三维空间运动可以包括:位置、轨迹等信息。三维空间形态可以包括:肢体的各种形态,例如手指的弯曲,脚趾的弯曲,脚趾的分开及靠拢,抬腿等形态,本实用新型不以上述例举为限。
深度图像摄像头单元的位置可以设置在显示器202的前方、斜上方或斜下方或正上方,本实用新型不以此为限。如图1所示,深度图像摄像头单元包括光飞行时间模块203、结构光模块204及立体视觉模块205三者中的一个或多个,即光飞行时间模块203、结构光单元204及立体视觉单元205三者中任一者可以单独工作,也可以与另外的两者或者一者相互配合工作。其中,光飞行时间模块203、结构光模块204及立体视觉模块205用于采集肢体形态及肢体间的动作配合。光飞行时间模块203、结构光模块204及立体视觉模块205均可以识别肢体实时的三维空间运动及形态及用户所处的周围环境。肢体实时的三维空间运动及形态包括头戴式智能交互系统的用户的肢体(可以包括四肢、头部甚至腹部胸部)的三维空间运动及形态。用户所处的周围环境可以包括用户所处的三维空间状况,包括周围的运动的人和/或物,也可以包括静止的物,如果桌椅板凳、树、建筑物等。
如图2所示,用户可以通过虚拟键盘206输入信息。
本实用新型实施例中的头戴式智能交互系统预设3D操作区域(虚拟空间控制区域)30为与应用场景对应的各种空间结构,例如为圆柱体、四面体、六面体等。
虚拟空间控制区域301可以具有一定的宽度W、高度H和厚度T,如图3及图4所示。用户通过光学模块201看到肢体的轮廓,肢体的轮廓包括用户肢体的真实动作轮廓及数字动作轮廓。具体实施时,摄像单元及深度图像摄像头单元先拍摄肢体的真实动作轮廓及数字动作轮廓,然后播放,用户通过光学模块201就可以看到肢体的轮廓,肢体的轮廓包括用户肢体的真实动作轮廓及数字动作轮廓。
在某些具体的应用场景中,用户通过显示单元可以看到一预设的3D操作区域,通过肢体该触碰3D操作区域的对应位置,可以触发一或多个指令。例如,手指触碰3D操作区域的某个按钮,可以发射手雷。
图3及图4中的标号302为用户眼中所成的像,即用户通过显示单元看到的肢体的真实动作轮廓及数字动作轮廓。另外,通过光学模块201,用户还可以在302所在的区域看到虚拟键盘303,投影的虚拟键盘303的位置可以是可调的,虚拟键盘206的投影角度与竖直方向的夹角可以是任意角度。
当用户的肢体操作3D操作区域301时,用户通过光学模块201可以在302所在区域看到肢体的轮廓。如图5所示,当用户用手指触碰到3D操作区域301中的操作区域501时,将会在302所在的区域看到,用户手指的轮廓,该轮廓对应区域502。
上述空间形状为虚拟空间控制区域301具有一定的空间体量的情况。虚拟空间控制区域301也可以没有具体的空间区域,只要人四肢能伸展的距离都可以进行肢体采集。肢体的动作可以是多点触碰也可以是单点触碰,当肢体发出指令动作时,头戴式智能交互系统会进行实时采集,并触发相应的操作。
另外,虚拟空间控制区域301的中心位置可调,即虚拟空间控制区域301与用户头部的相对位置(空间角度、空间距离)是可以根据需要进行改变的。
头盔主结构单元200上设有摄像单元的数量可以有多个,如图6所示,可以包括:第一摄像单元303,该第一摄像单元303设于头盔主结构单元200的下方,可以用于拍摄肢体的视频和/或照片。也可以检测到用户手、手指或肢体的运动、状态和位置,当检测到手、手指或肢体的动作,从而会通知头戴式智能交互系统,以根据其运动、状态和位置进行相应的操作。
第一摄像单元303拍摄的视频的部分或全部可叠加在显示器的虚拟画面之上。第一摄像单元303拍摄的视频既包括周围的环境(树木、桌椅等),也包括肢体的真实动作轮廓。虚拟画面为具体场景的画面,如电影、游戏中的的画面场景。第一摄像单元303拍摄的视频中,可以只将周围的环境叠加在显示器的虚拟画面之上,也可以仅将肢体的真实动作轮廓叠加在显示器的虚拟画面之上,还可以将周围的环境及肢体的真实动作轮廓均叠加在显示器的虚拟画面之上,具体实施时可以根据不同的场景进行选择。
假设外部拍摄视频画面为图层一,用户眼中所成的像(虚拟画面)为图层二,用户直接全部看到图层一实现的是一种全透视效果,图层一、二的切换显示,可以用于用户在虚拟和现实世界之间的视觉切换。并且,图层一的透明度百分比可改变,用于用户看到显示画面和虚拟画面的叠加效果,透明度越高虚拟世界越清晰。透明度越低现实世界画面越清晰。
不同用户眼睛具有不同的瞳距,不同场景下具有不同的视距,比如一个视力正常的人和一个近视的人看到的影像清晰度就不同,如果固定结构,则不一定会使用户体验到最佳的观看效果;基于此,本实用新型的光学模块201和/或显示器202可以被手动或自动调节用于适应不同用户眼睛的不同瞳距及不同的屈光度,以及不同场景下的不同视距需求。
为了适应不同瞳距的调节,需要调整光学模块201和/或显示器202。对于图1中显示器202为一块显示屏的情况,只需要调整光学模块201左右移动,使得光学模块201正对人眼(即使得人眼中心与光学模块201中心的连线垂直于显示器202)。对于图2中显示器202为两块显示屏的情况,可以将光学模块201和显示器202做成筒状结构,使得二者同轴,这样,通过调整筒状结构的左右位置,就可以使得人眼正对筒状结构的中心轴。
为了适应不同场景下的不同视距需求,对于光学模块201为一片透镜的情况,既可以单独调节光学模块201与人眼的距离,也可以单独调节显示器202的位置,还可同步调节以光学模块201和显示器202,改变光学模块201与显示器202之间的距离及光学模块201与人眼的距离。从而对用户的个体差异提供有效的解决措施,进一步提高智能化程度,并为用户提供完善的全息体验,改善用户的使用感受。
光学模块201还可以为包含多片镜片的情况,此时不但可以调节光学模块201和/或显示器202,还可以调节光学模块201内部镜片之间的距离,下面举例说明,
一实施例中,光学模块201可以为由一片或者多片镜片组成的透镜组,多片镜片相互之间的距离可调,并且透镜组和显示器202之间的距离可调。需要说明的是,透镜组中距离人眼最近的镜片无需调节。
一实施例中,光学模块201由一片或者多片菲涅尔透镜组成的菲涅尔透镜组,多片菲涅尔透镜之间的距离可调,并且菲涅尔透镜组和显示器202之间的距离可调。需要说明的是,菲涅尔透镜组中距离人眼最近的菲涅尔透镜无需调节。
一实施例中,光学模块201为镜片及菲涅尔透镜的组合透镜,组合透镜中镜片与菲涅尔透镜之间的距离可调,并且组合透镜和显示器202之间的距离可调。需要说明的是,组合透镜中距离人眼最近的镜片无需调节。
光学模块为包括玻璃、塑胶或石英等的透明材质,本实用新型不以此为限。
需要说明的是,通过上述调节,可以调节图5中的区域302到人眼的距离,可以使得区域302靠近人眼,那么区域502也将靠近操作区域501,并可以实现区域501与区域502重叠,达到最佳的体验效果,这是现有的头戴设备所无法实现的。
对于光学模块201和/或显示器202的手动调节,如图7所示,实施例中,用户可以通过光学模块看到显示器在用户眼中所成的像。由于用户的个体差异,不同用户的双眼瞳距不一样,视力也不一样,如果固定光学模块和显示器的结构,可能无法使每个用户都能看到清晰的成像。基于此,可以在头盔主结构单元上设置调节旋钮,该调节旋钮用于手动调节光学模块和/或显示器,以适应于不同用户眼睛的不同瞳距以及不同的屈光度,以及不同场景下的不同视距需求。
例如可以在头盔主结构单元的上方设置调节光学模块201和/或显示器202以适应用户眼睛的瞳距的调节旋钮,如转动该调节旋钮可以使左右眼光学模块之间的间距发生改变。又如可以在头盔主结构单元的侧面设置调节光学模块和/或显示器以适应不同场景的视距的调节旋钮,如转到该调节旋钮可以使眼睛与光学模块之间的距离发生改变。由于光学模块与显示器作相对位置改变即可使成像效果发生变化,因此可以只改变光学模块的位置,也可以只改变显示器的位置,或者可以同时改变光学模块和显示单元的位置。调节旋钮的设置位置可以在主结构单元的任意位置,不限于头盔主结构单元的上方或两侧。
上面的实施例说明了手动调整光学模块和/或显示器,实施例中还可以自动调整光学模块和/或显示单元用于适应于不同用户眼睛的不同瞳距以及不同的屈光度,以及不同场景下的不同视距需求,进一步提高眼镜的智能化程度。内置摄像头模组110可以直接对人眼进行观察(如图8所示),内置摄像头模组110还可以通过红外半透镜片(光学模块201与显示器202之间)对人眼进行观察(如图9所示),红外半透镜片就是一种反射红外光,而可以透视可见光的镜片,利用红外半透镜片不影响用户正常观察显示屏,而且保证了红外摄像头模组111具有极佳的拍摄角度。为了调节光学模块201和/或显示器202适应于不同用户眼睛的不同瞳距以及不同的屈光度,以及不同场景下的不同视距需求。对于适应瞳距的调节需要获知用户眼睛的瞳距,如图8及图9所示,自动调整瞳距时,可以通过内置摄像头模组110对人眼进行观察,自动检测瞳距,从而调整影像位置,以适应人眼的瞳距。摄像头模组110设置于光学模块201与显示器202之间的区域,一般设置在光学模块201与显示器202之间的斜下方或斜上方位置。经过调节,可以更准确辨别用户的使用状态,不同的用户均能看到显示单元中所成的清晰的像。
本实用新型实施例中,头戴式智能交互系统还包括:手环,与主控电路206无线(可以通过蓝牙、WIFI等)连接,手环内设九轴传感器,可以用于采集手部整体运动信号及每根手指的运动信号并根据所述手部整体运动信号及每根手指的运动信号进行手部运动轨迹的识别。具体地,通过九轴传感器,可以判断某根手指所敲击的键盘,如判断食指敲击的为H、J或是U键。由于手环连接主控电路206,主控电路206连接显示器202,用户手指敲击的键盘对应的文字、字母或数字可以通过显示器202显示,给用户一个回馈。
用户佩戴手环的方式有多种,可以是套在手腕上,也可是通过按键贴贴在手上或者是手腕上来采集手指筋动信号或肌肉信号等手部运动信息,通过筋动信号或是肌肉信号来进行手部运动轨迹的识别,通过算法模拟出手指所敲打的按键从而实现输入功能。用户可以在两只手上分别佩戴一个手环,也可以在其中一个手上佩戴一个手环。
本实用新型实施例中,头戴式智能交互系统还包括:指环,与主控电路206无线(可以通过蓝牙、WIFI等)连接,内设九轴传感器,可以用于采集手部整体运动信号及每根手指的运动信号并根据所述手部整体运动信号及每根手指的运动信号进行手部运动轨迹的识别。
需要说明的是,手部运动轨迹可以包含手指、手掌和手腕运动轨迹。
具体实施时,头戴式智能交互系统还可以包括:接近和/运动传感器,临近深度图像摄像头单元设置,用于感测肢体的运动或用于启动所述深度图像摄像头单元。可以通过设置多个接近和/运动传感器,感测肢体的运动的具体方向,由于接近和/运动传感器产品,采用接近和/运动传感器可以节省能耗。
在一实施例中,如图10所示,本实用新型实施例的头戴式智能交互系统还包括:移动终端801,在移动终端801处于未开启状态下,将移动终端的屏幕802作为触摸游戏板。
移动终端的实体键可以作为头戴式智能交互系统的操作键,如图11所示,可以以音量键901作为头戴式智能交互系统的操作键。
利用本实用新型实施例的头戴式智能交互系统,可以摆脱辅助设备的束缚,仅通过肢体姿态的变化、位置及轨迹进行交互控制,给用户带来更新颖的交互选择和体验。对于手机等移动终端作为外接设备的交互,本实用新型不需要开启手机就可以将手机屏幕当做触摸屏进行盲操作。
本领域内的技术人员应明白,本实用新型的实施例可提供为方法、系统、或计算机程序产品。因此,本实用新型可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本实用新型可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本实用新型是参照根据本实用新型实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本实用新型中应用了具体实施例对本实用新型的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本实用新型的方法及其核心思想;同时,对于本领域的一般技术人员,依据本实用新型的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本实用新型的限制。
Claims (16)
1.一种头戴式智能交互系统,其特征在于,所述头戴式智能交互系统包括:
头戴单元,佩戴于用户头部;
头盔主结构单元,固定在所述头戴单元上,所述头盔主结构单元上设有摄像单元,由光学模块及显示器构成的显示单元,深度图像摄像头单元以及与所述显示器相连接的主控电路;其中,
所述显示单元中的光学模块和/或显示器被手动或自动调节用于适应不同用户眼睛的不同瞳距及不同的屈光度,以及不同场景下的不同视距需求,用户通过所述显示单元能看到肢体的真实动作轮廓及数字动作轮廓;
所述深度图像摄像头单元用于识别肢体实时的三维空间运动及形态及用户所处的周围环境。
2.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述光学模块为由一片或者多片镜片组成的透镜组,多片镜片相互之间的距离可调,并且所述透镜组和显示器之间的距离可调。
3.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述光学模块由一片或者多片菲涅尔透镜组成的菲涅尔透镜组,多片菲涅尔透镜之间的距离可调,并且所述菲涅尔透镜组和显示器之间的距离可调。
4.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述光学模块为镜片及菲涅尔透镜的组合透镜,所述组合透镜中镜片与菲涅尔透镜之间的距离可调,并且所述组合透镜和显示器之间的距离可调。
5.根据权利要求3或4所述的头戴式智能交互系统,其特征在于,所述光学模块为包括玻璃、塑胶或石英的透明材质。
6.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述深度图像摄像头单元包括光飞行时间模块、结构光模块及立体视觉模块三者中的一个或多个,其中,所述光飞行时间模块、结构光模块及立体视觉模块用于采集肢体形态及采集肢体间的动作配合。
7.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述摄像单元包括:第一摄像单元,用于拍摄视频和/或照片,或检测用户肢体在预设3D操作区域的动作,所述视频的部分或全部可叠加在显示器的虚拟画面之上。
8.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述头戴式智能交互系统还包括:手环,与所述主控电路无线连接,内设九轴传感器,用于采集手部整体运动信号及每根手指的运动信号。
9.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述头戴式智能交互系统还包括:指环,与所述主控电路无线连接,内设九轴传感器,用于采集手部整体运动信号及每根手指的运动信号。
10.根据权利要求7所述的头戴式智能交互系统,其特征在于,所述预设3D操作区域中心位置可调。
11.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述头戴式智能交互系统还包括:接近和/或运动传感器,设置在所述深度图像摄像头单元周围,用于感测肢体的运动或用于启动所述深度图像摄像头单元。
12.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述头戴式智能交互系统还包括:移动终端,所述移动终端的屏幕作为触摸游戏板,无线连接所述主控电路。
13.根据权利要求12所述的头戴式智能交互系统,其特征在于,所述移动终端的实体键作为所述头戴式智能交互系统的操作键。
14.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述显示器为一块显示屏或为左右两块显示屏。
15.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述头戴式智能交互系统还包括:游戏手柄,作为所述头戴式智能交互系统的游戏控制设备,无线连接所述主控电路。
16.根据权利要求1所述的头戴式智能交互系统,其特征在于,所述头戴式智能交互系统还包括:位置传感器,用于检测所述显示器到光学模块之间的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201520575656.6U CN205015835U (zh) | 2015-08-03 | 2015-08-03 | 头戴式智能交互系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201520575656.6U CN205015835U (zh) | 2015-08-03 | 2015-08-03 | 头戴式智能交互系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN205015835U true CN205015835U (zh) | 2016-02-03 |
Family
ID=55214428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201520575656.6U Expired - Fee Related CN205015835U (zh) | 2015-08-03 | 2015-08-03 | 头戴式智能交互系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN205015835U (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105068648A (zh) * | 2015-08-03 | 2015-11-18 | 众景视界(北京)科技有限公司 | 头戴式智能交互系统 |
CN105607743A (zh) * | 2016-02-24 | 2016-05-25 | 北京小鸟看看科技有限公司 | 基于双套传感器的系统、手持终端与头戴显示设备 |
CN105824408A (zh) * | 2016-02-15 | 2016-08-03 | 乐视致新电子科技(天津)有限公司 | 虚拟现实头盔瞳距调节同步装置及方法 |
CN107028738A (zh) * | 2017-06-21 | 2017-08-11 | 常州快来信息科技有限公司 | 基于眼动的视觉训练系统、智能终端及头戴设备 |
CN107076998A (zh) * | 2016-04-29 | 2017-08-18 | 深圳市大疆创新科技有限公司 | 可穿戴设备及无人机系统 |
CN107469315A (zh) * | 2017-07-24 | 2017-12-15 | 烟台中飞海装科技有限公司 | 一种搏击训练系统 |
TWI612335B (zh) * | 2016-09-02 | 2018-01-21 | 賴銀樑 | 頭戴式顯示裝置及頭戴式顯示裝置之雙眼視覺影像定位方法 |
TWI669531B (zh) * | 2017-06-02 | 2019-08-21 | 宏達國際電子股份有限公司 | 沉浸式頭戴系統及其控制方法 |
US11164321B2 (en) | 2018-12-24 | 2021-11-02 | Industrial Technology Research Institute | Motion tracking system and method thereof |
-
2015
- 2015-08-03 CN CN201520575656.6U patent/CN205015835U/zh not_active Expired - Fee Related
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105068648A (zh) * | 2015-08-03 | 2015-11-18 | 众景视界(北京)科技有限公司 | 头戴式智能交互系统 |
CN105824408A (zh) * | 2016-02-15 | 2016-08-03 | 乐视致新电子科技(天津)有限公司 | 虚拟现实头盔瞳距调节同步装置及方法 |
CN105607743A (zh) * | 2016-02-24 | 2016-05-25 | 北京小鸟看看科技有限公司 | 基于双套传感器的系统、手持终端与头戴显示设备 |
US11036050B2 (en) | 2016-04-29 | 2021-06-15 | SZ DJI Technology Co., Ltd. | Wearable apparatus and unmanned aerial vehicle system |
CN107076998A (zh) * | 2016-04-29 | 2017-08-18 | 深圳市大疆创新科技有限公司 | 可穿戴设备及无人机系统 |
TWI612335B (zh) * | 2016-09-02 | 2018-01-21 | 賴銀樑 | 頭戴式顯示裝置及頭戴式顯示裝置之雙眼視覺影像定位方法 |
US10488920B2 (en) | 2017-06-02 | 2019-11-26 | Htc Corporation | Immersive headset system and control method thereof |
TWI669531B (zh) * | 2017-06-02 | 2019-08-21 | 宏達國際電子股份有限公司 | 沉浸式頭戴系統及其控制方法 |
US10996749B2 (en) | 2017-06-02 | 2021-05-04 | Htc Corporation | Immersive headset system and control method thereof |
CN107028738B (zh) * | 2017-06-21 | 2019-08-20 | 常州快来信息科技有限公司 | 基于眼动的视觉训练系统、智能终端及头戴设备 |
CN107028738A (zh) * | 2017-06-21 | 2017-08-11 | 常州快来信息科技有限公司 | 基于眼动的视觉训练系统、智能终端及头戴设备 |
CN107469315A (zh) * | 2017-07-24 | 2017-12-15 | 烟台中飞海装科技有限公司 | 一种搏击训练系统 |
US11164321B2 (en) | 2018-12-24 | 2021-11-02 | Industrial Technology Research Institute | Motion tracking system and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN205015835U (zh) | 头戴式智能交互系统 | |
CN105068648A (zh) | 头戴式智能交互系统 | |
US9842433B2 (en) | Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality | |
CN104090659B (zh) | 基于人眼图像和视线追踪的操作指针指示控制设备 | |
US9599821B2 (en) | Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space | |
JP7239493B2 (ja) | 眼追跡較正技術 | |
US9779633B2 (en) | Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same | |
KR102641655B1 (ko) | 3차원 공간에서 가상 객체들 선택 | |
JP6362631B2 (ja) | 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ | |
US9651782B2 (en) | Wearable tracking device | |
CN103793060B (zh) | 一种用户交互系统和方法 | |
CN103246351B (zh) | 一种用户交互系统和方法 | |
CN108421252B (zh) | 一种基于ar设备的游戏实现方法和ar设备 | |
WO2015180497A1 (zh) | 一种基于立体视觉的动作采集和反馈方法及系统 | |
CN109313509A (zh) | 视野周围的视觉光环 | |
CN114995594A (zh) | 使用姿势和多dof控制器与3d虚拟对象的交互 | |
TWI648655B (zh) | 虛擬實境系統中顯示使用者移動的方法及相關裝置 | |
WO2013185714A1 (zh) | 增强现实中识别对象的方法及系统和计算机 | |
WO2008132724A1 (en) | A method and apparatus for three dimensional interaction with autosteroscopic displays | |
CN206650796U (zh) | 虚拟现实装置 | |
CN112641610B (zh) | 弱视的训练方法、装置及系统 | |
JP6321263B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
CN105068248A (zh) | 头戴式全息智能眼镜 | |
CN204945491U (zh) | 头戴式全息智能眼镜 | |
JP6580624B2 (ja) | 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160203 Termination date: 20180803 |
|
CF01 | Termination of patent right due to non-payment of annual fee |