CN110069135A - 一种人机交互设备的数据处理方法及人机交互设备 - Google Patents

一种人机交互设备的数据处理方法及人机交互设备 Download PDF

Info

Publication number
CN110069135A
CN110069135A CN201910350295.8A CN201910350295A CN110069135A CN 110069135 A CN110069135 A CN 110069135A CN 201910350295 A CN201910350295 A CN 201910350295A CN 110069135 A CN110069135 A CN 110069135A
Authority
CN
China
Prior art keywords
host
image
display end
parameter
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910350295.8A
Other languages
English (en)
Inventor
邓建
谢琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201910350295.8A priority Critical patent/CN110069135A/zh
Publication of CN110069135A publication Critical patent/CN110069135A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种人机交互设备的数据处理方法及人机交互设备,该方法包括:通过安装在人机交互设备的主机上的第一影像采集设备,采集目标区域的第一影像,并基于安装在主机上的感应器感应主机的运动状态,以获取相应的运动信息;基于预存的第一转换参数将第一影像处理为相应的影像转换数据,并将影像转换数据以及运动信息发送至人机交互设备的显示端,以使显示端基于影像转换数据以及运动信息显示其第一显示内容,使第一显示内容与第一影像同步,其中显示端与主机通信连接。该方法能够在佩戴了显示端的用户不需要做出动作的情况下,便能够灵活的获取拍摄的目标对象,还保证了画面显示正确,提高用户体验。

Description

一种人机交互设备的数据处理方法及人机交互设备
技术领域
本申请涉及人机交互设备领域,如基于虚拟现实或增强现实技术的人机交互设备,特别涉及一种人机交互设备的数据处理方法及人机交互设备。
背景技术
目前,人机交互设备的使用越来越频繁,如基于增强现实技术(AugmentedReality,简称AR)的人机交互设备(如AR眼镜等),用户可以通过该人机交互设备在屏幕上把虚拟世界套在现实世界并进行互动,但是目前的人机交互设备在结构上通常是一个整体,显示内容时并不灵活,例如用户佩戴AR眼镜后,观察场景特定目标物时还需要缓慢的转动佩戴了笨重的AR眼镜的头部,再进一步将设置在AR眼镜上的摄像头对准该目标物才能显示相应的内容,使用起来极为不便,甚至会出现找不到不易发现的目标对象。
发明内容
本申请实施例的目的在于提供一种人机交互设备的数据处理方法及人机交互设备。该方法能够在佩戴了显示端的用户不需要做出动作的情况下,便能够灵活的获取拍摄的目标对象,准确的调整叠加在目标对象上的虚拟影像,保证用户观看效果。
为了解决上述技术问题,本申请的实施例采用了如下技术方案:一种人机交互设备的数据处理方法,包括:
通过安装在所述人机交互设备的主机上的第一影像采集设备,采集目标区域的第一影像,并基于安装在所述主机上的感应器感应所述主机的运动状态,以获取相应的运动信息;
基于预存的第一转换参数将所述第一影像处理为相应的影像转换数据,并将所述影像转换数据以及所述运动信息发送至所述人机交互设备的显示端,以使所述显示端基于所述影像转换数据以及所述运动信息显示其第一显示内容,使所述第一显示内容与所述第一影像同步,其中所述显示端与所述主机通信连接。
作为优选,所述的并基于安装在所述主机上的感应器感应所述主机的运动状态,以获取相应的运动信息包括:
通过所述感应器侦测所述主机在真实空间中的移动动作;
基于所述移动动作确定相应的移动参数,其中所述移动参数至少包括移动视角参数以及移动距离参数。
作为优选,所述第一转换参数为所述显示端的图像转换参数,所述方法还包括:
将所述显示端与所述主机相关联,并对所述显示端与所述主机进行初始化操作,以使所述主机获取所述第一转换参数。
作为优选,所述的显示端基于所述影像转换数据以及所述运动信息显示其第一显示内容包括:
根据所述影像转换数据和/或所述运动信息,确定姿态调整参数;
根据所述姿态调整参数,调整所述第一显示内容中叠加在目标对象上的虚拟影像。
作为优选,所述方法还包括:
基于接收到的操作命令,通过所述主机生成相应的输入指令,并根据所述输入指令对所述显示端进行输入操作;以及,
基于接收到的操作命令,通过所述主机生成相应的控制指令,并根据所述控制指令对所述显示端进行控制,其中包括对所述显示端的所述第一显示内容进行控制。
作为优选,所述显示端上还设置有第二影像采集设备,所述方法还包括:
通过所述第二影像采集设备采集第二影像;
基于所述第一影像和第二影像的视角方向,将所述第一影像和第二影像的内容同时显示在所述显示端。
本申请实施例还提供了一种人机交互设备,包括:
主机,所述主机上安装有第一影像采集设备和感应器,并通过所述第一影像采集设备采集目标区域的第一影像,并基于所述感应器感应所述主机的运动状态,以获取相应的运动信息;所述主机预存有第一转换参数,以基于所述第一转换参数将所述第一影像处理为相应的影像转换数据,并将所述影像转换数据以及所述运动信息发送至所述人机交互设备的显示端;
显示端,所述显示端与所述主机通信连接,接收所述主机发送的所述影像转换数据以及所述运动信息,以基于所述影像转换数据以及所述运动信息显示其第一显示内容,使所述第一显示内容与所述第一影像同步。
作为优选,所述感应器进一步配置为感应所述主机在真实空间中的移动动作;基于所述移动动作确定相应的移动参数,其中所述移动参数至少包括移动视角参数以及移动距离参数。
作为优选,所述第一转换参数为所述显示端的图像转换参数,所述主机进一步配置为:将所述显示端与所述主机相关联,并在所述显示端与所述主机被初始化操作后,获取所述第一转换参数。
作为优选,所述显示端进一步配置为:
根据所述影像转换数据和/或所述运动信息,确定姿态调整参数;
根据所述姿态调整参数,调整所述第一显示内容中叠加在目标对象上的虚拟影像。
该方法能够在佩戴了显示端的用户不需要做出动作的情况下,便能够灵活的获取拍摄的目标对象,而且显示端显示的第一显示内容能够使虚拟影像正确的叠加在真实物体上,而不会发生叠加错位等现象发生,保证了画面显示正确,提高用户体验。
附图说明
图1为本申请实施例的人机交互设备的数据处理方法的流程图;
图2为本申请实施例的图1中步骤S1的一个实施例的流程图;
图3为本申请实施例的图1中步骤S2的一个实施例的流程图;
图4为本申请实施例的数据处理方法的一个具体实施例的流程图;
图5为本申请实施例的人机交互设备的结构示意图。
具体实施方式
此处参考附图描述本申请的各种方案以及特征。
应理解的是,可以对此处申请的实施例做出各种修改。因此,上述说明书不应该视为限制,而仅是作为实施例的范例。本领域的技术人员将想到在本申请的范围和精神内的其他修改。
包含在说明书中并构成说明书的一部分的附图示出了本申请的实施例,并且与上面给出的对本申请的大致描述以及下面给出的对实施例的详细描述一起用于解释本申请的原理。
通过下面参照附图对给定为非限制性实例的实施例的优选形式的描述,本申请的这些和其它特性将会变得显而易见。
还应当理解,尽管已经参照一些具体实例对本申请进行了描述,但本领域技术人员能够确定地实现本申请的很多其它等效形式,它们具有如权利要求所述的特征并因此都位于借此所限定的保护范围内。
当结合附图时,鉴于以下详细说明,本申请的上述和其他方面、特征和优势将变得更为显而易见。
此后参照附图描述本申请的具体实施例;然而,应当理解,所申请的实施例仅仅是本申请的实例,其可采用多种方式实施。熟知和/或重复的功能和结构并未详细描述以避免不必要或多余的细节使得本申请模糊不清。因此,本文所申请的具体的结构性和功能性细节并非意在限定,而是仅仅作为权利要求的基础和代表性基础用于教导本领域技术人员以实质上任意合适的详细结构多样地使用本申请。
本说明书可使用词组“在一种实施例中”、“在另一个实施例中”、“在又一实施例中”或“在其他实施例中”,其均可指代根据本申请的相同或不同实施例中的一个或多个。
本申请实施例的一种人机交互设备的数据处理方法,人机交互设备可以为各种穿戴设备如AR眼镜等设备,该人机交互设备可以包括相互连接的主机和显示端,如图1所示,该方法包括以下步骤:
S1,通过安装在人机交互设备的主机上的第一影像采集设备,采集目标区域的第一影像,并基于安装在主机上的感应器感应主机的运动状态,以获取相应的运动信息。
第一影像采集设备安装在主机上,主机可以处理数据,包括对第一影像采集设备采集的第一影像进行处理,由于第一影像采集设备(可以为摄像头)设置在主机上,而本实施例中主机可以由用户便携式持有,因此用户可以方便的使用第一影像采集设备来对目标区域进行影像的采集,而且具有极大的自由度。例如人机交互设备为AR眼镜,即基于增强现实技术(Augmented Reality,简称AR)的眼镜,主机可以由用户手持,进而将第一影像采集设备对准所需要的目标区域进行第一影像的采集,扩大了采集影像的范围,使用灵活,并且减轻了佩带在用户身体上的显示端的重量。此外,主机上还安装有感应器,该感应器能够感应主机在用户的操作过程中的运动状态,如主机的移动或旋转状态,进而使主机获取感应器生成的能够表征运动状态的运动信息。
S2,基于预存的第一转换参数将第一影像处理为相应的影像转换数据,并将影像转换数据以及运动信息发送至人机交互设备的显示端,以使显示端基于影像转换数据以及运动信息显示其第一显示内容,使第一显示内容与第一影像同步,其中显示端与主机通信连接。
本实施例中,主机可以不直接将第一影像发送至显示端,而是先对第一影像进行处理。第一转换参数用于对第一影像进行转换,对主机与显示端之间传输的数据进行转换,使得显示端可以正确的显示第一影像所表示的内容,而不会在显示端出现显示偏差等现象。第一转换参数可以预先存储在主机上或是其他设备上,使得主机在处理第一影像时调用该第一转换参数,并基于该第一转换参数对第一影像进行处理,生成影像转换数据,该影像转换数据包含了第一影像所显示的内容对应的数据。此外,主机还将采集到的运动信息发送至显示端,显示端在显示时,可以基于影像转换数据以及运动信息在显示端显示的第一显示内容。例如用户头上佩带有显示端,而手中可以持有主机,主机拍摄第一影像的过程中进行了移动或旋转角度的动作,进而显示端可以根据影像转换数据以及移动或旋转对应的运动信息来调整其第一显示内容,从而不会使显示端由于与主机处于不同的空间位置或不同运动状态(如一个静止另一个发生了移动)而造成显示效果的不同,例如人机交互设备为AR眼镜时,显示端显示的第一显示内容能够使虚拟影像正确的叠加在真实物体上,而不会发生叠加错位等现象发生,从而实现了显示端显示的第一显示内容与主机采集的第一影像同步,方便用户使用和观看的同时,保证了画面显示正确。
在本申请的一个实施例中,如图2所示,所述的并基于安装在主机上的感应器感应主机的运动状态,以获取相应的运动信息包括以下步骤:
S11,通过感应器侦测主机在真实空间中的移动动作;
S12,基于移动动作确定相应的移动参数,其中移动参数至少包括移动视角参数以及移动距离参数。
主机可以由用户持有(如手持),因此用户可以操作主机在真实空间中移动,如根据拍摄需要将第一影像采集设备移动到目标物附近,进而使主机发生了移动动作,感应器安装在主机上,因此感应器可以侦测主机的移动动作,如侦测主机基于原位置向某一方向发生了位移或转动。感应器或者感应器配合主机能够基于移动动作确定相应的移动参数,通过该移动参数可以获知主机具体的移动动作。移动参数至少包括移动视角参数以及移动距离参数,移动视角参数表征了拍摄影像的视角的转动事件,移动距离参数表征了拍摄影像的视角的移动距离事件,例如主机相对静止的显示端向下移动了一定的距离,或者向左转动了某一角度等,第一影像采集设备拍摄的目标对象发生了稍许变化,感应器或者感应器结合主机能够侦测该变化的动作过程。
在本申请的一个实施例中,第一转换参数为显示端的图像转换参数,所述方法还包括:将显示端与主机相关联,并对显示端与主机进行初始化操作,以使主机获取第一转换参数。
具体来说,第一转换参数为针对显示端显示的图像设置的参数,由于主机与显示端为不同的两个设备,在主机上能够正常播放的影像并不一定能够在显示端正常播放,因此主机需要获取到显示端的图像转换参数才能够将自身采集的影像数据转化为显示端能够使用的数据,本实施中一方面,在对显示端与主机进行初始化操作过程中,可以将显示端与主机相关联,使得主机获取显示端对应的第一转换参数;另一方面,显示端也可以获取主机对应的第二转换参数,从而显示端也能够利用第二转换参数对自身拍摄的影像进行处理,并将处理后的影像发送给主机,以便主机可以使用该影像。
在本申请的一个实施例中,如图3所示,所述的显示端基于影像转换数据以及运动信息显示其第一显示内容包括:
S21,根据影像转换数据和/或运动信息,确定姿态调整参数;
S22,根据姿态调整参数,调整第一显示内容中叠加在目标对象上的虚拟影像。
佩带在用户身体上的显示端需要与主机在拍摄内容上相同步,由于主机上的第一影像采集设备采集了影像,因此显示端需要根据影像转换数据和/或运动信息,确定显示端对应的姿态调整参数,从显示端可以根据姿态调整参数来调整在其显示屏幕上的第一显示内容。当该人机交互设备为AR眼镜时,不仅展现了真实世界的信息,而且将虚拟的信息同时显示出来,两种信息相互补充、叠加。本实施例中,显示端能够根据字条调整参数来调整第一显示内容中叠加在目标对象上的虚拟影像,使得该虚拟影像不会发成错位、偏移等现象,保证了整体的显示效果。
在本申请的一个实施例中,该数据处理方法还包括以下步骤:
基于接收到的操作命令,通过主机生成相应的输入指令,并根据输入指令对显示端进行输入操作;以及,
基于接收到的操作命令,通过主机生成相应的控制指令,并根据控制指令对显示端进行控制,其中包括对显示端的第一显示内容进行控制。
具体来说,主机与显示端能够通过有线或无线的方式进行数据通信,由于主机能够被用户方便持有,因此用户可以灵活的操作主机,因此主机可以作为输入设备来对显示端进行输入操作。其中,操作命令可以由其他设备发送至主机,也可以由用户针对主机上设置的操作端(如操作按钮等)进行操作而生成,进而主机根据该操作命令可以生成相应的控制指令,对显示端进行操控,一方面对显示端进行数据的输入操作;另一方面,对显示端进行控制,例如调节显示端的显示参数(包括调节显示的对比度、亮度等),此外,还可以对显示端的第一显示内容进行控制,如打开显示屏幕选择显示内容,或者对第一显示内容的显示效果类型进行控制等,进一步方便用户使用,满足用户多种需要。
在本申请的一个实施例中,如图4所示,显示端上还设置有第二影像采集设备,该数据处理方法还包括以下步骤:
S3,通过第二影像采集设备采集第二影像;
S4,基于第一影像和第二影像的视角方向,将第一影像和第二影像的内容同时显示在显示端。
主机上的第一影像采集设备可以采集第一影像,并将相应的数据(可以是经过转换的数据)发送给显示端,显示端上还设置有第二影像采集设备(可以为摄像头)也能够采集第二影像,显示端根据第一影像采集设备采集第一影像时的视角方向来显示该第一影像的内容(如果第一影像的数据经过转换,其内容不变),并且根据自身的第二影像采集设备采集第二影像的视角方向,来同时显示第二影像。例如第二影像的视角方向为用户的正前方,而第一影像的视角方向为用户的后方,此时用户可以通过显示端既可以看到正前方的影像还可以看到后方的影像,进一步丰富了用户的视角,提升了用户使用体验。
本申请实施例还公开了一种人机交互设备,人机交互设备可以为各种穿戴设备如AR眼镜等设备,如图5所示,人机交互设备包括:
主机,主机上安装有第一影像采集设备和感应器,并通过第一影像采集设备采集目标区域的第一影像,并基于感应器感应主机的运动状态,以获取相应的运动信息;主机预存有第一转换参数,以基于第一转换参数将第一影像处理为相应的影像转换数据,并将影像转换数据以及运动信息发送至人机交互设备的显示端。
第一影像采集设备安装在主机上,主机可以通过安装的处理器来处理数据,包括对第一影像采集设备采集的第一影像进行处理,由于第一影像采集设备(可以为摄像头)设置在主机上,而本实施例中主机可以由用户便携式持有,因此用户可以方便的使用第一影像采集设备来对目标区域进行影像的采集,而且具有极大的自由度。例如人机交互设备为AR眼镜,即基于增强现实技术(Augmented Reality,简称AR)的眼镜,主机可以由用户手持,进而将第一影像采集设备对准所需要的目标区域进行第一影像的采集,扩大了采集影像的范围,使用灵活,并且减轻了佩带在用户身体上的显示端的重量。此外,主机上还安装有感应器,该感应器能够感应主机在用户的操作过程中的运动状态,如主机的移动或旋转状态,进而使主机获取感应器生成的能够表征运动状态的运动信息。
本实施例中,主机可以不直接将第一影像发送至显示端,而是先对第一影像进行处理。第一转换参数用于对第一影像进行转换,对主机与显示端之间传输的数据进行转换,使得显示端可以正确的显示第一影像所表示的内容,而不会在显示端出现显示偏差等现象。第一转换参数可以预先存储在主机上或是其他设备上,使得主机在处理第一影像时调用该第一转换参数,并基于该第一转换参数对第一影像进行处理,生成影像转换数据,该影像转换数据包含了第一影像所显示的内容对应的数据。
显示端,显示端与主机通信连接,接收主机发送的影像转换数据以及运动信息,以基于影像转换数据以及运动信息显示其第一显示内容,使第一显示内容与第一影像同步。
主机将采集到的运动信息发送至显示端,显示端接收主机发送的影像转换数据以及运动信息,显示端在显示时,可以基于影像转换数据以及运动信息在显示端显示的第一显示内容。例如用户头上佩带有显示端,而手中可以持有主机,主机拍摄第一影像的过程中进行了移动或旋转角度的动作,进而显示端可以根据影像转换数据以及移动或旋转对应的运动信息来调整其第一显示内容,从而不会使显示端由于与主机处于不同的空间位置或不同运动状态(如一个静止另一个发生了移动)而造成显示效果的不同,例如人机交互设备为AR眼镜时,显示端显示的第一显示内容能够使虚拟影像正确的叠加在真实物体上,而不会发生叠加错位等现象发生,从而实现了显示端显示的第一显示内容与主机采集的第一影像同步,方便用户使用和观看的同时,保证了画面显示正确。
在本申请的一个实施例中,感应器进一步配置为感应所述主机在真实空间中的移动动作;基于所述移动动作确定相应的移动参数,其中所述移动参数至少包括移动视角参数以及移动距离参数。
主机可以由用户持有(如手持),因此用户可以操作主机在真实空间中移动,如根据拍摄需要将第一影像采集设备移动到目标物附近,进而使主机发生了移动动作,感应器安装在主机上,因此感应器可以侦测主机的移动动作,如侦测主机基于原位置向某一方向发生了位移或转动。感应器或者感应器配合主机能够基于移动动作确定相应的移动参数,通过该移动参数可以获知主机具体的移动动作。移动参数至少包括移动视角参数以及移动距离参数,移动视角参数表征了拍摄影像的视角的转动事件,移动距离参数表征了拍摄影像的视角的移动距离事件,例如主机相对静止的显示端向下移动了一定的距离,或者向左转动了某一角度等,第一影像采集设备拍摄的目标对象发生了稍许变化,感应器或者感应器结合主机能够侦测该变化的动作过程。
在本申请的一个实施例中,第一转换参数为显示端的图像转换参数,主机进一步配置为:将显示端与主机相关联,并在显示端与主机被初始化操作后,获取第一转换参数。
具体来说,第一转换参数为针对显示端显示的图像设置的参数,由于主机与显示端为不同的两个设备,在主机上能够正常播放的影像并不一定能够在显示端正常播放,因此主机需要获取到显示端的图像转换参数才能够将自身采集的影像数据转化为显示端能够使用的数据,本实施中一方面,在对显示端与主机进行初始化操作过程中,可以将显示端与主机相关联,使得主机获取显示端对应的第一转换参数;另一方面,显示端也可以获取主机对应的第二转换参数,从而显示端也能够利用第二转换参数对自身拍摄的影像进行处理,并将处理后的影像发送给主机,以便主机可以使用该影像。
在本申请的一个实施例中,显示端进一步配置为:根据影像转换数据和/或运动信息,确定姿态调整参数;根据姿态调整参数,调整第一显示内容中叠加在目标对象上的虚拟影像。
佩带在用户身体上的显示端需要与主机在拍摄内容上相同步,由于主机上的第一影像采集设备采集了影像,因此显示端需要根据影像转换数据和/或运动信息,确定显示端对应的姿态调整参数,从显示端可以根据姿态调整参数来调整在其显示屏幕上的第一显示内容。当该人机交互设备为AR眼镜时,不仅展现了真实世界的信息,而且将虚拟的信息同时显示出来,两种信息相互补充、叠加。本实施例中,显示端能够根据字条调整参数来调整第一显示内容中叠加在目标对象上的虚拟影像,使得该虚拟影像不会发成错位、偏移等现象,保证了整体的显示效果。
在本申请的一个实施例中,主机包括处理器,该处理器配置为:基于接收到的操作命令,通过主机生成相应的输入指令,并根据输入指令对显示端进行输入操作;以及,基于接收到的操作命令,通过主机生成相应的控制指令,并根据控制指令对显示端进行控制,其中包括对显示端的第一显示内容进行控制。
具体来说,主机与显示端能够通过有线或无线的方式进行数据通信,由于主机能够被用户方便持有,因此用户可以灵活的操作主机,因此主机可以作为输入设备来对显示端进行输入操作。其中,操作命令可以由其他设备发送至主机,也可以由用户针对主机上设置的操作端(如操作按钮等)进行操作而生成,进而处理器根据该操作命令可以生成相应的控制指令,对显示端进行操控,一方面对显示端进行数据的输入操作;另一方面,对显示端进行控制,例如调节显示端的显示参数(包括调节显示的对比度、亮度等),此外,还可以对显示端的第一显示内容进行控制,如打开显示屏幕选择显示内容,或者对第一显示内容的显示效果类型进行控制等,进一步方便用户使用,满足用户多种需要。
在本申请的一个实施例中,显示端上还设置有第二影像采集设备,显示端进一步配置为:通过第二影像采集设备采集第二影像;基于第一影像和第二影像的视角方向,将第一影像和第二影像的内容同时显示在显示端的显示屏幕上。
主机上的第一影像采集设备可以采集第一影像,并将相应的数据(可以是经过转换的数据)发送给显示端,显示端上还设置有第二影像采集设备(可以为摄像头)也能够采集第二影像,显示端根据第一影像采集设备采集第一影像时的视角方向来显示该第一影像的内容(如果第一影像的数据经过转换,其内容不变),并且根据自身的第二影像采集设备采集第二影像的视角方向,来同时显示第二影像。例如第二影像的视角方向为用户的正前方,而第一影像的视角方向为用户的后方,此时用户可以通过显示端的显示屏幕既可以看到正前方的影像还可以看到后方的影像,进一步丰富了用户的视角,提升了用户使用体验。
以上实施例仅为本申请的示例性实施例,不用于限制本申请,本申请的保护范围由权利要求书限定。本领域技术人员可以在本申请的实质和保护范围内,对本申请做出各种修改或等同替换,这种修改或等同替换也应视为落在本申请的保护范围内。

Claims (10)

1.一种人机交互设备的数据处理方法,包括:
通过安装在所述人机交互设备的主机上的第一影像采集设备,采集目标区域的第一影像,并基于安装在所述主机上的感应器感应所述主机的运动状态,以获取相应的运动信息;
基于预存的第一转换参数将所述第一影像处理为相应的影像转换数据,并将所述影像转换数据以及所述运动信息发送至所述人机交互设备的显示端,以使所述显示端基于所述影像转换数据以及所述运动信息显示其第一显示内容,使所述第一显示内容与所述第一影像同步,其中所述显示端与所述主机通信连接。
2.根据权利要求1所述的方法,所述的并基于安装在所述主机上的感应器感应所述主机的运动状态,以获取相应的运动信息包括:
通过所述感应器侦测所述主机在真实空间中的移动动作;
基于所述移动动作确定相应的移动参数,其中所述移动参数至少包括移动视角参数以及移动距离参数。
3.根据权利要求1所述的方法,所述第一转换参数为所述显示端的图像转换参数,所述方法还包括:
将所述显示端与所述主机相关联,并对所述显示端与所述主机进行初始化操作,以使所述主机获取所述第一转换参数。
4.根据权利要求1所述的方法,所述的显示端基于所述影像转换数据以及所述运动信息显示其第一显示内容包括:
根据所述影像转换数据和/或所述运动信息,确定姿态调整参数;
根据所述姿态调整参数,调整所述第一显示内容中叠加在目标对象上的虚拟影像。
5.根据权利要求1所述的方法,所述方法还包括:
基于接收到的操作命令,通过所述主机生成相应的输入指令,并根据所述输入指令对所述显示端进行输入操作;以及,
基于接收到的操作命令,通过所述主机生成相应的控制指令,并根据所述控制指令对所述显示端进行控制,其中包括对所述显示端的所述第一显示内容进行控制。
6.根据权利要求1所述的方法,所述显示端上还设置有第二影像采集设备,所述方法还包括:
通过所述第二影像采集设备采集第二影像;
基于所述第一影像和第二影像的视角方向,将所述第一影像和第二影像的内容同时显示在所述显示端。
7.一种人机交互设备,包括:
主机,所述主机上安装有第一影像采集设备和感应器,并通过所述第一影像采集设备采集目标区域的第一影像,并基于所述感应器感应所述主机的运动状态,以获取相应的运动信息;所述主机预存有第一转换参数,以基于所述第一转换参数将所述第一影像处理为相应的影像转换数据,并将所述影像转换数据以及所述运动信息发送至所述人机交互设备的显示端;
显示端,所述显示端与所述主机通信连接,接收所述主机发送的所述影像转换数据以及所述运动信息,以基于所述影像转换数据以及所述运动信息显示其第一显示内容,使所述第一显示内容与所述第一影像同步。
8.根据权利要求7所述的人机交互设备,所述感应器进一步配置为感应所述主机在真实空间中的移动动作;基于所述移动动作确定相应的移动参数,其中所述移动参数至少包括移动视角参数以及移动距离参数。
9.根据权利要求7所述的人机交互设备,所述第一转换参数为所述显示端的图像转换参数,所述主机进一步配置为:将所述显示端与所述主机相关联,并在所述显示端与所述主机被初始化操作后,获取所述第一转换参数。
10.根据权利要求7所述的人机交互设备,所述显示端进一步配置为:
根据所述影像转换数据和/或所述运动信息,确定姿态调整参数;
根据所述姿态调整参数,调整所述第一显示内容中叠加在目标对象上的虚拟影像。
CN201910350295.8A 2019-04-28 2019-04-28 一种人机交互设备的数据处理方法及人机交互设备 Pending CN110069135A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910350295.8A CN110069135A (zh) 2019-04-28 2019-04-28 一种人机交互设备的数据处理方法及人机交互设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910350295.8A CN110069135A (zh) 2019-04-28 2019-04-28 一种人机交互设备的数据处理方法及人机交互设备

Publications (1)

Publication Number Publication Date
CN110069135A true CN110069135A (zh) 2019-07-30

Family

ID=67369297

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910350295.8A Pending CN110069135A (zh) 2019-04-28 2019-04-28 一种人机交互设备的数据处理方法及人机交互设备

Country Status (1)

Country Link
CN (1) CN110069135A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112346945A (zh) * 2020-10-23 2021-02-09 北京津发科技股份有限公司 人机交互数据分析方法及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102395997A (zh) * 2009-02-13 2012-03-28 Metaio有限公司 用于确定摄像机相对于真实环境的至少一个对象的姿态的方法和系统
CN103839277A (zh) * 2014-02-21 2014-06-04 北京理工大学 一种户外大范围自然场景的移动增强现实注册方法
CN105516566A (zh) * 2015-12-31 2016-04-20 王海忠 手持主机及包含该手持主机的虚拟现实装置
CN205594233U (zh) * 2016-05-13 2016-09-21 深圳中科呼图信息技术有限公司 一种增强现实头戴装置
CN106527684A (zh) * 2016-09-30 2017-03-22 深圳前海勇艺达机器人有限公司 基于增强现实技术进行运动的方法及装置
CN106730814A (zh) * 2016-11-22 2017-05-31 深圳维京人网络科技有限公司 基于ar及人脸识别技术的海洋捕鱼类游戏
CN107024772A (zh) * 2017-04-26 2017-08-08 长春理工大学 一种消防ar头盔装置
CN108596976A (zh) * 2018-04-27 2018-09-28 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN108629830A (zh) * 2018-03-28 2018-10-09 深圳臻迪信息技术有限公司 一种三维环境信息显示方法及设备
CN109688343A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 增强现实演播室的实现方法和装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102395997A (zh) * 2009-02-13 2012-03-28 Metaio有限公司 用于确定摄像机相对于真实环境的至少一个对象的姿态的方法和系统
CN103839277A (zh) * 2014-02-21 2014-06-04 北京理工大学 一种户外大范围自然场景的移动增强现实注册方法
CN105516566A (zh) * 2015-12-31 2016-04-20 王海忠 手持主机及包含该手持主机的虚拟现实装置
CN205594233U (zh) * 2016-05-13 2016-09-21 深圳中科呼图信息技术有限公司 一种增强现实头戴装置
CN106527684A (zh) * 2016-09-30 2017-03-22 深圳前海勇艺达机器人有限公司 基于增强现实技术进行运动的方法及装置
CN106730814A (zh) * 2016-11-22 2017-05-31 深圳维京人网络科技有限公司 基于ar及人脸识别技术的海洋捕鱼类游戏
CN107024772A (zh) * 2017-04-26 2017-08-08 长春理工大学 一种消防ar头盔装置
CN109688343A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 增强现实演播室的实现方法和装置
CN108629830A (zh) * 2018-03-28 2018-10-09 深圳臻迪信息技术有限公司 一种三维环境信息显示方法及设备
CN108596976A (zh) * 2018-04-27 2018-09-28 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置、设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112346945A (zh) * 2020-10-23 2021-02-09 北京津发科技股份有限公司 人机交互数据分析方法及装置

Similar Documents

Publication Publication Date Title
CN112312979B (zh) 电磁场上的头戴式显示器与控制器的时钟同步
EP3341818B1 (en) Method and apparatus for displaying content
KR101824501B1 (ko) 헤드 마운트 디스플레이 장치의 이미지 표시 제어 장치 및 방법
JP6668170B2 (ja) 情報処理装置、情報処理方法、およびコンピュータプログラム
US11109916B2 (en) Personalized hand-eye coordinated digital stereo microscopic systems and methods
WO2017043399A1 (ja) 情報処理装置および画像生成方法
WO2017043398A1 (ja) 情報処理装置および画像生成方法
US20110304714A1 (en) Storage medium storing display control program for providing stereoscopic display desired by user with simpler operation, display control device, display control method, and display control system
JP4760896B2 (ja) カメラ制御装置及びカメラ制御方法
JP6518578B2 (ja) 表示制御装置及び表示制御方法
JP6601402B2 (ja) 制御装置、制御方法およびプログラム
JP2022184958A (ja) アニメーション制作システム
WO2021230364A1 (ja) 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム
KR20200096901A (ko) 가상 현실 (vr) 디바이스에 의해 디스플레이되는 가상 컨텐트를 네비게이트하는 방법 및 장치
CN110069135A (zh) 一种人机交互设备的数据处理方法及人机交互设备
WO2021145878A1 (en) Mobile application platform projected on a secondary display with intelligent gesture interactions
CN109144378A (zh) 数据交互方法、装置、头戴设备和控制设备
WO2021230366A1 (ja) 遠隔作業装置とそのプログラム
JP6518028B1 (ja) 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
JP2022164728A (ja) 情報処理装置および画像生成方法
JP2022153476A (ja) アニメーション制作システム
CN109213307A (zh) 一种手势识别方法及装置、系统
CN115129277A (zh) 一种交互方法、显示设备及vr设备
WO2023234097A1 (ja) ヘッドマウントディスプレイおよびコンテンツ表示システム
JP6705929B2 (ja) 表示制御装置及び表示制御方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190730

RJ01 Rejection of invention patent application after publication