CN106095098A - 体感交互装置以及体感交互方法 - Google Patents

体感交互装置以及体感交互方法 Download PDF

Info

Publication number
CN106095098A
CN106095098A CN201610409608.9A CN201610409608A CN106095098A CN 106095098 A CN106095098 A CN 106095098A CN 201610409608 A CN201610409608 A CN 201610409608A CN 106095098 A CN106095098 A CN 106095098A
Authority
CN
China
Prior art keywords
body feeling
feeling interaction
interaction device
acquisition units
projecting cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610409608.9A
Other languages
English (en)
Inventor
黄源浩
肖振中
刘龙
许星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Orbbec Co Ltd
Original Assignee
Shenzhen Orbbec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Orbbec Co Ltd filed Critical Shenzhen Orbbec Co Ltd
Priority to CN201610409608.9A priority Critical patent/CN106095098A/zh
Publication of CN106095098A publication Critical patent/CN106095098A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种体感交互装置以及体感交互方法,体感交互装置包括:至少一个图像采集单元、处理单元以及至少一个投影单元,至少一个图像采集单元与至少一个投影单元均分别与处理单元电路连接,图像采集单元用于采集图像信息;处理单元用于对图像信息进行识别,根据识别结果获取对应的体感交互动作指令,根据体感交互动作指令对待显示的应用信息进行处理,并将处理后的应用信息发送至至少一个所述投影单元;投影单元用于对处理后的应用信息进行投影显示。通过上述方式,体感交互装置的图像信号采集、处理以及显示功能均集成在同一个设备体感交互装置上,使体感交互技术不在局限于有限的空间内,有效的提高了体感交互设备的可移动性。

Description

体感交互装置以及体感交互方法
技术领域
本发明涉及智能终端技术领域,特别是涉及一种体感交互装置以及体感交互方法。
背景技术
体感游戏是通过自身的身体动作来操作游戏,相较于传统的通过键盘、鼠标以及有线手柄等的游戏,体感游戏不再是手指操作运动,身体的运动量和娱乐性都得到了很大的提高,因此,体感游戏得到了很好的发展。
现有的体感游戏一般都是采用深度相机与处理设备如智能电视或计算机等智能终端设备相结合的方式来实现,即通过深度相机获取到的目标深度图像,通过有线或无线的方式传输到处理设备,二者相互配合来实现对体感动作的识别。
然而,现有的体感交互系统或设备本身体积或规模相对较大,也可能根据需要还另外添加其他多种其他的辅助设备,因此,一般情况下,体感交互操作在特定的环境或空间内进行,如在安装电视的客厅或装配有电脑的书房进行,可移动性差。
发明内容
本发明主要解决的技术问题是提供一种体感交互装置以及体感交互方法,能够有效提高体感交互系统的可移动性。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种体感交互装置,
所述体感交互装置包括:至少一个图像采集单元、处理单元以及至少一个投影单元,所述至少一个图像采集单元与所述至少一个投影单元均分别与所述处理单元电路连接,
所述图像采集单元用于采集图像信息;
所述处理单元用于对所述图像信息进行识别,根据识别结果获取对应的体感交互动作指令,根据所述体感交互动作指令对待显示的应用信息进行处理,并将处理后的应用信息发送至至少一个所述投影单元;
所述投影单元对所述处理后的应用信息进行投影显示。
其中,所述体感交互装置包括多个所述图像采集单元,多个所述图像采集单元分别位于所述体感交互装置的不同方位,用于采集目标体感对象的多个图像信息;
所述处理单元具体用于分别对所述多个图像信息进行识别,根据识别结果分别获取对应的多个体感交互动作指令,根据所述多个体感交互动作指令对待显示的应用信息进行分别处理,以得到多个处理后的应用信息,并将多个处理后的应用信息发送至所述投影单元。
其中,所述体感交互装置包括一个所述投影单元,
所述投影单元具体用于按照多个不同方位的所述图像采集单元的预设优先级别顺序,对所述多个处理后的应用信息进行投影显示。
其中,所述体感交互装置包括数量与所述图像采集单元的相同的多个投影单元,或包括一个具有与所述图像采集单元的数量相同投影区域的投影单元,每一个所述投影单元或投影区域分别对所述多个处理后的应用信息进行投影显示。
其中,所述体感交互装置包括一个所述图像采集单元,以及多个所述投影单元或一个具有多个投影区域的投影单元,所述多个投影单元或投影区域用于分别对所述处理后的应用信息进行投影显示。
其中,所述图像采集单元具体用于向目标区域投射特定编码的图像,获取所述目标区域内目标体感对象的有效的RGB图像以及红外编码图像,并根据所述RGB图像以及所述红外编码图像合成所述图像信息。
其中,所述图像采集单元进一步用于通过按照预定加权比例对所所述RGB图像以及所述红外编码图像进行插值匹配后得到所述图像信息。
其中,所述图像采集单元包括红外投影设备、RGB摄像机和红外摄像机,所述投影单元包括投影镜头。
其中,所述体感交互装置还包括网络连接单元,所述网络连接单元与所述处理单元电路连接,用于与网络服务器无线连接,以响应所述处理单元的指令并通过所述网络服务器下载应用或进行远程体感交互。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种体感交互方法,
所述体感交互方法包括如下步骤:
体感交互装置通过至少一个图像采集单元采集图像信息;
对所述图像信息进行识别,并根据识别结果获取对应的体感交互动作指令;
根据所述体感交互动作指令对待显示的应用信息进行处理,得到处理后的应用信息;
将所述处理后的应用信息通过至少一个投影单元进行投影显示。
本发明的有益效果是:区别于现有技术的情况,本实施方式的体感交互装置包括分别与处理单元电路连接的至少一个图像采集单元以及至少一个投影单元,图像采集单元采集图像信息后,将该图像信息发送至处理单元,处理单元对该图像信息进行识别,根据识别结果获取对应的体感交互动作指令,根据所述体感交互动作指令对待显示的应用信息进行处理后,将处理后的应用信息发送至该至少一个投影单元进行投影显示。通过上述方式,体感交互装置的图像信号采集、处理以及显示功能均集成在同一个设备体感交互装置上,使体感交互技术不在局限于有限的空间内,有效的提高了体感交互设备的可移动性。另外,通过投影的方式的进行显示,也使体感交互设备从体积上更加轻便,显示范围相对于现有的有限的显示设备更加广泛,应用领域也得到有效的扩展。
附图说明
图1是本发明体感交互装置第一实施方式的结构示意图;
图2是本发明体感交互装置第二实施方式的结构示意图;
图3A是本发明体感交互装置第三实施方式的结构示意图;
图3B是本发明体感交互装置第四实施方式的结构示意图;
图4是本发明体感交互装置第五实施方式的结构示意图;
图5是本发明体感交互装置第六实施方式的结构示意图;
图6是本发明体感交互装置第七实施方式的结构示意图;
图7是本发明体感交互方法一实施方式的流程示意图;
图8是本发明体感交互方法另一实施方式的流程示意图。
具体实施方式
为了实现体感交互系统的可移动性,本实施方式提供一种交互装置,其中,该体感交互装置包括图像采集单元、处理单元以及投影单元,图像采集单元与投影单元分别与处理单元电路连接。其中,本实施方式的图像采集单元可以为一个也可以为多个,投影单元可以为一个也可以为多个。
具体地,体感交互装置为了实现投影方式的体感交互操作,首先确定本次投影操作所需要的图像采集单元以及投影单元的数量,如体感交互装置包括一个图像采集单元或2个图像采集单元或者多个体感采集单元,以及包括一个投影单元或多个投影单元。并根据图像采集单元以及投影单元的数量确定本次体感交互的投影类型,其中,该投影类型包括一个图像采集单元对应多个投影单元的的模式类型,多个图像采集单元对应一个投影单元的类型,多个图像采集单元对应多个投影单元的类型中的至少一种。
在其他实施方式中,一个投影单元也可以通过设置多个投影区域来实现同时投影多个图像的操作,在此不做限定。
在一个具体的实施方式中,如图1,本实施方式的体感交互装置包括一个图像采集单元101以及一个投影单元103,图像采集单元101与投影单元103分别与处理单元102连接。
其中,该图像处理单元101用于采集图像信息。具体地,为了清楚说明其工作方式,如图2所示,图2是图1体感交互装置一实施方式的细化结构示意图。在本实施方式中,所述图像采集单元201包括依次连接的红外投影设备2011,RGB摄像机2012以及红外摄像头2013。
体感交互装置进入工作状态后,首先确定图像采集单元201的目标区域,即该图像采集单元的有效采集范围。在确定该目标区域后,红外投射设备2011向该目标区域投射经过特定编码的图像,如一些经过特定编码的光斑等图像,确定目标体感对象,RGB摄像机2012以及红外摄像机2013再分别对该目标区域进行摄像,得到目标体感对象的RGB图像以及带有红外编码的红外编码图像,利用算法如结构光算法对红外编码图像进行处理后得到目标体感对象的深度图像,将该深度图像和RGB图像进行融合后得到3D的彩色-深度(RGB-D)图像信息。
具体地,RGB摄像机2012以及红外摄像机2013是根据其二者的相对位置,并按照预定加权比例对所所述RGB图像以及所述红外编码图像进行插值匹配后得到该图像信息。其中,该图像信息中包括3D深度信息以及彩色信息。
在另一个实施方式中,体感交互装置也可以通过时间飞行法TOF得到目标体感对象的深度图像,将该深度图像和通过RGB摄像头采集的RGB图像进行融合后得到3D的彩色-深度(RGB-D)图像信息。在其他实施方式中,也可以通过其他方法,只要能够得到目标体感对象的是深度图像都属于本发明的包含的范围,在此不做限定。
在另一个实施方式中,如果目标区域内的目标体感对象多于一个,此时体感交互装置201可根据获取先后顺序确定目标体感对象的图像信息的顺序或哪个为需要执行的有效图像信息。在其他实施方式中,也可以通过其他方式来确定,如按照预先设定的方位优先级别来确定,如位于目标区域中间的目标体感对象的优先级别高于位于目标区域左边的目标体感对象,位于左边的目标体感对象的优先级别高于该目标区域右边的目标体感对象,还可以通过语音或特定的体感动作来确定有效的目标体感对象或目标体感对象的执行顺序等,在此不做限定,只要根据一定规则确定目标体感对象或其优先级别或采集图像信息顺序的方式都属于本申请保护的范围。
例如,在通过该体感交互装置进行会议时,一个图像采集单元可采集位于同一方位的多个工作人员的图像信息,或通过多个图像采集单元同时采集位于不同方位的多个工作人员图像信息,实现多方位的对该会议内容的控制。
进一步参阅图2,图像采集单元201在获取到有效的图像信息后,将该图像信息发送至处理单元202,处理单元202首先对该图像信息进行识别,如对该图像信息进行有效信息的鉴别,包括对有效姿势或动作进行识别,如用户左右摆动左右胳膊或肩膀到角度等,在此不做限定。处理单元202再根据识别结果确定当前图像信息对应的体感交互动作指令。
具体地,处理单元202根据其存储的转换参数将所述识别结果转换成与该投影设备203对应的体感交互动作指令。其中,该转化参数包括参考图像数据以及体感交互装置内部参数数据等。
处理单元202再根据该体感交互动作指令对待显示的应用信息进行处理,并将处理后的应用信息发送至投影单元203。
其中,该应用信息包括体感游戏、体感远程控制程序、会议信息、电影播放等应用中的至少一种。处理单元202根据该体感交互动作指令确定该应用信息的下一个动作或下一个画面信息,并将包含下一个画面信息的处理后的应用信息发送至投影单元203。
投影单元203用于对该处理后的应用信息进行投影显示。具体地,如图2所示,投影单元203通过投影镜头2031将该处理后的应用信息进行投影到幕布或者投影墙上显示,在此不做限定。
在另一个具体的实施方式中,如图3A所示,体感交互装置包括一个图像采集单元301以及一个具有多个投影区域的投影单元303,在另一个实施方式中,该具有多个投影区域的投影单元303也可以通过多个投影单元303来代替,如图3B所示,在此不做限定。以图3A为例,该图像采集单元301以及该投影单元303分别与处理单元302电路连接。
与上述任意实施方式相比,在本实施方式中,图像采集单元301在采集到目标体感对象的图像信息后,处理单元302在根据该一个图像采集单元301采集的图像信息获取到对应的体感交互动作指令,根据该体感交互动作指令对待显示的应用信息进行处理,并将处理后的应用信息发送至投影单元303时,投影单元303通过该多个投影区域分别对该处理后的应用信息进行显示。
在另一个具体的实施方式中,如图4所示,本实施方式的体感交互装置包括多个图像采集单元401,其中,该多个图像采集单元401分别位于该体感交互装置的不同方位。本实施方式中以包括三个图像采集单元401为例来说明,其中,该三个该图像采集单元401分别位于该体感交互装置的正前方,左侧和右侧。需要说明的是,此处的三个图像采集单元401并非限制。
如图4所示,该三个不同方位的图像采集单元401分别采集其各自目标区域内的目标体感对象的图像信息,并均将各自采集到的目标体感对象的图像信息发送至处理单元402。处理单元402对该多个图像信息分别进行识别,并根据识别结果分别获取对应的多个体感交互动作指令,再根据该多个体感交互动作指令对待显示的应用信息进行处理后得到多个处理后的应用信息,并将该多个处理后的应用信息发送至投影单元403。
在本实施方式中,该多个处理后的应用信息通过一个投影单元403进行投影显示,具体地,该投影单元403通过其投影镜头按照多个不同方位的所述图像采集单元401的优先级别顺序,对该多个处理后的应用信息依次进行投影。如当分别位于该体感交互装置的正前方,左侧和右侧的三个图像采集单元401的优先级别依次降低时,投影单元403首先对该正前方的图像采集单元401对应的处理后的应用信息进行投影显示,再对左侧的图像采集单元401对应的处理后的应用信息进行投影显示,最后再对右侧的图像采集单元401对应的处理后的应用信息进行投影显示。投影单元403还可以通过语音或者特定的体感动作对该多个图像采集单元对应的处理后的应用信息进行处理或者设置优先级别,在此不做限定。
需要说明的是,在其他实施方式中,投影单元403也可根据其他预先设定的规则依序对该多个处理后的应用信息进行投影显示,在此不做限定。
在另一个实施方式中,如图5所示,本实施方式的体感交互装置与图4所示的体感交互装置的区别在于,本实施方式的体感交互装置包括数量与图像采集单元501相同的多个投影单元503,在另一个实施方式中,该多个投影单元503也可以通过一个具有与该图像采集单元501数量相同投影区域的投影单元503,即每一个投影单元503或投影单元503的每一个投影区域对应一个图像采集单元501,每一个投影单元503或投影单元503的每一个投影区域分别对各自对应的处理后的应用信息进行投影显示。在此不做限定。
在另一个实施方式中结合上述任一实施方式,如图6所示,本实施方式的体感交互装置除了包括至少一个图像采集单元601、处理单元602以及投影单元603之外,还包括网络连接单元604,该网络连接单元604与处理单元602电路连接,用于通过无线与网络服务器连接,以响应该处理单元的指令,并通过该网络服务器下载应用、更新应用或进行远程体感交互。
具体地,在其中的一个实施方式中,体感交互装置也可通过该网络服务器与其他远程设备相连接,利用该网络服务器进行通过体感交互动作指令控制的实时的图片或视频的传输,以及通信如聊天等网络交互。
在其中的另一个实施方式中,体感交互装置还可通过该网络服务器下载器所存储的应用信息或软件程序新版本或新插件,即通过该网络服务器及时对应用、系统或程序进行更新。
在其中的另一个实施方式中,体感交互装置还可通过该网络服务器同时实现多个处理后的应用信息同时传输或远程显示。在此不做限定。
在上述任一实施方式中,该体感交互装置还包括存储单元,该存储单元用于存储各应用程序信息,该体感交互装置的特征数据、处理单元在运行过程中产生的计算运行数据,以及上层应用数据以及其他数据信息等,在此不做限定。
在上述任一实施方式中,该体感交互装置还包括音频控制单元,该音频控制单元可在图像采集装置采集图像信息的同时对目标体感对象的音频信号进行采集,并通过处理单元进行处理后,将该音频信号转换为控制指令,并通过该控制指令对待处理的应用信息进行控制。或者将该采集后的音频信号通处理单元处理后,在投影单元进行投影时同步进行播放,或在处理后的应用信息进行网络传输时,与该处理后的应用信息一同被发送至接收端,在此不做限定。
在上述任一实施方式中,该体感交互装置的一个或多个图像采集单元,一个或多个投影单元的位置,可以根据需要实时进行调整位置,在此不做限定。
区别于现有技术,本发明的体感交互装置包括分别与处理单元电路连接的至少一个图像采集单元以及至少一个投影单元,图像采集单元采集图像信息后,将该图像信息发送至处理单元,处理单元对该图像信息进行识别,根据识别结果获取对应的体感交互动作指令,根据所述体感交互动作指令对待显示的应用信息进行处理后,将处理后的应用信息发送至该至少一个投影单元进行投影显示。通过上述方式,体感交互装置的图像信号采集、处理以及显示功能均集成在同一个设备体感交互装置上,使体感交互技术不在局限于有限的空间内,有效的提高了体感交互设备的可移动性。另外,通过投影的方式的进行显示,也使体感交互设备从体积上更加轻便,显示范围相对于现有的有限的显示设备更加广泛,应用领域也得到有效的扩展。
另外,本发明的体感交互装置的图像采集单元可扩展到多个,也同时或依次采集不同方位的目标体感对象的图像信息,能够有效实现多个目标体感对象对同一应用的体感控制,为用户特别是范围较大的场合的多个用户实现体感控制提供方便。
另外,本发明的体感交互装置的投影单元或投影单元的投射区域可扩展为多个,同时或依序对一个或多个目标体感对象对应的处理后的应用信息进行投影显示,能够有效实现一个应用信息的多方位显示或多个不同的应用信息同时显示,为观看者特别是数量较大的观看者提供更加清晰时效的多方位体感交互控制体验。
另外,本发明的体感交互装置还可以与网络服务器进行无线连接,通过该网络服务器实现应用下载、应用更新以及远程体感交互,通过该网络服务器实时的对图片或视频进行传输,实现网络通信等。还可以通过该网络服务器实现多个远程设备同时操控,进一步提高用户体验以及降低操作成本与时间。
参阅图7,图7是本发明体感交互方法一实施方式的流程示意图。如图7所示,本实施方式的体感交互方法包括如下步骤:
701:体感交互装置通过至少一个图像采集单元采集图像信息。
为了实现体感交互系统的可移动性,体感交互装置首先确定本次投影类型。具体地,体感交互装置首先确定本次投影操作所需要的图像采集单元以及投影单元的数量,再根据图像采集单元以及投影单元的数量确定本次体感交互的投影类型,其中,该投影类型包括一个图像采集单元对应多个投影单元的的模式类型,多个图像采集单元对应一个投影单元的类型,多个图像采集单元对应多个投影单元的类型中的至少一种。
在其他实施方式中,一个投影单元也可以通过设置多个投影区域来实现同时投影多个图像的操作,在此不做限定。
当该体感交互装置包括多个图像采集单元时,该该多个图像采集单元分别位于该体感交互装置的不同方位。
其中,该体感交互装置的一个或多个图像采集单元,一个或多个投影单元的位置,可以根据需要实时进行调整位置,在此不做限定。
具体地,体感交互装置在确定投影类型后,根据该类型确定的一个或多个图像采集单元对其各自的目标区域即有效采集范围内的目标采集对象的图像信息进行采集。
其中,在其中的一个实施方式中,图像采集单元可通过其红外投射设备向该目标区域投射经过特定编码的图像,如一些经过特定编码的光斑等图像,确定目标体感对象,再通过其RGB摄像机以及红外摄像机分别对该目标区域进行摄像,得到目标体感对象的RGB图像以及带有红外编码的红外编码图像,利用算法如结构光算法对红外编码图像进行处理后得到目标体感对象的深度图像,将该深度图像和RGB图像进行融合后得到3D的彩色-深度(RGB-D)图像信息。
具体地,体感交互装置根据RGB摄像机以及红外摄像机的相对位置,并按照预定加权比例对所所述RGB图像以及所述红外编码图像进行插值匹配后得到该图像信息。其中,该图像信息中包括3D深度信息以及彩色信息。
在另一个实施方式中,体感交互装置也可以通过时间飞行法TOF得到目标体感对象的深度图像,将该深度图像和通过RGB摄像头采集的RGB图像进行融合后得到3D的彩色-深度(RGB-D)图像信息。在其他实施方式中,也可以通过其他方法,只要能够得到目标体感对象的是深度图像都属于本发明的包含的范围,在此不做限定。
在另一个实施方式中,如果目标区域内的目标体感对象多于一个,体感交互装置可根据获取先后顺序确定目标体感对象的图像信息的顺序或哪个为需要执行的有效图像信息。在其他实施方式中,也可以通过其他方式来确定,如按照预先设定的方位优先级别来确定,如位于目标区域中间的目标体感对象的优先级别高于位于目标区域左边的目标体感对象,位于左边的目标体感对象的优先级别高于该目标区域右边的目标体感对象,还可以通过语音或特定的体感动作来确定有效的目标体感对象或目标体感对象的执行顺序等,在此不做限定,只要根据一定规则确定目标体感对象或其优先级别或采集图像信息顺序的方式都属于本申请保护的范围。
例如,在通过该体感交互装置进行会议时,一个图像采集单元可采集位于同一方位的多个工作人员的图像信息,或通过多个图像采集单元同时采集位于不同方位的多个工作人员图像信息,实现多方位的对该会议内容的控制。
702:对所述图像信息进行识别,并根据识别结果获取对应的体感交互动作指令。
具体地,体感交互装置可通过其处理单元对其至少一个图像采集单元采集到的图形信息进行识别,如对该图像信息进行有效信息的鉴别,包括对有效姿势或动作进行识别,如用户左右摆动左右胳膊或肩膀到角度等。再根据识别结果确定当前图像信息对应的体感交互动作指令。
如果体感交互装置包括多个图像采集单元时,体感交互装置通过其处理单元对该多个图像信息分别进行识别,并根据识别结果分别获取对应的多个体感交互动作指令。
其中,该体感交互装置根据其存储的转换参数将所述识别结果转换成与该体感交互装置投射单元对应的体感交互动作指令。其中,该转化参数包括参考图像数据以及体感交互装置内部参数数据等。
703:根据所述体感交互动作指令对待显示的应用信息进行处理,得到处理后的应用信息。
其中,该应用信息包括体感游戏、体感远程控制程序、会议信息、电影播放等应用中的至少一种。例如,体感交互装置通过其处理单元根据该体感交互动作指令确定该应用信息的下一个动作或下一个画面信息。
在图像采集单元为多个,即识别结果为多个时,体感交互装置分别对该多个识别结果获取其对应的多个体感交互动作指令,再根据该多个体感交互动作指令对待显示的应用信息进行处理后得到多个处理后的应用信息。
704:将所述处理后的应用信息通过至少一个投影单元进行投影显示。
具体地,体感交互装置在得到至少一个处理后的应用信息后,将该处理后的应用信息进行投影到幕布或者投影墙上显示。具体地,可通过其投影单元的投影镜头来实现。
在其中的一个实施方式中,体感交互装置包括一个图像采集单元以及一个具有多个投影区域的投影单元或多个投影单元时,体感交互装置在得到该图像采集单元采集的图像信息对应的处理后的应用信息后,将该处理后的应用信息通过该多个投影区域或多个投影单元分别进行显示。
在其中的一个实施方式中,体感交互装置包括多个位于不同方位的图像采集单元以及一个投影单元或投影区域时,体感交互装置在得到该多个图像采集单元采集的图像信息对应的多个处理后的应用信息后,通过其投影单元的投影镜头按照多个不同方位的图像采集单元的优先级别顺序,对该多个处理后的应用信息依次进行投影。如当分别位于该体感交互装置的正前方,左侧和右侧的三个图像采集单元的优先级别依次降低时,首先对该正前方的图像采集单元对应的处理后的应用信息进行投影显示,再对左侧的图像采集单元对应的处理后的应用信息进行投影显示,最后再对右侧的图像采集单元对应的处理后的应用信息进行投影显示。还可以通过语音或者特定的体感动作对该多个图像采集单元对应的处理后的应用信息进行处理或者设置优先级别,在此不做限定。
需要说明的是,在其他实施方式中,体感交互装置也可根据其他预先设定的规则依序对该多个处理后的应用信息进行投影显示,在此不做限定。
在其中的一个实施方式中,当体感交互装置包括多个位于不同方位的图像采集单元以及数量与图像采集单元相同的多个投影单元或一个具有与该图像采集单元数量相等投影区域的投影单元,即每一个投影单元或投影单元的每一个投影区域对应一个图像采集单元时,每一个投影单元或投影单元的每一个投影区域分别将其各自对应的处理后的应用信息进行投影显示。
在另一个实施方式中,如图8所示,图8是本发明体感交互方法另一实施方式的流程示意图。本实施方式与上一个实施方式的体感交互方法的区别在于,
在步骤803:根据所述体感交互动作指令对待显示的应用信息进行处理,得到处理后的应用信息的步骤之后,还包括如下步骤:
804:将所述处理后的应用信息通过网络服务器实时传送至远程设备进行显示。
具体地,体感交互装置可通过该网络服务器与其他远程设备相连接,利用该网络服务器进行通过体感交互动作指令控制的实时的图片或视频的传输,以及通信如聊天等网络交互。
在另一个实施方式中,体感交互装置还可通过该网络服务器同时实现多个处理后的应用信息同时传输或远程显示。
在另一个实施方式中,体感交互装置还可通过该网络服务器下载器所存储的应用信息或软件程序新版本或新插件,即通过该网络服务器及时对应用、系统或程序进行更新。
在其他实施方式中,该体感交互装置在对图像信息进行采集的过程中还可以对目标体感对象的音频信号进行采集,并通过处理单元进行处理后,在投影单元进行投影时同步进行播放,或在处理后的应用信息进行网络传输时,与该处理后的应用信息一同被发送至接收端,在此不做限定。另外,在其他实施方式中,体感交互装置还可以通过处理单元对音频信号进行处理后,将该音频信号转换为控制指令,并通过该控制指令对待处理的应用信息进行控制。在此不做限定。
区别于现有技术,本发明的体感交互装置采集图像信息后,对该图像信息进行识别,根据识别结果获取对应的体感交互动作指令,根据所述体感交互动作指令对待显示的应用信息进行处理后,将处理后的应用信息发送至该至少一个投影单元进行投影显示。通过上述方式,体感交互装置的图像信号采集、处理以及显示功能均集成在同一个设备体感交互装置上,使体感交互技术不在局限于有限的空间内,有效的提高了体感交互设备的可移动性。另外,通过投影的方式的进行显示,也使体感交互设备从体积上更加轻便,显示范围相对于现有的有限的显示设备更加广泛,应用领域也得到有效的扩展。
另外,本发明的体感交互装置的图像采集单元可扩展到多个,也同时或依次采集不同方位的目标体感对象的图像信息,能够有效实现多个目标体感对象对同一应用的体感控制,为用户特别是范围较大的场合的多个用户实现体感控制提供方便。
另外,本发明的体感交互装置的投影单元或投影单元的投射区域可扩展为多个,同时或依序对一个或多个目标体感对象对应的处理后的应用信息进行投影显示,能够有效实现一个应用信息的多方位显示或多个不同的应用信息同时显示,为观看者特别是数量较大的观看者提供更加清晰时效的多方位体感交互控制体验。
另外,本发明的体感交互装置还可以与网络服务器进行无线连接,通过该网络服务器实现应用下载、应用更新以及远程体感交互,通过该网络服务器实时的对图片或视频进行传输,实现网络通信等。还可以通过该网络服务器实现多个远程设备同时操控,进一步提高用户体验以及降低操作成本与时间。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种体感交互装置,其特征在于,所述体感交互装置包括:至少一个图像采集单元、处理单元以及至少一个投影单元,所述至少一个图像采集单元与所述至少一个投影单元均分别与所述处理单元电路连接,
所述图像采集单元用于采集图像信息;
所述处理单元用于对所述图像信息进行识别,根据识别结果获取对应的体感交互动作指令,根据所述体感交互动作指令对待显示的应用信息进行处理,并将处理后的应用信息发送至至少一个所述投影单元;
所述投影单元用于对所述处理后的应用信息进行投影显示。
2.根据权利要求1所述的体感交互装置,其特征在于,所述体感交互装置包括多个所述图像采集单元,多个所述图像采集单元分别位于所述体感交互装置的不同方位,用于采集各自目标区域内目标体感对象的图像信息;
所述处理单元具体用于分别对多个所述图像信息进行识别,根据识别结果分别获取对应的多个体感交互动作指令,根据所述多个体感交互动作指令对待显示的应用信息进行分别处理,以得到多个处理后的应用信息,并将多个处理后的应用信息发送至所述投影单元。
3.根据权利要求2所述的体感交互装置,其特征在于,所述体感交互装置包括一个所述投影单元,
所述投影单元具体用于按照多个不同方位的所述图像采集单元的预设优先级别顺序,对所述多个处理后的应用信息进行投影显示。
4.根据权利要求2所述的体感交互装置,其特征在于,所述体感交互装置包括数量与所述图像采集单元相同的多个投影单元,或包括一个具有与所述图像采集单元的数量相同投影区域的投影单元,每一个所述投影单元或投影区域分别对所述多个处理后的应用信息进行投影显示。
5.根据权利要求1所述的体感交互装置,其特征在于,所述体感交互装置包括一个所述图像采集单元,以及多个所述投影单元或一个具有多个投影区域的投影单元,所述多个投影单元或投影区域用于分别对所述处理后的应用信息进行投影显示。
6.根据权利要求1~5任一项权利要求所述的体感交互装置,其特征在于,所述图像采集单元具体用于向目标区域投射特定编码的图像,获取所述目标区域内目标体感对象的有效的RGB图像以及红外编码图像,并根据所述RGB图像以及所述红外编码图像合成所述图像信息。
7.根据权利要求6所述的体感交互装置,其特征在于,所述图像采集单元进一步用于通过按照预定加权比例对所所述RGB图像以及所述红外编码图像进行插值匹配后得到所述图像信息。
8.根据权利要求6所述的体感交互装置,其特征在于,所述图像采集单元包括红外投影设备、RGB摄像机和红外摄像机,所述投影单元包括投影镜头。
9.根据权利要求1~5任一项所述的体感交互装置,所述体感交互装置还包括网络连接单元,所述网络连接单元与所述处理单元电路连接,用于与网络服务器无线连接,以响应所述处理单元的指令并通过所述网络服务器下载应用或进行远程体感交互。
10.一种体感交互方法,其特征在于,所述体感交互方法包括如下步骤:
体感交互装置通过至少一个图像采集单元采集图像信息;
对所述图像信息进行识别,并根据识别结果获取对应的体感交互动作指令;
根据所述体感交互动作指令对待显示的应用信息进行处理,得到处理后的应用信息;
将所述处理后的应用信息通过至少一个投影单元进行投影显示。
CN201610409608.9A 2016-06-07 2016-06-07 体感交互装置以及体感交互方法 Pending CN106095098A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610409608.9A CN106095098A (zh) 2016-06-07 2016-06-07 体感交互装置以及体感交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610409608.9A CN106095098A (zh) 2016-06-07 2016-06-07 体感交互装置以及体感交互方法

Publications (1)

Publication Number Publication Date
CN106095098A true CN106095098A (zh) 2016-11-09

Family

ID=57229103

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610409608.9A Pending CN106095098A (zh) 2016-06-07 2016-06-07 体感交互装置以及体感交互方法

Country Status (1)

Country Link
CN (1) CN106095098A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106708272A (zh) * 2017-01-07 2017-05-24 武克易 一种快速反应的体感学习桌
CN107229262A (zh) * 2017-06-29 2017-10-03 深圳奥比中光科技有限公司 一种智能家居系统
CN107360066A (zh) * 2017-06-29 2017-11-17 深圳奥比中光科技有限公司 一种家居服务机器人及智能家居系统
CN108227923A (zh) * 2018-01-02 2018-06-29 南京华捷艾米软件科技有限公司 一种基于体感技术的虚拟触控系统和方法
CN108269238A (zh) * 2017-01-04 2018-07-10 浙江舜宇智能光学技术有限公司 深度图像采集装置和深度图像采集系统及其图像处理方法
CN109905691A (zh) * 2017-12-08 2019-06-18 浙江舜宇智能光学技术有限公司 深度图像采集装置和深度图像采集系统及其图像处理方法
WO2020062998A1 (zh) * 2018-09-25 2020-04-02 上海瑾盛通信科技有限公司 图像处理方法、存储介质及电子设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101650624A (zh) * 2008-08-13 2010-02-17 英属维京群岛速位互动股份有限公司 图形化使用者界面的操控装置
CN102129152A (zh) * 2009-12-21 2011-07-20 微软公司 具有集成vcsel阵列的深度投影仪系统
CN102609087A (zh) * 2011-04-19 2012-07-25 钰创科技股份有限公司 影像互动装置、互动式影像操作系统及操作方法
WO2012157793A1 (en) * 2011-05-17 2012-11-22 Lg Electronics Inc. Gesture recognition method and apparatus
CN103106604A (zh) * 2013-01-23 2013-05-15 东华大学 基于体感技术的3d虚拟试衣方法
CN103353935A (zh) * 2013-07-19 2013-10-16 电子科技大学 一种用于智能家居系统的3d动态手势识别方法
CN103914129A (zh) * 2013-01-04 2014-07-09 云联(北京)信息技术有限公司 一种人机交互系统及方法
CN204166480U (zh) * 2013-10-11 2015-02-18 钰创科技股份有限公司 手势遥控系统
CN105306868A (zh) * 2014-06-17 2016-02-03 三亚中兴软件有限责任公司 视频会议系统及方法
CN105446623A (zh) * 2015-11-20 2016-03-30 广景视睿科技(深圳)有限公司 一种多互动投影的方法及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101650624A (zh) * 2008-08-13 2010-02-17 英属维京群岛速位互动股份有限公司 图形化使用者界面的操控装置
CN102129152A (zh) * 2009-12-21 2011-07-20 微软公司 具有集成vcsel阵列的深度投影仪系统
CN102609087A (zh) * 2011-04-19 2012-07-25 钰创科技股份有限公司 影像互动装置、互动式影像操作系统及操作方法
WO2012157793A1 (en) * 2011-05-17 2012-11-22 Lg Electronics Inc. Gesture recognition method and apparatus
CN103914129A (zh) * 2013-01-04 2014-07-09 云联(北京)信息技术有限公司 一种人机交互系统及方法
CN103106604A (zh) * 2013-01-23 2013-05-15 东华大学 基于体感技术的3d虚拟试衣方法
CN103353935A (zh) * 2013-07-19 2013-10-16 电子科技大学 一种用于智能家居系统的3d动态手势识别方法
CN204166480U (zh) * 2013-10-11 2015-02-18 钰创科技股份有限公司 手势遥控系统
CN105306868A (zh) * 2014-06-17 2016-02-03 三亚中兴软件有限责任公司 视频会议系统及方法
CN105446623A (zh) * 2015-11-20 2016-03-30 广景视睿科技(深圳)有限公司 一种多互动投影的方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108269238A (zh) * 2017-01-04 2018-07-10 浙江舜宇智能光学技术有限公司 深度图像采集装置和深度图像采集系统及其图像处理方法
CN108269238B (zh) * 2017-01-04 2021-07-13 浙江舜宇智能光学技术有限公司 深度图像采集装置和深度图像采集系统及其图像处理方法
CN106708272A (zh) * 2017-01-07 2017-05-24 武克易 一种快速反应的体感学习桌
CN107229262A (zh) * 2017-06-29 2017-10-03 深圳奥比中光科技有限公司 一种智能家居系统
CN107360066A (zh) * 2017-06-29 2017-11-17 深圳奥比中光科技有限公司 一种家居服务机器人及智能家居系统
CN109905691A (zh) * 2017-12-08 2019-06-18 浙江舜宇智能光学技术有限公司 深度图像采集装置和深度图像采集系统及其图像处理方法
CN108227923A (zh) * 2018-01-02 2018-06-29 南京华捷艾米软件科技有限公司 一种基于体感技术的虚拟触控系统和方法
WO2020062998A1 (zh) * 2018-09-25 2020-04-02 上海瑾盛通信科技有限公司 图像处理方法、存储介质及电子设备

Similar Documents

Publication Publication Date Title
CN106095098A (zh) 体感交互装置以及体感交互方法
CN105610868B (zh) 一种信息交互的方法、设备及系统
CN104941181B (zh) 一种实现不同智能终端之间游戏实时互动的方法和装置
US8012023B2 (en) Virtual entertainment
US9746912B2 (en) Transformations for virtual guest representation
KR102077108B1 (ko) 콘텐츠 체험 서비스 제공 장치 및 그 방법
CN104623910B (zh) 舞蹈辅助特效伴侣系统及实现方法
CN108370431B (zh) 信息处理装置、信息处理方法和程序
CN106984040A (zh) 将手机作为遥控器实现多人同屏交互游戏的方法
CN104731343A (zh) 一种基于移动终端的虚拟现实人机交互儿童教育体验系统
CN107479699A (zh) 虚拟现实交互方法、装置及系统
CA2919021A1 (en) System and method of limiting processing by a 3d reconstruction system of an environment in a 3d reconstruction of an event occurring in an event space
CN104080008B (zh) 一种智能电视游戏互动系统及其方法
KR20090000013A (ko) 네트워크 게임용 보행 로봇의 게임 시스템
CN105727559A (zh) 一种基于虚拟现实健身游戏系统的健身游戏实现方法
CN103051830A (zh) 一种对所拍目标多角度实时转播的系统和方法
CN102671397A (zh) 7d影院及其交互方法
CN103607616A (zh) 基于摇一摇方法进行视频推荐的电视系统及其控制方法
CN111862711A (zh) 一种基于5g物联虚拟现实娱乐休闲学习装置
CN105006011B (zh) 真实感三维场景的体感交互式绘制系统与方法
CN106204751B (zh) 现实对象与虚拟场景的实时整合方法和整合系统
CN108837510A (zh) 信息的展示方法和装置、存储介质、电子装置
JP4399472B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
CN112085854A (zh) 一种云信息同步展示系统及方法
CN106492455A (zh) 一种足球电子互动系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20161109