CN106886284A - 一种基于Kinect的博物馆文物交互系统 - Google Patents
一种基于Kinect的博物馆文物交互系统 Download PDFInfo
- Publication number
- CN106886284A CN106886284A CN201710042318.XA CN201710042318A CN106886284A CN 106886284 A CN106886284 A CN 106886284A CN 201710042318 A CN201710042318 A CN 201710042318A CN 106886284 A CN106886284 A CN 106886284A
- Authority
- CN
- China
- Prior art keywords
- kinect
- processing unit
- museum
- historical relic
- cultural relics
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于Kinect的博物馆文物交互系统,该系统包括Kinect数据采集设备、中央处理器、显示设备。Kinect数据采集设备将采集到的人体视频数据传输至中央处理器,中央处理器通过处理接收到的数据进行手势动作判断,生成相应控制文物的效果,并通过显示设备将结果显示出来。用户能够根据手势动作对历史文物模型进行放大、缩小、左旋转、右旋转、观看表面细节、查看内部构造,浏览历史背景、文物知识、制作工艺等操作,该系统针对人们无法近距离接触历史文物等问题,专注于文物本身,旨在帮助用户通过人机交互的方式了解历史文物,消除距离感,改变人们对博物馆的传统看法。该系统设备简单,操作便捷,适合博物馆内使用,给博物馆注入了生机。
Description
【技术领域】
本发明属于人机交互技术领域,特别涉及一种基于Kinect的博物馆文物交互系统。
【背景技术】
博物馆文物一直以来就是历史的承载,了解文物对于了解历史具有重要意义,然而事实却不尽人意。去到一个博物馆,放在展柜里的文物与人们距离感太远,想要了解它的历史背景,人们只能阅读展柜里的详细介绍,密密麻麻的文字总让人感到不适,再加上拥挤的队伍,人们根本没有时间阅读完它的资料。通过文物展柜无法接触到文物,这样去了解文物背后的历史,总让人感到疲倦乏味,提不起兴趣。目前这些困窘一直存在,也是人们对博物馆的普遍印象。
如今一些大型博物馆在电脑平板上对馆藏文物进行记录,可以让人们在博物馆大厅通过触摸屏了解文物,即“手机式”预览,且针对博物馆现状,出现了很多探索文物的方案,但现今博物馆尚不存在一种交互系统,只专注于文物本身,让人们既能够详细了解文物历史背景、文物知识、制作工艺,又能够仔细观察文物外貌、形状、细节。
【发明内容】
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于Kinect的博物馆文物交互系统,可以让人们通过交互的方式控制历史文物,近距离的查看想要观赏的文物。
本发明采用以下技术方案:
一种基于Kinect的博物馆文物交互系统,包括数据采集设备、中央处理器和显示设备,所述数据采集设备采用Kinect数据采集设备,用于采集用户的关节点的空间位置信息并发送给所述中央处理器,所述中央处理器包括处理决策单元,所述处理决策单元用于接收所述信息并对人体手势动作进行预测,根据所述预测结果选择文物模型的控制效果并传输至所述显示设备进行交互显示。
进一步的,所述处理决策单元包括数据处理单元和决策单元,所述数据处理单元提取所述关节点的空间位置信息,,并发送给所述决策单元,所述决策单元对所述骨骼数据进行分析处理用于判断手势动作。
进一步的,所述显示设备包括投影仪和显示器。
一种基于Kinect的博物馆文物交互系统的操作方法,包括以下步骤:
S1、通过Kinect数据采集设备实时获取人体关节点的空间位置信息,并将数据传输至中央处理器进行处理;
S2、中央处理器对接收到的数据进行处理,经决策单元判断出手势类型;
S3、根据判断出的手势类型生成控制信息;
S4、根据控制信息产生相应的控制效果,并将结果通过显示设备显示,如果不再继续,则系统结束。
进一步的,步骤S2中,所述决策单元通过分析速度和加速度数据得出用户两手运动的方向和状态,判断用户做出何种手势动作。
进一步的,步骤S3中,所述手势类型包括左手向右挥、右手向左挥、双手合并向外打开和双手掌心相对合拢。
进一步的,步骤S4中,所述控制信息包括放大文物、缩小文物、旋转文物和用户对文物进行浏览历史背景、文物知识、制作工艺、观看表面细节和查看内部构造操作。
与现有技术相比,本发明至少具有以下有益效果:
本发明提出一种新颖的博物馆文物交互系统,数据采集设备采用Kinect数据采集设备采集用户关节点的空间位置信息并发送给中央处理器,中央处理器的处理决策单元接收关节点的空间位置信息进行分析,从而判断出人体手势动作,根据判断的手势动作选择文物模型的控制效果并传输至显示设备进行交互显示。
进一步的,数据处理单元对获取的每帧Kinect数据进行实时预处理,首先对原始数据进行去噪处理,再给出上肢的各个骨骼点坐标,然后通过前后帧图像中骨骼点坐标值的变化计算出上肢运动的速度、加速度,并以向量的形式表示;决策单元通过分析速度和加速度数据得出用户两手运动的方向和状态,继而判断用户做出何种手势动作;本方法中通过速度向量和加速度向量去判断手势动作的方式极大的提高了实时处理的鲁棒性与准确性。
本发明还提供一种基于Kinect的博物馆文物交互系统的操作方法,通过Kinect数据采集设备实时获取人体关节点的空间位置信息,并将数据传输至中央处理器进行处理,中央处理器对接收到的数据进行处理,经决策单元判断出手势类型;根据判断出的手势类型生成控制信息;最后根据控制信息产生相应的控制效果,并将结果通过显示设备显示,如果不再继续,则系统结束,效果实时展现,用户体验效果好,观赏文物的同时满足了用户的感官体验需求。
进一步的,允许人们通过放大缩小、观看细节等具体方式了解历史文物,让人们近距离接触文物,去除展柜带来的距离感,改变人们参观博物馆的传统模式。
综上所述,本发明针对博物馆现状进行研究,系统展示形式非常适合博物馆内使用,且造价低、占地面积小、实用性高。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
【附图说明】
图1为本发明的用户使用示意图;
图2为本发明的整体结构框图;
图3为本发明的工作流程图。
其中:100.数据采集设备;200.中央处理器;210.处理决策单元;211.数据处理单元;212.决策单元;300.显示设备;310.投影仪;320.显示器。
【具体实施方式】
请参阅图1和图2所示,本发明一种基于Kinect的博物馆文物交互系统,包括:数据采集设备100、中央处理器200和显示设备300,所述数据采集设备100采用Kinect数据采集设备,用于采集用户的关节点的空间位置信息并发送给所述中央处理器200,所述中央处理器200包括处理决策单元210,所述处理决策单元210用于接收人体所述关节点的空间位置信息并对人体手势动作进行预测,根据所述预测结果选择文物模型的控制效果并传输至所述显示设备300进行交互显示。
数据采集设备100用于采集用户的关节点的空间位置信息,通过处理该关节点的空间位置信息对人体手势动作进行预测,根据预测的结果,文物产生相应的效果包括放大、缩小、左旋转、右旋转、也包括允许用户观看表面细节、查看内部构造,浏览历史背景、文物知识、制作工艺等,并将结果传输至显示设备。需要说明的是,此处效果仅作为示例,并不用于限制本发明,对文物进行其他形式的展示也应属于本发明保护范围。
显示设备300用于显示文物效果,可以是投影仪310、电视机或显示器320等显示设备。
需要说明的是,用户可以根据不同的手势动作产生不同的文物效果,不失一般性,可以举例如下:用户面对Kinect数据采集设备100站好,当检测到人体运动时开始预测,也就是说,系统根据有无人体运动作为手势预测的开始,当预测到用户做出如下手势动作时:单手向左或向右划,文物向左或向右旋转。应理解,以上仅是对一种动作对应产生一种效果的案例,还可以对其定义不同的动作及相应效果。
请参阅图2所示,本发明一种基于Kinect的博物馆文物交互系统,中央处理器200包括:处理决策单元210,其中,处理决策单元210又包括数据处理单元211和决策单元212。
中央处理器200用于接收数据采集设备100采集到的关节点的空间位置信息,处理决策单元210包括数据处理单元211和决策单元212,所述数据处理单元211提取所述关节点的空间位置信息,并将处理结果发送给所述决策单元212,所述决策单元212对所述处理结果进行分析处理用于判断手势动作。
数据处理单元211:用户使用时面对Kinect数据采集设备100,向Kinect数据采集设备100做出手势动作,数据处理单元211对Kinect数据采集设备100将采集到数据进行处理,提取其中的人体关节点的空间位置信息,并做进一步处理,数据处理单元对获取的每帧Kinect数据进行实时预处理,首先对原始数据进行去噪处理,再给出去噪后上肢的各个关节点坐标,然后通过前后帧图像中关节点坐标值的变化计算出上肢运动的速度、加速度,并以向量的形式表示,得到处理后的数据。
决策单元212:对处理后的数据进行合理分析,并判断出其为何种手势动作,通过分析速度和加速度数据得出用户两手运动的方向和状态,继而判断用户做出何种手势动作。
请参阅图3所示,本发明还提供一种基于Kinect的博物馆文物交互系统的操作方法,在提出一种新颖的文物交互系统的同时,也考虑用户使用的便捷性,包括以下步骤:
S1、Kinect采集信息。
用户首先面对Kinect站立,根据显示设备上的交互画面选择想要观赏的文物,接着通过手势控制文物,做出手势动作后,通过Kinect数据采集设备实时获取用户的人体关节点的空间位置信息,并将数据有线传输至中央处理器进行处理。
S2、判断手势类型。
中央处理器通过数据处理单元对接收到的人体关节点的空间位置信息进行处理,首先进行去噪处理,再给出去噪后的上肢的各个关节点坐标,然后通过前后帧图像中关节点坐标值的变化计算出上肢运动的速度、加速度,经决策单元分析得出用户两手运动的方向和状态,判断出手势类型。
具体分析如下:在决策单元通过设置上肢速度与加速度的阈值和方向约束来分析上肢运动状态,如当满足左手运动速度与加速度大于各自阈值,且运动方向与Kinect的X轴正方向夹角在30度以内,右手运动速度与加速度小于各自阈值或运动方向与X轴夹角大于30度,即代表此时操作为判断左手右划。其他运动状态按照相同方法分析。
S3、生成控制信息。
中央处理器根据判断出的手势类型给出文物效果,例如,判断出用户做出放大的手势动作,则会将文物进行放大处理。除此之外,系统在交互界面设有相应的图标,用户若想观看文物表面细节、查看内部构造、浏览历史背景等,通过双手隔空控制界面中的鼠标点击相应图标即可。
S4、产生控制效果。
中央处理器根据控制信息产生相应的控制效果,并将结果通过有线连接显示设备显示。
其中,上述显示设备可以为电视机显示器、投影仪等。
其中,上述Kinect数据采集设备、中央处理器和显示设备分别独立供电。
如果不再继续,则系统结束。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
Claims (7)
1.一种基于Kinect的博物馆文物交互系统,其特征在于:包括数据采集设备(100)、中央处理器(200)和显示设备(300),所述数据采集设备(100)采用Kinect数据采集设备,用于采集用户的关节点的空间位置信息并发送给所述中央处理器(200),所述中央处理器(200)包括处理决策单元(210),所述处理决策单元(210)用于接收所述信息并对人体手势动作进行预测,根据所述预测结果选择文物模型的控制效果并传输至所述显示设备(300)进行交互显示。
2.根据权利要求1所述的一种基于Kinect的博物馆文物交互系统,其特征在于:所述处理决策单元(210)包括数据处理单元(211)和决策单元(212),所述数据处理单元(211)提取所述关节点的空间位置信息,并发送给所述决策单元(212),所述决策单元(212)对所述骨骼数据进行分析处理用于判断手势动作。
3.根据权利要求1所述的一种基于Kinect的博物馆文物交互系统,其特征在于,所述显示设备(300)包括投影仪(310)和显示器(320)。
4.一种根据权利要求1至3中任一项所述基于Kinect的博物馆文物交互系统的操作方法,其特征在于,包括以下步骤:
S1、通过Kinect数据采集设备实时获取人体关节点的空间位置信息,并将数据传输至中央处理器进行处理;
S2、中央处理器对接收到的数据进行处理,经决策单元判断出手势类型;
S3、根据判断出的手势类型生成控制信息;
S4、根据控制信息产生相应的控制效果,并将结果通过显示设备显示,如果不再继续,则系统结束。
5.根据权利要求4所述的一种基于Kinect的博物馆文物交互系统的操作方法,其特征在于:步骤S2中,所述决策单元通过分析速度和加速度数据得出用户两手运动的方向和状态,判断用户做出何种手势动作。
6.根据权利要求4所述的一种基于Kinect的博物馆文物交互系统的操作方法,其特征在于:步骤S3中,所述手势类型包括左手向右挥、右手向左挥、双手合并向外打开和双手掌心相对合拢。
7.根据权利要求4所述的一种基于Kinect的博物馆文物交互系统的操作方法,其特征在于:步骤S4中,所述控制信息包括放大文物、缩小文物、旋转文物和用户对文物进行浏览历史背景、文物知识、制作工艺、观看表面细节和查看内部构造操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710042318.XA CN106886284A (zh) | 2017-01-20 | 2017-01-20 | 一种基于Kinect的博物馆文物交互系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710042318.XA CN106886284A (zh) | 2017-01-20 | 2017-01-20 | 一种基于Kinect的博物馆文物交互系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106886284A true CN106886284A (zh) | 2017-06-23 |
Family
ID=59175734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710042318.XA Pending CN106886284A (zh) | 2017-01-20 | 2017-01-20 | 一种基于Kinect的博物馆文物交互系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106886284A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107705278A (zh) * | 2017-09-11 | 2018-02-16 | 广东欧珀移动通信有限公司 | 动态效果的添加方法和终端设备 |
CN107918489A (zh) * | 2017-11-14 | 2018-04-17 | 奇酷互联网络科技(深圳)有限公司 | 一种骑行辅助装置及其设备和方法 |
CN109448129A (zh) * | 2018-10-23 | 2019-03-08 | 厦门市计量检定测试院 | 数字博物馆管理系统 |
CN111045511A (zh) * | 2018-10-15 | 2020-04-21 | 华为技术有限公司 | 基于手势的操控方法及终端设备 |
CN111640206A (zh) * | 2020-06-08 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种动态控制方法及装置 |
CN111638795A (zh) * | 2020-06-05 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种控制虚拟对象展示状态的方法及装置 |
CN113190108A (zh) * | 2021-03-26 | 2021-07-30 | 特斯联科技集团有限公司 | 一种博物馆展陈无感触摸与声音联动方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103605425A (zh) * | 2013-11-30 | 2014-02-26 | 兰州大学 | 基于Kinect的文化遗产数字化展示装置 |
CN106125928A (zh) * | 2016-06-24 | 2016-11-16 | 同济大学 | 基于Kinect的PPT演示辅助系统 |
CN106155303A (zh) * | 2015-09-14 | 2016-11-23 | 林波荣 | 一种基于手部动作捕捉的交互式建筑设计平台 |
-
2017
- 2017-01-20 CN CN201710042318.XA patent/CN106886284A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103605425A (zh) * | 2013-11-30 | 2014-02-26 | 兰州大学 | 基于Kinect的文化遗产数字化展示装置 |
CN106155303A (zh) * | 2015-09-14 | 2016-11-23 | 林波荣 | 一种基于手部动作捕捉的交互式建筑设计平台 |
CN106125928A (zh) * | 2016-06-24 | 2016-11-16 | 同济大学 | 基于Kinect的PPT演示辅助系统 |
Non-Patent Citations (1)
Title |
---|
李大丁等: ""体感技术在敦煌艺术交互展示中的应用初探"", 《敦煌研究》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107705278A (zh) * | 2017-09-11 | 2018-02-16 | 广东欧珀移动通信有限公司 | 动态效果的添加方法和终端设备 |
CN107918489A (zh) * | 2017-11-14 | 2018-04-17 | 奇酷互联网络科技(深圳)有限公司 | 一种骑行辅助装置及其设备和方法 |
CN107918489B (zh) * | 2017-11-14 | 2021-06-15 | 奇酷互联网络科技(深圳)有限公司 | 一种骑行辅助装置及其设备和方法 |
CN111045511A (zh) * | 2018-10-15 | 2020-04-21 | 华为技术有限公司 | 基于手势的操控方法及终端设备 |
CN111045511B (zh) * | 2018-10-15 | 2022-06-07 | 华为技术有限公司 | 基于手势的操控方法及终端设备 |
CN109448129A (zh) * | 2018-10-23 | 2019-03-08 | 厦门市计量检定测试院 | 数字博物馆管理系统 |
CN111638795A (zh) * | 2020-06-05 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种控制虚拟对象展示状态的方法及装置 |
CN111638795B (zh) * | 2020-06-05 | 2024-06-11 | 上海商汤智能科技有限公司 | 一种控制虚拟对象展示状态的方法及装置 |
CN111640206A (zh) * | 2020-06-08 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种动态控制方法及装置 |
CN113190108A (zh) * | 2021-03-26 | 2021-07-30 | 特斯联科技集团有限公司 | 一种博物馆展陈无感触摸与声音联动方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106886284A (zh) | 一种基于Kinect的博物馆文物交互系统 | |
WO2021244217A1 (zh) | 一种表情迁移模型的训练方法、表情迁移的方法及装置 | |
CN102253713B (zh) | 面向三维立体影像显示系统 | |
CN102129290B (zh) | 图像处理设备和对象选择方法 | |
CN103999018B (zh) | 响应三维显示对象的用户选择姿势的方法和系统 | |
CN113393489A (zh) | 基于视觉的关节动作和姿态运动预测的系统、方法和介质 | |
CN105122183B (zh) | 检测自然用户输入参与 | |
CN107850948A (zh) | 混合现实社交 | |
CN109409244B (zh) | 一种物体摆放方案的输出方法和移动终端 | |
CN106200944A (zh) | 一种对象的控制方法、控制装置和控制系统 | |
CN109218648A (zh) | 一种显示控制方法及终端设备 | |
WO2021183309A1 (en) | Real time styling of motion for virtual environments | |
CN102509092A (zh) | 体感手势识别方法 | |
CN113821720A (zh) | 一种行为预测方法、装置及相关产品 | |
CN106886285A (zh) | 一种基于虚拟现实的文物交互系统及操作方法 | |
CN110446996A (zh) | 一种控制方法、终端及系统 | |
CN107071035A (zh) | 移动终端远程控制方法、装置及相应的移动终端 | |
US20170315609A1 (en) | Method for simulating and controlling virtual sphere in a mobile device | |
EP3705981A1 (en) | Information processing device, information processing method, and program | |
CN106708255A (zh) | 虚拟界面交互控制方法及系统 | |
US20170147274A1 (en) | Separation control video system in which mobile terminal and hmd device are independently separated and operating method thereof | |
CN112818733B (zh) | 信息处理方法、装置、存储介质及终端 | |
CN118098033A (zh) | 基于混合现实技术的教学系统及方法 | |
CN111093033B (zh) | 一种信息处理方法及设备 | |
JPH0648458B2 (ja) | 情報入力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170623 |
|
RJ01 | Rejection of invention patent application after publication |