CN105302314A - 一种亲子互动游戏设计方法 - Google Patents
一种亲子互动游戏设计方法 Download PDFInfo
- Publication number
- CN105302314A CN105302314A CN201510808604.3A CN201510808604A CN105302314A CN 105302314 A CN105302314 A CN 105302314A CN 201510808604 A CN201510808604 A CN 201510808604A CN 105302314 A CN105302314 A CN 105302314A
- Authority
- CN
- China
- Prior art keywords
- parent
- human body
- game
- child
- play method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明公开了一种亲子互动游戏设计方法,包括以下步骤:(1)亲子活动在游戏化认知策略指导下以肢体动作和语音自然输入方式与游戏发生交互,体感外设KINECT侦测人体感官动作,获得相应的数据流;(2)通过数据计算处理,对比内置的人体基本特征库过滤出人体图像,并进一步分析出人体骨架;(3)通过计算骨架的位置变化速度和方向,判断出玩家的具体动作和姿势,进而触发应用程序事件;(4)将互动结果以视觉和听觉的数字化界面显示。本发明改变了亲子玩家与游戏之间互动方式,让用户甩掉鼠标和键盘玩游戏,通过语言和肢体等多种形式与游戏互动,实现肌体运动与精神娱乐的交织。
Description
技术领域
本发明涉及一种游戏设计方法,特别是涉及一种亲子互动游戏设计方法。
背景技术
在人机交互研究领域中,用户接口的发展经历了早期的命令行接(CommandLineInterface,CLI)、图形用户接口(GraphicalUserInterface,GUI)、鼠标交互、触摸屏等为代表的技术进步。随着传感器技术、语音识别技术、计算机视觉的进步,可以让用户更好地利用自己的行动来对机器发出指令,达到人机合一的完美境界,即自然人机接口(NaturalUserInterface,NUI),该人机互动模式以更为自然、更具直觉性的触摸式、视觉型以及声控界面代替电脑的键盘和鼠标等外设。
KINECT是微软公司于2010年11月推出的体感外设,它实际上是一种3D体感摄影机,能够实现实时运动捕捉、麦克风输入等功能。人们可以站在KINECT前做出各种动作来与计算机交互,为实现NUI的交互提供了一个集成装置。基于KINECT的NUI交互方式,用身体和语言直接控制游戏,上手简单,操作上产生愉悦的体验感,扩增亲子互动内涵、深度和层次,达到家庭气氛和谐愉悦的目的。
发明内容
为解决现有技术的不足,本发明的目的在于,提供一种亲子互动游戏设计方法,改变了亲子玩家与游戏之间互动方式,让用户甩掉鼠标和键盘玩游戏,通过语言和肢体等多种形式与游戏互动,实现肌体运动与精神娱乐的交织。
本发明的技术方案为:一种亲子互动游戏设计方法,其特征是,包括以下步骤:
(1)亲子活动在游戏化认知策略指导下以肢体动作和语音自然输入方式与游戏发生交互,体感外设KINECT侦测人体感官动作,获得相应的数据流;
(2)通过数据计算处理,对比内置的人体基本特征库过滤出人体图像,并进一步分析出人体骨架;
(3)通过计算骨架的位置变化速度和方向,判断出玩家的具体动作和姿势,进而触发应用程序事件;
(4)将互动结果以视觉和听觉的数字化界面显示。
前述的一种亲子互动游戏设计方法,其特征是,上述步骤(1)中,所述KINECT通过摄像头和麦克风侦测人体感官动作。
前述的一种亲子互动游戏设计方法,其特征是,所述摄像头为3D深度影像摄像头和RPG摄像头,所述麦克风为阵列式麦克风。
前述的一种亲子互动游戏设计方法,其特征是,上述步骤(1)中,获得的数据流为彩色与深度数据流和声音数据流。
前述的一种亲子互动游戏设计方法,其特征是,上述步骤(1)中,所述KINECT的配置为Windows7操作系统下的VisualStu-dio2010集成开发环境。
本发明所达到的有益效果:改变了亲子玩家与游戏之间互动方式,让用户甩掉鼠标和键盘玩游戏,通过语言和肢体等多种形式与游戏互动,实现肌体运动与精神娱乐的交织,孩子愉悦与家长愉悦的互染,扩增亲子玩家身体的互动与心理的互动分享的内涵、深度和层次,增加家庭凝聚力。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图1所示,一种亲子互动游戏设计方法,包括以下步骤:
(1)亲子活动在游戏化认知策略指导下以肢体动作和语音自然输入方式与游戏发生交互,体感外设KINECT侦测人体感官动作,获得相应的数据流;
(2)通过数据计算处理,对比内置的人体基本特征库过滤出人体图像,并进一步分析出人体骨架;
(3)通过计算骨架的位置变化速度和方向,判断出玩家的具体动作和姿势,进而触发应用程序事件;
(4)将互动结果以视觉和听觉的数字化界面显示。
上述步骤(1)中,所述KINECT通过摄像头和麦克风侦测人体感官动作。所述摄像头为3D深度影像摄像头和RPG摄像头,所述麦克风为阵列式麦克风。
上述步骤(1)中,获得的数据流为彩色与深度数据流和声音数据流。
上述步骤(1)中,所述KINECT的配置为Windows7操作系统下的VisualStu-dio2010集成开发环境。
本发明改变了亲子玩家与游戏之间互动方式,让用户甩掉鼠标和键盘玩游戏,通过语言和肢体等多种形式与游戏互动,实现肌体运动与精神娱乐的交织,孩子愉悦与家长愉悦的互染,扩增亲子玩家身体的互动与心理的互动分享的内涵、深度和层次,增加家庭凝聚力。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (5)
1.一种亲子互动游戏设计方法,其特征是,包括以下步骤:
(1)亲子活动在游戏化认知策略指导下以肢体动作和语音自然输入方式与游戏发生交互,体感外设KINECT侦测人体感官动作,获得相应的数据流;
(2)通过数据计算处理,对比内置的人体基本特征库过滤出人体图像,并进一步分析出人体骨架;
(3)通过计算骨架的位置变化速度和方向,判断出玩家的具体动作和姿势,进而触发应用程序事件;
(4)将互动结果以视觉和听觉的数字化界面显示。
2.根据权利要求1所述的一种亲子互动游戏设计方法,其特征是,上述步骤(1)中,所述KINECT通过摄像头和麦克风侦测人体感官动作。
3.根据权利要求2所述的一种亲子互动游戏设计方法,其特征是,所述摄像头为3D深度影像摄像头和RPG摄像头,所述麦克风为阵列式麦克风。
4.根据权利要求1所述的一种亲子互动游戏设计方法,其特征是,上述步骤(1)中,获得的数据流为彩色与深度数据流和声音数据流。
5.根据权利要求1所述的一种亲子互动游戏设计方法,其特征是,上述步骤(1)中,所述KINECT的配置为Windows7操作系统下的VisualStu-dio2010集成开发环境。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510808604.3A CN105302314A (zh) | 2015-11-20 | 2015-11-20 | 一种亲子互动游戏设计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510808604.3A CN105302314A (zh) | 2015-11-20 | 2015-11-20 | 一种亲子互动游戏设计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105302314A true CN105302314A (zh) | 2016-02-03 |
Family
ID=55199666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510808604.3A Pending CN105302314A (zh) | 2015-11-20 | 2015-11-20 | 一种亲子互动游戏设计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105302314A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106202165A (zh) * | 2016-06-24 | 2016-12-07 | 北京小米移动软件有限公司 | 人机交互的智能学习方法及装置 |
CN108052204A (zh) * | 2017-12-27 | 2018-05-18 | 芜湖凌梦电子商务有限公司 | 一种基于体感技术的安全教育设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110111846A1 (en) * | 2008-02-14 | 2011-05-12 | Peter Ciarrocchi | Amusement pod entertainment center |
CN102662472A (zh) * | 2012-04-10 | 2012-09-12 | 苏州中科启慧软件技术有限公司 | 基于肢体动作的学习方法及其云服务系统 |
CN204129723U (zh) * | 2014-09-25 | 2015-01-28 | 广州大学 | 一种基于Kinect体感交互的课堂多媒体教学装置 |
CN104436642A (zh) * | 2014-12-17 | 2015-03-25 | 常州市勤业新村幼儿园 | 基于Kinect的幼儿舞蹈体感游戏系统及其工作方法 |
CN204406327U (zh) * | 2015-02-06 | 2015-06-17 | 长春大学 | 基于三维体感摄影机的肢体康复模拟仿真训练系统 |
CN204442589U (zh) * | 2015-04-09 | 2015-07-01 | 长春大学 | 带有3d摄像头手势识别的智能电视机 |
-
2015
- 2015-11-20 CN CN201510808604.3A patent/CN105302314A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110111846A1 (en) * | 2008-02-14 | 2011-05-12 | Peter Ciarrocchi | Amusement pod entertainment center |
CN102662472A (zh) * | 2012-04-10 | 2012-09-12 | 苏州中科启慧软件技术有限公司 | 基于肢体动作的学习方法及其云服务系统 |
CN204129723U (zh) * | 2014-09-25 | 2015-01-28 | 广州大学 | 一种基于Kinect体感交互的课堂多媒体教学装置 |
CN104436642A (zh) * | 2014-12-17 | 2015-03-25 | 常州市勤业新村幼儿园 | 基于Kinect的幼儿舞蹈体感游戏系统及其工作方法 |
CN204406327U (zh) * | 2015-02-06 | 2015-06-17 | 长春大学 | 基于三维体感摄影机的肢体康复模拟仿真训练系统 |
CN204442589U (zh) * | 2015-04-09 | 2015-07-01 | 长春大学 | 带有3d摄像头手势识别的智能电视机 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106202165A (zh) * | 2016-06-24 | 2016-12-07 | 北京小米移动软件有限公司 | 人机交互的智能学习方法及装置 |
CN108052204A (zh) * | 2017-12-27 | 2018-05-18 | 芜湖凌梦电子商务有限公司 | 一种基于体感技术的安全教育设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9933851B2 (en) | Systems and methods for interacting with virtual objects using sensory feedback | |
CA2753051C (en) | Virtual object manipulation | |
Khundam | First person movement control with palm normal and hand gesture interaction in virtual reality | |
CN102354349B (zh) | 提高孤独症儿童社会互动能力的人机互动多模态早期干预系统 | |
Bhuiyan et al. | Gesture-controlled user interfaces, what have we done and what’s next | |
KR101700468B1 (ko) | 사용자로부터 학습된 입력을 통해 비주얼 표현을 활성화하는 방법 | |
CN105765488B (zh) | 虚拟环境的运动控制 | |
EP3275514A1 (en) | Virtuality-and-reality-combined interactive method and system for merging real environment | |
GB2556347A (en) | Virtual reality | |
KR20120123330A (ko) | 프리젠테이션을 위한 카메라 탐색 | |
Liu et al. | A survey of speech-hand gesture recognition for the development of multimodal interfaces in computer games | |
KR101794233B1 (ko) | 모션 인식 및 특수 효과 제어기술을 이용한 체감형 게임 콘텐츠 제공 시스템 | |
US20140068526A1 (en) | Method and apparatus for user interaction | |
CN103207667B (zh) | 一种人机互动的控制方法及其运用 | |
CN102449576A (zh) | 姿势快捷方式 | |
CN107918482A (zh) | 沉浸式vr系统中避免过度刺激的方法与系统 | |
Kim et al. | Real-time hand gesture-based interaction with objects in 3D virtual environments | |
Sreejith et al. | Real-time hands-free immersive image navigation system using Microsoft Kinect 2.0 and Leap Motion Controller | |
CN105302314A (zh) | 一种亲子互动游戏设计方法 | |
JP2011206471A (ja) | ゲーム装置、ゲーム装置の制御方法、及びプログラム | |
Cai et al. | Gesture recognition method based on wireless data glove with sensors | |
US20230390653A1 (en) | Smoothing server for processing user interactions to control an interactive asset | |
JP5629364B2 (ja) | ゲーム装置、ゲーム装置の制御方法、及びプログラム | |
Spanogianopoulos et al. | Human computer interaction using gestures for mobile devices and serious games: A review | |
WO2010068901A3 (en) | Interface apparatus for software |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160203 |
|
RJ01 | Rejection of invention patent application after publication |