CN108519822A - 基于人机交互的动作匹配系统、方法、存储介质及交互装置 - Google Patents

基于人机交互的动作匹配系统、方法、存储介质及交互装置 Download PDF

Info

Publication number
CN108519822A
CN108519822A CN201810299788.9A CN201810299788A CN108519822A CN 108519822 A CN108519822 A CN 108519822A CN 201810299788 A CN201810299788 A CN 201810299788A CN 108519822 A CN108519822 A CN 108519822A
Authority
CN
China
Prior art keywords
display unit
human
computer interaction
module
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810299788.9A
Other languages
English (en)
Inventor
刘南祥
赖锦锋
周驿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Microlive Vision Technology Co Ltd
Original Assignee
Beijing Microlive Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Microlive Vision Technology Co Ltd filed Critical Beijing Microlive Vision Technology Co Ltd
Publication of CN108519822A publication Critical patent/CN108519822A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供了一种基于人机交互的动作匹配系统、方法、计算机可读存储介质及交互装置,其中,基于人机交互的动作匹配系统包括:交互模块用于在显示单元上显示指示图像,采集人的动作图像;检测模块用于检测显示单元所处环境参数;调整模块用于根据环境参数调整显示单元的显示参数;执行模块用于根据人的动作图像与预存模板匹配,并在显示单元上显示匹配结果。

Description

基于人机交互的动作匹配系统、方法、存储介质及交互装置
技术领域
本公开涉及人工智能领域,具体而言,涉及一种基于人机交互的动作匹配系统、基于人机交互的动作匹配方法、计算机可读存储介质及人机交互装置。
背景技术
本公开对于背景技术的描述属于与本公开相关的相关技术,仅仅是用于说明和便于理解本公开的公开内容,不应理解为申请人明确认为或推定申请人认为是本公开在首次提出申请的申请日的现有技术。
近年来,动作捕捉技术已经成为人体运动姿态研究中的一项关键技术,发挥着越来越重要的作用,人们意识到非常有必要通过识别人体运动姿态实现人体动作和信息设备之间的交互功能。然而已有动作捕捉技术一般应用于大型娱乐设备、动画制作、步态分析、生物力学、人机工程等领域,而随着手机、平板电脑等移动设备的使用普及,手机、平板电脑等移动设备以简单、方便、不受时间和地点限制等特点成为人们娱乐消遣必备品,因此,将动作捕捉技术应用到手机随着手机、平板电脑等移动设备中,以使人体验良好的娱乐效果是亟待的问题。
发明内容
本公开第一方面的实施例提供了一种基于人机交互的动作匹配方法,包括:
在显示单元上显示指示图像,采集人的动作图像;
检测显示单元所处环境参数;
根据所述环境参数调整所述显示单元的显示参数;
根据所述人的动作图像与预存模板匹配,并在所述显示单元上显示匹配结果。
优选地,根据所述环境参数调整所述显示单元的显示参数包括:
根据环境光强调整所述显示单元上显示的所述指示图像。
优选地,根据所述环境参数调整所述显示单元的显示参数还包括:
根据所述环境参数调整所述显示单元上显示图像的角度。
优选地,根据所述人的动作图像与预存模板匹配,并在所述显示单元上显示匹配结果之前还包括:
根据所述环境参数在所述显示单元上显示指示图像。
优选地,在显示指示图像之前还包括:
检测人机之间的距离,当人机之间的距离在预设范围内时,准备开始在显示单元上显示指示图像。
本公开第二方面的实施例提供了一种基于人机交互的动作匹配系统,包括:交互模块,用于在显示单元上显示指示图像,采集人的动作图像;检测模块,用于检测显示单元所处环境参数;调整模块,用于根据所述环境参数调整所述显示单元的显示参数;和执行模块,用于根据所述人的动作图像与预存模板匹配,并在所述显示单元上显示匹配结果。
优选地,所述调整模块包括:人像单元,用于根据环境光强调整所述显示单元上显示所述指示图像。
优选地,所述调整模块还包括:角度单元,用于根据显示单元左右方向的倾斜角度调整所述显示单元上显示图像角度。
优选地,基于人机交互的动作匹配系统还包括:指示模块,所述指示模块根据所述环境参数在所述显示单元上显示指示信息。
优选地,基于人机交互的动作匹配系统还包括:识别模块,用于检测人机之间的距离,当人机之间的距离在预设范围内时,准备开始在显示单元上显示所述指示图像。
本公开第三方面的实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一项所述基于人机交互的动作匹配方法的步骤。
本公开第四方面的实施例提供了一种人机交互装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现上述任一项所述基于人机交互的动作匹配方法的步骤。
本公开提供的技术方案,显示单元(显示单元可为显示屏等)上显示指示图像(如呈不同姿态多个火柴人、动画、动物图像等),用户去做跟这些指示图像相同的肢体动作,使用户形成跳舞的动作,同时,采集用户的图像,对比将人的动作图像与坐标点匹配,并根据动作图像与预存模板匹配,并在显示单元上显示匹配结果(如分数和/或者动画特效),对不太会跳舞的用户有引导作用,使用户能够做标准的舞蹈动作,提高了娱乐效果,从而提高了用户的体验效果;另外,人在跳舞中容易受到环境因素(如光强、摄录人像的背景颜色、显示单元所处面的水平度等)的影响,通过检测显示单元所处环境参数,并调整显示单元的显示参数(显示单元亮度、指示图像与背景的对比度、显示图像的倾斜角度),使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作。
本公开的附加方面和优点将在下面的描述部分中变得明显,或通过本公开的实践了解到。
要理解的是,前面的一般描述和下面的详细描述两者都是示例性的,并且意图在于提供要求保护的技术的进一步说明。
附图说明
本公开的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为本公开实施例的终端设备的硬件结构示意图;
图2是本公开所述基于人机交互的动作匹配系统第一种实施例的结构框图;
图3是本公开所述基于人机交互的动作匹配系统第二种实施例的结构框图;
图4是本公开所述基于人机交互的动作匹配系统第三种实施例的结构框图;
图5是本公开所述基于人机交互的动作匹配系统第四种实施例的结构框图;
图6是本公开所述基于人机交互的动作匹配系统第五种实施例的结构框图;
图7是本公开所述基于人机交互的动作匹配方法第一种实施例的流程;
图8是本公开所述基于人机交互的动作匹配方法第二种实施例的流程;
图9是本公开所述基于人机交互的动作匹配方法第三种实施例的流程;
图10是本公开所述基于人机交互的动作匹配方法第四种实施例的流程;
图11是本公开所述基于人机交互的动作匹配方法第五种实施例的流程;
图12是本公开实施例的人机交互装置的硬件结构示意图;
图13是本公开实施例的计算机可读存储介质的示意图。
其中,图1至图6、图12和图13中附图标记与部件名称之间的对应关系为:
动作匹配系统100,交互模块101,调整模块102,人像单元1021,角度单元1022,执行模块103,指示模块104,识别模块105,1无线通信单元,2输入单元,3用户输入单元,4感测单元,5输出单元,6存储器,7接口单元,8控制器,9电源单元,80人机交互装置,801存储器,802处理器,900计算机可读存储介质,901非暂时性计算机可读指令。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面结合附图和具体实施方式对本公开进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但是,本公开还可以采用其他不同于在此描述的其他方式来实施,因此,本公开的保护范围并不受下面公开的具体实施例的限制。
下述讨论提供了本公开的多个实施例。虽然每个实施例代表了发明的单一组合,但是本公开不同实施例可以替换,或者合并组合,因此本公开也可认为包含所记载的相同和/或不同实施例的所有可能组合。因而,如果一个实施例包含A、B、C,另一个实施例包含B和D的组合,那么本公开也应视为包括含有A、B、C、D的一个或多个所有其他可能的组合的实施例,尽管该实施例可能并未在以下内容中有明确的文字记载。
如图1所示,人机交互装置即终端设备可以以各种形式来实施,本公开中的终端设备可以包括但不限于诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置、车载终端设备、车载显示终端、车载电子后视镜等等的移动终端设备以及诸如数字TV、台式计算机等等的固定终端设备。
在本公开的一个实施例中,终端设备可以包括无线通信单元1、A/V(音频/视频)输入单元2、用户输入单元3、感测单元4、输出单元5、存储器6、接口单元7、控制器8和电源单元9等等。其中,A/V(音频/视频)输入单元2包括但不限于,摄像头、前置摄像头,后置摄像头,各类音视频输入设备。本领域的技术人员应该理解,上述实施例列出的终端设备所包括的组件,不止上述所述的种类,可以包括更少或者更多的组件。
本领域的技术人员应该理解,这里描述的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,这里描述的实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,这样的实施方式可以在控制器中实施。对于软件实施,诸如过程或功能的实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储器中并且由控制器执行。
如图2所示,本公开第一方面的实施例提供的基于人机交互的动作匹配系统100包括:交互模块101、调整模块102和执行模块103。
具体地,交互模块101用于在显示单元上显示指示图像,采集人的动作图像;检测模块用于检测显示单元所处环境参数;调整模块102用于根据环境参数调整显示单元的显示参数;执行模块103用于根据人的动作图像与预存模板匹配,并在显示单元上显示匹配结果。
本公开提供的基于人机交互的动作匹配系统100,显示单元(显示单元可为显示屏等)上显示指示图像(如呈不同姿态多个火柴人、动画、动物图像等),用户去做跟这些指示图像相同的肢体动作,使用户形成跳舞的动作,同时,交互模块采集用户的图像,对比模块将人的动作图像与坐标点匹配,并根据动作图像与预存模板匹配,并在显示单元上显示匹配结果(如分数和/或者动画特效),对不太会跳舞的用户有引导作用,使用户能够做标准的舞蹈动作,提高了娱乐效果,从而提高了用户的体验效果;另外,人在跳舞中容易受到环境因素(如光强、摄录人像的背景颜色、显示单元所处面的水平度等)的影响,通过检测模块检测显示单元所处环境参数,并通过调整模块102调整显示单元的显示参数(显示单元亮度、指示图像与背景的对比度、显示图像的倾斜角度),使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作。
如图3所示,在本公开的一个实施例中,调整模块102包括:人像单元1021。
具体地,人像单元1021用于根据环境光强调整显示单元上显示指示图像。当指示图像的颜色与背景颜色相似时,用户容易看不到,人像单元1021可调整指示图像的颜色,使指示图像的颜色与背景颜色区分开来,使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作;或者,人像单元1021可调整指示图像边框的颜色,使边框的颜色与背景颜色区分开来,使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作;或者,分别调整边框的指示图像和背景的颜色,指示图像的颜色与背景颜色区分开来,使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作。本领域的技术人员应该理解,只要能够区分开指示图像与背景区分开来都应该在本公开的保护范围内,在此就不一一列举了。在本公开的一个实施例中,调整模块102还可以自动调节屏幕的亮度,使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作。
如图4所示,在本公开的一个实施例中,调整模块102还包括:角度单元1022。
具体地,角度单元1022用于根据显示单元左右方向的倾斜角度调整显示单元上显示图像角度。显示单元左右方向的倾斜角度,会使用户所看到图像也偏移一定的角度,导致用户不能准确跟着指示图像做舞蹈动作,现有的移动设备都内置水平重力感应模块,通过水平重力感应模块检测移动设备的倾斜角度,调整图像的显示角度,使用户看到的指示图像正对用户无偏移角度,使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作。
如图5所示,在本公开的一个实施例中,基于人机交互的动作匹配系统还包括:指示模块104。
具体地,指示模块104根据环境参数在显示单元上显示指示信息。显示单元的一些参数无法自动调节,如显示单元前后方向的倾斜角度、人像是否处在检测区内等,指示模块104在显示单元上显示指示信息,在显示单元上显示显示单元与水平面之间的角度最优为80°-85°,提示用户调整显示单元前后方向的倾斜角度;或者,在显示单元上提示用户显示单元用户之间的距离最优为1米-1.5米,提示用户调整显示单元与用户之间的距离。
如图6所示,在本公开的一个实施例中,基于人机交互的动作匹配系统还包括:识别模块105。
具体地,识别模块105用于检测人机之间的距离,当人机之间的距离在预设范围内时,准备开始在显示单元上显示指示图像。
在该实施例中,识别模块105的设置,一方面,能够保证用户完全处在显示单元内,能够使用户更好做舞蹈动作与显示单元上的姿态图像,从而提高了产品的使用舒适度,进而提高了产品的市场竞争力,另一方面,使用户与手机之间的距离处于合理的范围内,从而使用户能够清楚的看到显示单元上显示的内容,进而增加了产品的使用舒适,进而增加了产品的市场竞争力。
实施例1
如图7所示,本公开第二方面的实施例提供的人机交互的方法,包括:
步骤20,在显示单元上显示指示图像,采集人的动作图像;
步骤30,检测显示单元所处环境参数;
步骤40,根据环境参数调整显示单元的显示参数;
步骤60,根据人的动作图像与预存模板匹配,并在显示单元上显示匹配结果。
本公开提供的基于人机交互的动作匹配方法,显示单元(显示单元可为显示屏等)上显示指示图像(如呈不同姿态多个火柴人、动画、动物图像等),用户去做跟这些指示图像相同的肢体动作,使用户形成跳舞的动作,同时,交互模块采集用户的图像,对比模块将人的动作图像与坐标点匹配,并根据动作图像与预存模板匹配,并在显示单元上显示匹配结果(如分数和/或者动画特效),对不太会跳舞的用户有引导作用,使用户能够做标准的舞蹈动作,提高了娱乐效果,从而提高了用户的体验效果;另外,人在跳舞中容易受到环境因素(如光强、摄录人像的背景颜色、显示单元所处面的水平度等)的影响,通过检测显示单元所处环境参数,并调整显示单元的显示参数(显示单元亮度、指示图像与背景的对比度、显示图像的倾斜角度),使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作。
实施例2
如图8所示,在本公开的一个实施例中,步骤40包括:
步骤41,根据环境光强调整显示单元上显示的指示图像。
在本实施例中基于人机交互的动作匹配方法包括:
步骤20,在显示单元上显示指示图像,采集人的动作图像;
步骤30,检测显示单元所处环境参数;
步骤41,根据环境光强调整显示单元上显示指示图像;
步骤60,根据人的动作图像与预存模板匹配,并在显示单元上显示匹配结果。
在该实施例中,当指示图像的颜色与背景颜色相似时,用户容易看不到,人像单元可调整指示图像的颜色,使指示图像的颜色与背景颜色区分开来,使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作;或者,人像单元可调整指示图像边框的颜色,使边框的颜色与背景颜色区分开来,使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作;或者,分别调整边框的指示图像和背景的颜色,指示图像的颜色与背景颜色区分开来,使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作。本领域的技术人员应该理解,只要能够区分开指示图像与背景区分开来都应该在本公开的保护范围内,在此就不一一列举了。在本公开的一个实施例中,还可以自动调节屏幕的亮度,使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作。
实施例3
如图9所示,在本公开的一个实施例中,步骤40还包括:
步骤42,根据环境参数调整显示单元上显示图像的角度。
在本实施例中基于人机交互的动作匹配方法包括:
步骤20,在显示单元上显示指示图像,采集人的动作图像;
步骤30,检测显示单元所处环境参数;
步骤41,根据环境光强调整显示单元上显示的指示图像;
步骤42,根据环境参数调整显示单元上显示图像的角度;
步骤60,根据人的动作图像与预存模板匹配,并在显示单元上显示匹配结果。
在该实施例中,显示单元左右方向的倾斜角度,会使用户所看到图像也偏移一定的角度,导致用户不能准确跟着指示图像做舞蹈动作,现有的移动设备都内置水平重力感应模块,通过水平重力感应模块检测移动设备的倾斜角度,调整图像的显示角度,使用户看到的指示图像正对用户无偏移角度,使用户更加清楚准确的看清楚显示单元上的指示图像,从而用户更准确的做舞蹈动作。
实施例4
如图10所示,在本公开的一个实施例中,步骤60之前还包括:
步骤50,根据环境参数在显示单元上显示指示图像。
在本实施例中基于人机交互的动作匹配方法包括:
步骤20,在显示单元上显示指示图像,采集人的动作图像;
步骤30,检测显示单元所处环境参数;
步骤40,根据环境参数调整显示单元的显示参数;
步骤50,根据环境参数在显示单元上显示指示图像;
步骤60,根据人的动作图像与预存模板匹配,并在显示单元上显示匹配结果。
在该实施例中,显示单元的一些参数无法自动调节,如显示单元前后方向的倾斜角度、人像是否处在检测区内等,在显示单元上显示指示信息,在显示单元上显示显示单元与水平面之间的角度最优为80°-85°,提示用户调整显示单元前后方向的倾斜角度;或者,在显示单元上显示显示单元用户之间的距离最优为1米-1.5米,提示用户调整显示单元与用户之间的距离。
实施例5
如图11所示,在本公开的一个实施例中,步骤20之前还包括:
步骤10,检测人机之间的距离,当人机之间的距离在预设范围内时,准备开始在显示单元上显示指示图像。
在本实施例中基于人机交互的动作匹配方法包括:
步骤10,检测人机之间的距离,当人机之间的距离在预设范围内时,准备开始在显示单元上显示指示图像;
步骤20,在显示单元上显示指示图像,采集人的动作图像;
步骤30,检测显示单元所处环境参数;
步骤40,根据环境参数调整显示单元的显示参数;
步骤60,根据人的动作图像与预存模板匹配,并在显示单元上显示匹配结果。
在该实施例中,在该实施例中,识别步骤的设置,一方面,能够保证用户完全处在显示单元的显示区域内,能够使用户更好做舞蹈动作与显示单元上的姿态图像,从而提高了产品的使用舒适度,进而提高了产品的市场竞争力,另一方面,使用户与手机之间的距离处于合理的范围内,从而使用户能够清楚的看到显示单元上显示的内容,进而增加了产品的使用舒适,进而增加了产品的市场竞争力。
如图12所示,本公开第三方面的实施例提供的计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一项基于人机交互的动作匹配方法的步骤。其中,计算机可读存储介质可以包括但不限于任何类型的盘,包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等等)、静态随机访问存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、软盘、光盘、DVD、CD-ROM、微型驱动器以及磁光盘、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、闪速存储器设备、磁卡或光卡、纳米系统(包括分子存储器IC),或适合于存储指令和/或数据的任何类型的媒介或设备。在本公开的一个实施例中,计算机可读存储介质900其上存储有非暂时性计算机可读指令901。当所述非暂时性计算机可读指令901由处理器运行时,执行参照上述描述的根据本公开实施例的基于人体动态姿态的人机交互方法。
本公开第四方面的实施例提供的人机交互装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现上述任一项基于人机交互的动作匹配方法方法的步骤。
在本公开的一个实施例中,存储器用于存储非暂时性计算机可读指令。具体地,存储器可以包括一个或多个计算机程序产品,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在本公开的一个实施例中,处理器可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制人机交互装置中的其它组件以执行期望的功能。在本公开的一个实施例中,处理器用于运行存储器中存储的计算机可读指令,使得人机交互装置执行上述交互方法。
在本公开的一个实施例中,如图13所示,人机交互装置80包括存储器801和处理器802。人机交互装置80中的各组件通过总线系统和/或其它形式的连接机构(未示出)互连。
存储器801用于存储非暂时性计算机可读指令。具体地,存储器801可以包括一个或多个计算机程序产品,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。
处理器802可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制人机交互装置80中的其它组件以执行期望的功能。在本公开的一个实施例中,所述处理器802用于运行存储器801中存储的计算机可读指令,使得人机交互装置80执行上述基于人体动态姿态的人机交互方法。人机交互装置与上述基于人体动态姿态的人机交互方法描述的实施例相同,在此将省略其重复描述。
在本公开的一个实施例中,人机交互装置为移动设备,移动设备的摄像头采集用户的图像,通过移动设备下载与指令相对应的歌曲、指示图像和预存模板,歌曲指示图像和预存模板下载好后,移动设备的显示单元上出现识别框(该识别框可为人形框),通过调整用户与移动设备的距离,将用户的图像处于识别框内,移动设备开始播放音乐,同时显示单元上显示多个指示图像(可以显示为如亮点、星星、圆环等图形),用户开始做舞蹈动作,以使自己的肢体动作与这些预存模板匹配,根据用户的动作与预存模板的匹配程度,在显示单元上显示分数和/或动画(动画可为perfect、good、great、miss等数字动画,或者从在显示单元上显示下心雨、下星星雨等特效),音乐播放完成后,移动设备的显示单元上显示分数和等级,用户可将自己的跳舞视频下载下来或者分享出去或者进入排行榜,移动设备可为手机、平板电脑等。
在本公开中,术语“多个”则指两个或两个以上,除非另有明确的限定。术语“安装”、“相连”、“连接”、“固定”等术语均应做广义理解,例如,“连接”可以是固定连接,也可以是可拆卸连接,或一体地连接;“相连”可以是直接相连,也可以通过中间媒介间接相连。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本公开中的具体含义。
在本说明书的描述中,术语“一个实施例”、“一些实施例”、“具体实施例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或特点包含于本公开的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或实例。而且,描述的具体特征、结构、材料或特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (12)

1.一种基于人机交互的动作匹配方法,其特征在于,包括:
在显示单元上显示指示图像,采集人的动作图像;
检测显示单元所处环境参数;
根据所述环境参数调整所述显示单元的显示参数;
根据所述人的动作图像与预存模板匹配,并在所述显示单元上显示匹配结果。
2.根据权利要求1所述的基于人机交互的动作匹配方法,其特征在于,根据所述环境参数调整所述显示单元的显示参数包括:
根据环境光强调整所述显示单元上显示的所述指示图像。
3.根据权利要求2所述的基于人机交互的动作匹配方法,其特征在于,根据所述环境参数调整所述显示单元的显示参数还包括:
根据所述环境参数调整所述显示单元上显示图像的角度。
4.根据权利要求1所述的基于人机交互的动作匹配方法,其特征在于,根据所述人的动作图像与预存模板匹配,并在所述显示单元上显示匹配结果之前还包括:
根据所述环境参数在所述显示单元上显示指示图像。
5.根据权利要求1所述的基于人机交互的动作匹配方法,其特征在于,在显示指示图像之前还包括:
检测人机之间的距离,当人机之间的距离在预设范围内时,准备开始在显示单元上显示指示图像。
6.一种基于人机交互的动作匹配系统,其特征在于,包括:
交互模块,用于在显示单元上显示指示图像,采集人的动作图像;
检测模块,用于检测显示单元所处环境参数;
调整模块,用于根据所述环境参数调整所述显示单元的显示参数;和
执行模块,用于根据所述人的动作图像与预存模板匹配,并在所述显示单元上显示匹配结果。
7.根据权利要求6所述的基于人机交互的动作匹配系统,其特征在于,所述调整模块包括:
人像单元,用于根据环境光强调整所述显示单元上显示所述指示图像。
8.根据权利要求7所述的基于人机交互的动作匹配系统,其特征在于,所述调整模块还包括:
角度单元,用于根据显示单元左右方向的倾斜角度调整所述显示单元上显示图像角度。
9.根据权利要求6所述的基于人机交互的动作匹配系统,其特征在于,还包括:
指示模块,所述指示模块根据所述环境参数在所述显示单元上显示指示信息。
10.根据权利要求6所述的基于人机交互的动作匹配系统,其特征在于,还包括:
识别模块,用于检测人机之间的距离,当人机之间的距离在预设范围内时,准备开始在显示单元上显示所述指示图像。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现所述权利要求1-5中任一项所述基于人机交互的动作匹配方法的步骤。
12.一种人机交互装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时实现所述权利要求1-5中任一项所述基于人机交互的动作匹配方法的步骤。
CN201810299788.9A 2018-03-29 2018-04-04 基于人机交互的动作匹配系统、方法、存储介质及交互装置 Pending CN108519822A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810274490 2018-03-29
CN2018102744902 2018-03-29

Publications (1)

Publication Number Publication Date
CN108519822A true CN108519822A (zh) 2018-09-11

Family

ID=63431968

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810299788.9A Pending CN108519822A (zh) 2018-03-29 2018-04-04 基于人机交互的动作匹配系统、方法、存储介质及交互装置

Country Status (1)

Country Link
CN (1) CN108519822A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110007765A (zh) * 2019-04-11 2019-07-12 上海星视度科技有限公司 一种人机交互方法、装置及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102500094A (zh) * 2011-10-28 2012-06-20 北京航空航天大学 一种基于kinect的动作训练方法
CN102724449A (zh) * 2011-03-31 2012-10-10 青岛海信电器股份有限公司 互动式电视机和利用显示装置实现与用户互动的方法
CN105607796A (zh) * 2015-09-25 2016-05-25 宇龙计算机通信科技(深圳)有限公司 解锁界面显示方法、解锁界面显示装置和终端
CN107179889A (zh) * 2016-03-09 2017-09-19 阿里巴巴集团控股有限公司 界面色彩调节方法、网页色彩调节方法及装置
CN107784872A (zh) * 2016-08-24 2018-03-09 南京乐朋电子科技有限公司 智能舞步辅导教学系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102724449A (zh) * 2011-03-31 2012-10-10 青岛海信电器股份有限公司 互动式电视机和利用显示装置实现与用户互动的方法
CN102500094A (zh) * 2011-10-28 2012-06-20 北京航空航天大学 一种基于kinect的动作训练方法
CN105607796A (zh) * 2015-09-25 2016-05-25 宇龙计算机通信科技(深圳)有限公司 解锁界面显示方法、解锁界面显示装置和终端
CN107179889A (zh) * 2016-03-09 2017-09-19 阿里巴巴集团控股有限公司 界面色彩调节方法、网页色彩调节方法及装置
CN107784872A (zh) * 2016-08-24 2018-03-09 南京乐朋电子科技有限公司 智能舞步辅导教学系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110007765A (zh) * 2019-04-11 2019-07-12 上海星视度科技有限公司 一种人机交互方法、装置及设备

Similar Documents

Publication Publication Date Title
US10484508B2 (en) Sharing in an augmented and/or virtual reality environment
US10748342B2 (en) Interaction system for augmented reality objects
US20190392640A1 (en) Presentation of augmented reality images at display locations that do not obstruct user's view
JP5879637B2 (ja) 直観的コンピューティング方法及びシステム
CN105031919B (zh) 用于增强现实角色维持并体现观察者的认知的方法
JP5843207B2 (ja) 直観的コンピューティング方法及びシステム
CN109189879B (zh) 电子书籍显示方法及装置
CN108491534B (zh) 虚拟环境中的信息展示方法、装置及计算机设备
CN108416825A (zh) 动态图的生成装置、方法及计算机可读存储介质
CN108694073B (zh) 虚拟场景的控制方法、装置、设备及存储介质
US11853895B2 (en) Mirror loss neural networks
CN108536293A (zh) 人机交互系统、方法、计算机可读存储介质及交互装置
TW201214299A (en) Selecting view orientation in portable device via image analysis
WO2020019665A1 (zh) 基于人脸的三维特效生成方法、装置和电子设备
TW201214199A (en) A system for portable tangible interaction
US11493988B2 (en) Guidance information relating to a target image
CN109634489A (zh) 发表评论的方法、装置、设备及可读存储介质
WO2022048398A1 (zh) 多媒体数据拍摄方法及终端
US20220300066A1 (en) Interaction method, apparatus, device and storage medium
US10248306B1 (en) Systems and methods for end-users to link objects from images with digital content
CN108874120A (zh) 人机交互系统、方法、计算机可读存储介质及交互装置
CN108519822A (zh) 基于人机交互的动作匹配系统、方法、存储介质及交互装置
CN108509047A (zh) 动作匹配结果确定装置、方法、可读存储介质及交互装置
CN108563331A (zh) 动作匹配结果确定装置、方法、可读存储介质及交互装置
CN111191579A (zh) 物品检测方法、装置、终端及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180911

RJ01 Rejection of invention patent application after publication