CN112328086A - 基于视频识别的智能显示方法、系统、装置及存储介质 - Google Patents
基于视频识别的智能显示方法、系统、装置及存储介质 Download PDFInfo
- Publication number
- CN112328086A CN112328086A CN202011272785.XA CN202011272785A CN112328086A CN 112328086 A CN112328086 A CN 112328086A CN 202011272785 A CN202011272785 A CN 202011272785A CN 112328086 A CN112328086 A CN 112328086A
- Authority
- CN
- China
- Prior art keywords
- animation
- image
- data
- local
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请涉及交互显示技术领域,公开了一种基于视频识别的智能显示方法及其装置,基于包括多个可动分屏的显示屏,包括:拍摄显示屏前的图像数据,使用预设算法识别出图像数据中的图像目标及图像目标在图像数据中的位置坐标;根据位置坐标识别图像目标所属的局部动作;获取显示屏正在播放的预设图像,获取预设图像中多个预设深度的预设标记,根据预设深度正相关调节预设标记所在可动分屏的深度位置;从待播放动画数据中识别出动画目标以及动画目标所属的局部动画;匹配局部动作与局部动画;若匹配成功,则将预设图像渐变成动画目标所属的待播放动画数据;提高了互动体验。
Description
技术领域
本申请涉及交互显示的领域,尤其是涉及基于视频识别的智能显示方法、系统、装置及存储介质。
背景技术
随着显示屏交互技术的发展,在LED屏上加装摄像头,摄像头拍摄LED屏前的视频图像,LED屏显示摄像头拍到的画面。
在实现交互后,摄像头连接有读取视频图像的计算模块,计算模块可为移动工作站,计算模块通过模板匹配法初步识别出视频图像中的人脸图像,并标记人脸图像在视频图像中的位置,计算模块将位置发送至LED屏,LED屏显示出位置,让观察LED屏的人员能够知晓自己脸部所处的方位,实现初步的互动。
但是,现有技术中只有平面图像的变化,而没有实现3D图像变化的效果,因此体验有待提升。
发明内容
为了让交互实现3D图像变化的效果,本申请提供一种基于视频识别的智能显示方法、系统、装置及存储介质。
第一方面,本申请提供一种基于视频识别的智能显示方法,采用如下的技术方案:
一种基于视频识别的智能显示方法,基于包括多个可动分屏的显示屏,方法包括如下步骤:
拍摄所述显示屏前的图像数据,使用预设算法识别出所述图像数据中的图像目标及所述图像目标在所述图像数据中的位置坐标;
根据所述位置坐标识别所述图像目标所属的局部动作;
获取所述显示屏正在播放的预设图像,获取预设图像中多个预设深度的预设标记,根据预设深度正相关调节所述预设标记所在所述可动分屏的深度位置;
从待播放动画数据中识别出动画目标以及动画目标所属的局部动画;
匹配局部动作与局部动画;
若匹配成功,则将所述预设图像渐变成所述动画目标所属的待播放动画数据。
通过上述技术方案,先从图像数据中识别出图像目标的位置坐标,然后在位置坐标的基础识别出图像目标的局部动作,判断局部动作与局部动画动作是否对应,若对应,则播放对应的待播放动画;局部动作可为肢体动作,与肢体动作对应的局部动画用于引导可动分屏显示与动作;局部动作可为手势,与手势对应的局部动画用于引导可动分屏显示与动作,用户能同时使用动作改变显示屏的显示图像内容以及动作。
进一步的,还包括:
建立预设有多个排序的控制释义的特征解释库;
按序对应控制释义于图像数据或者显示属性;
识别出局部动画中连续的控制释义;
根据局部动画中连续的控制释义识别出当前局部动画对应的特征解释库,并播放特征解释库中的内容,特征解释库中的内容播放完后继续播放局部动画。
通过上述技术方案,控制释义可为多个具有控制含义的词语,例如“上一项”、“下一项”或者“左移动”、“右移动”等,若识别出特征解释库中预设排序的控制示意,则播放整个特征解释库形成连招后自动播放的效果,提高互动体验。
进一步的,所述可动分屏包括播放装置,方法还包括:
建立预设有多个动画释义的动画解释库,以及预设有多个与动画释义一一对应的动作释义的显示解释库;
对应动画释义于动画数据;
对应动作释义于图像数据;
识别出局部动画中预设对应的动画释义;
根据局部动画中的动画释义在可动分屏中播放动画释义对应的动画文件,同时让可动分屏播放与动作释义对应的动作。
通过上述技术方案,动画释义可为多个具有动画含义的词语,例如“上一项”、“下一项”或者”左移动”、“右移动”等,若识别出“上一项”,则显示下一个动画数据,若识别出”左移动”、“右移动”, 动画包括图像和声音。则让音源位置相应移动;动作释义可为多个具有动作含义的词语,例如”灰度图”、“上升”、“下降”、“放大”或者“缩小”等,若识别出”灰度图”、“上升”、“下降”,则显示图像数据的灰度图,或者让可动分屏做相应动作,若识别出“放大”或者“缩小”,则放大或者缩小显示图像数据中的图像目标,然后让可动分屏扩散动作或者收缩动作放大倍数或者缩小倍数可事先设定,也可由后续语音识别出的数字而定。
进一步的,还包括:
图像目标为多个;
识别出与其中一种图像目标对应的一种动画目标后;
并列显示多个图像数据。
通过上述技术方案,在动画目标旁显示多个图像数据,形成残影的效果。
进一步的,还包括:
根据局部动画中的控制释义改变所有图像数据的控制释义。
通过上述技术方案,让不同的人能识别出同一个局部动画,提高多人互动体验。
第二方面,本申请提供一种基于视频识别的智能显示系统,采用如下技术方案:
一种基于视频识别的智能显示系统,基于包括多个可动分屏的显示屏、显示屏数据连接有控制中心模块、分别与控制中心模块数据连接的图像识别模块以及动画识别模块,图像识别模块用于采集并分析图像,动画识别模块用于采集并分析动画,控制中心模块用于接收图像以及分析结果,并将图像与分析结果显示于显示屏;
图像识别模块采集出图像数据并将图像数据发送至控制中心模块,动画识别模块可采集出待播放动画数据并将待播放动画数据发送至控制中心模块;
还包括:
图像识别模块包括摄像头以及与摄像头数据连接的识别处理器,摄像头用于采集图像数据,识别处理器用于接收图像数据并从图像数据中识别出图像目标及其在图像数据中的位置坐标;
动画识别模块包括动画采集器以及与动画采集器数据连接的分析处理器,动画采集器用于采集待播放动画数据,分析处理器用于接收待播放动画数据并从待播放动画数据中识别出动画目标以及动画目标所属的局部动画;
控制中心模块包括与识别处理器以及分析处理器数据连接的中心处理器,中心处理器数据连接有显示处理器,显示处理器与显示屏数据连接,中心处理器接收识别处理器以及分析处理器的数据,并通过显示处理器驱动显示屏显示出来;
中心处理器中包括有匹配数据组件,匹配数据组件用于匹配局部动作与局部动画,若匹配成功,则向识别处理器发送内容为根据位置坐标在图像数据中添加标记符号的标记信号;
识别处理器接收标记信号,根据标记信号按照预先设定好的指令修改并更新图像数据,识别处理器向中心处理器发送图像数据。
进一步的,分析处理器中包括:
初始特征组件,用于建立预设有多个控制释义的特征解释库;
对应释义组件,与识别处理器数据连接,用于对应控制释义于图像数据或者显示属性;
识别释义组件,用于识别出局部动画中的控制释义;
改变释义组件,用于根据局部动画中的控制释义改变图像数据的控制释义,或,根据局部动画中的控制释义改变显示属性的控制释义。
进一步的,分析处理器中包括:
多量初始组件,用于建立预设有多个动画释义的动画解释库,以及预设有多个与动画释义一一对应的动作释义的显示解释库;
多量对应组件,用于对应动画释义于图像数据,以及对应动作释义于图像数据;
多量识别组件,用于识别出局部动画中的动画释义;
多量改变组件,用于根据局部动画中的动画释义在图像数据中添加与图像数据对应的动作释义。
进一步的,图像目标为多个;
中心处理器包括识别对应组件,用于识别与其中一种图像目标对应的一种动画目标;
显示处理器包括并列显示组件,用于并列显示多个图像数据。
进一步的,还包括:
中心处理器包括全局改变组件,用于根据局部动画中的控制释义改变所有图像数据的控制释义。
第三方面,本申请提供一种基于视频识别的智能显示装置,采用如下技术方案:
一种基于视频识别的智能显示装置,运行有所述任意一种基于视频识别的智能显示系统。
第四方面,本申请提供一种计算机可读存储介质,采用如下技术方案:
一种计算机可读存储介质,存储有能够被处理器加载并执行上述任一种基于视频识别的智能显示方法的计算机程序。
与现有技术相比,本发明的有益效果是:先从图像数据中识别出图像目标的位置坐标,然后在位置坐标的基础识别出图像目标的局部动作,判断局部动作与局部动画动作是否对应,若对应,则播放对应的待播放动画;局部动作可为肢体动作,与肢体动作对应的局部动画用于引导可动分屏显示与动作;局部动作可为手势,与手势对应的局部动画用于引导可动分屏显示与动作,用户能同时使用动作改变显示屏的显示图像内容以及动作。
附图说明
图1为本发明实施例的方法流程图;
图2为本发明实施例的装置框图;
图3为本发明实施例控制中心模块的组件框图;
图4为本发明实施例分析处理器的组件框图。
附图标记:1、显示屏;2、控制中心模块;21、中心处理器;211、匹配数据组件;212、识别对应组件;213、全局改变组件;22、显示处理器;221、并列显示组件;3、图像识别模块;31、摄像头;32、识别处理器;4、动画识别模块;41、动画采集器;42、分析处理器;421、初始特征组件;422、对应释义组件;423、识别释义组件;424、改变释义组件;425、多量初始组件;426、多量对应组件;427、多量识别组件;428、多量改变组件。
具体实施方式
以下结合附图1-2对本申请作进一步详细说明。
下面结合说明书附图对本申请实施例作进一步详细描述。
本申请实施例公开一种基于视频识别的智能显示方法,如图1所示,包括如下步骤:
拍摄显示屏1前的图像数据,采集图像数据、预设图像与待播放动画数据。图像数据为平面或者立体。平面的图像数据由黑白摄像头或者彩色摄像头,而立体的图像数据则由Kinect设备采集而得。预设图像指显示屏1正在播放的图像或者动画,待播放动画数据指显示屏1准备播放的图像或者动画。预设图像与待播放动画数据可由显示芯片采集的图像或者动画经过特征识别分析而得,也可从数据库或控制器的播放列表中获取。播放的动画数据包括图像和声音,后续采集的动画数据也包括图像和声音。图像数据中包括显示屏1前方的人物及背景。
从图像数据中识别出图像目标及其在图像数据中的位置坐标,识别可采用预设算法,预设算法可为模板匹配法或者现有的基于神经网络的人脸识别算法。图像目标可为图像数据内的人脸或者肢体,可采用模板匹配的方法匹配出人脸以及人脸的局部图像、或者肢体及肢体的局部图像,识别人脸以及人脸的局部图像的算法为现有技术,此处不在赘述。识别出人脸后人脸所在图像数据上的坐标即为位置坐标。
根据位置坐标识别图像目标所属的局部动作。以位置坐标为起点对人脸的局部图像进行检测,从而能够增加人脸局部图像的准确度,图像目标为人员A,而人员A旁有人员B,避免人脸局部图像为人员B上的部位,提高了局部图像的准确度。局部动作即在时间轴上多幅局部图像的组合,多幅局部图像的变化过程也可为局部动作,例如,局部动作为嘴巴,嘴巴说话时的动作组合为局部动作。局部动作可为图像目标位置的改变,例如蹲起或者站起等动作。当图像模板为手时,局部动作可为手势,当图像模板为下肢时,局部动作可为身体姿势或者行进动作。
获取显示屏正在播放的预设图像,获取预设图像中多个预设深度的预设标记,根据预设深度正相关调节预设标记所在可动分屏的深度位置。如预设图像件为海洋中的无底洞时,无底洞对应位置的可动分屏的高度低于其它可动分屏的高度。用户可站在可动分屏上从三维的角度体验预设图像。且当预设图像变化时,可动分屏的空间位置也随与预设图像对应的预设指令而变化,即可动分屏随动于预设图像。
从待播放动画数据中识别出动画目标以及动画目标所属的局部动画。从待播放动画数据中识别出文字,动画识别技术为现有技术,可调用百度、腾讯或者华为等公司提供的动画识别程序接口进行识别,识别出待播放动画数据中含有的文字信息或者动作信息。例如,待播放动画数据包括其内含人物身体旋转的局部动画。
匹配局部动作与局部动画。当嘴部说出文字信息时或者作出动作信息时会有产生对应的动作。再例如,显示屏前的用户旋转后被识别出旋转动作,且与局部动画匹配。
若匹配成功,则将预设图像渐变成动画目标所属的待播放动画数据。通过显示屏1显示待播放动画数据。渐变式关闭预设图像,并使用待播放动画数据更新渐变式预设图像,再可动分屏随动后,从而让用户可意外地得到显示屏的响应,提高用户的体验性,而且渐变式地既能让用户延长意外体验的享受时间,又能不至于让可动分屏的动作速度过快而影响用户的姿态。
在处理待播放动画数据时,还包括:
建立预设有多个排序的控制释义的特征解释库。
按序对应控制释义于图像数据或者显示属性。
识别出局部动画中的控制释义。
根据局部动画中连续的控制释义识别出当前局部动画对应的特征解释库,并播放特征解释库中的内容,特征解释库中的内容播放完后继续播放局部动画。
控制释义可为多个具有控制含义的手势或者词语,例如“上一项”、“下一项”或者“左移动”、“右移动”等,可采用语音识别提取词语。控制释义用于控制播放内容,若识别为“上一项”,则播放待播放动画数据;若识别为“左移动”则让图像数据中的画面或者动画左移动设定距离。若识别出特征解释库中预设排序的控制示意,则播放整个特征解释库形成连招后自动播放的效果,提高互动体验。
在其它一些实施例中,还包括:
建立预设有多个动画释义的动画解释库,以及预设有多个与动画释义一一对应的动作释义的显示解释库;
对应动画释义于动画数据;
对应动作释义于图像数据;
识别出局部动画中预设对应的动画释义;
根据局部动画中的动画释义在可动分屏中播放动画释义对应的动画文件,同时让可动分屏播放与动作释义对应的动作动画。
动画释义可为多个具有动画含义的词语,例如“上一项”、“下一项”或者”左移动”、“右移动”等,若识别出“上一项”,则显示下一个动画数据,若识别出”左移动”、“右移动”,则让音源位置相应移动,每个可动分屏均可设置有独立的声音播放器。动作释义可为多个具有动作含义的词语,例如”灰度图”、“上升”、“下降”、“放大”或者“缩小”等,若识别出”灰度图”、“上升”、“下降”,则显示图像数据的灰度图,或者让可动分屏做相应动作,若识别出“放大”或者“缩小”,则放大或者缩小显示图像数据中的图像目标,然后让可动分屏扩散动作或者收缩动作放大倍数或者缩小倍数可事先设定,也可由后续语音识别出的数字而定。
在其它一些实施例中,图像目标为多个,识别出与其中一种图像目标对应的一种动画目标后,并列显示多个图像数据。在动画目标旁显示多个图像数据,形成残影的效果。当显示多个图像数据后,根据局部动画中的控制释义改变所有图像数据的控制释义。例如待播放动画数据中识别出“关闭所有图像”,则不显示所有图像数据,例如待播放动画数据中识别出“水平排列”,则将已经显示的所有图像数据水平排列。根据局部动画中的控制释义改变所有图像数据的控制释义,让不同的人能识别出同一个局部动画,提高多人互动体验。
实施原理为:先从图像数据中识别出图像目标的位置坐标,然后在位置坐标的基础识别出图像目标的局部动作,判断局部动作与局部动画动作是否对应,若对应,则播放对应的待播放动画;局部动作可为肢体动作,与肢体动作对应的局部动画用于引导可动分屏显示与动作;局部动作可为手势,与手势对应的局部动画用于引导可动分屏显示与动作,用户能同时使用动作改变显示屏的显示图像内容以及动作,提高用户的互动体验。
本申请实施例还公开一种基于视频识别的智能显示系统,如图2所示,基于包括多个可动分屏的显示屏1、显示屏1数据连接有控制中心模块2、分别与控制中心模块2数据连接的图像识别模块3以及动画识别模块4,图像识别模块3用于采集并分析图像,动画识别模块4用于采集并分析动画,控制中心模块2用于接收图像以及分析结果,并将图像与分析结果显示于显示屏1。在实际的装置中,显示屏1采用LED屏,LED屏背后设置有驱动电路以及控制中心模块2。
图像识别模块3包括摄像头31以及与摄像头31数据连接的识别处理器32,摄像头31用于采集图像数据,识别处理器32用于接收图像数据并从图像数据中识别出图像目标及其在图像数据中的位置坐标。图像识别模块3固定安装在显示屏1的上端,可包括黑白摄像头和/或彩色摄像头和/或体感摄像头。平面的图像数据由黑白摄像头或者彩色摄像头,而立体的图像数据则由Kinect设备采集而得。识别处理器32可采用嵌入式计算机,其嵌入式芯片可采用高通系列处理器。
图像识别模块3采集出图像数据并将图像数据发送至控制中心模块2。
动画识别模块4包括动画采集器41以及与动画采集器41数据连接的分析处理器42,动画采集器41用于采集待播放动画数据,分析处理器42用于接收待播放动画数据并从待播放动画数据中识别出动画目标以及动画目标所属的局部动画。动画识别模块4可采集出待播放动画数据并将待播放动画数据发送至控制中心模块2。动画采集器41可采用麦克风,分析处理器42可采用嵌入式芯片,嵌入式芯片中运行有烧固进芯片的语音识别程序,离线识别出动画中的中文。
控制中心模块2可由MCU、PLC、工业计算机、家庭计算机等构成,控制中心模块2包括与识别处理器32以及分析处理器42数据连接的中心处理器21,中心处理器21数据连接有显示处理器22,显示处理器22与显示屏1数据连接,中心处理器21接收识别处理器32以及分析处理器42的数据,并通过显示处理器22驱动显示屏1显示出来。
如图3所示,中心处理器21中包括有匹配数据组件211,匹配数据组件211可采用中心处理器21的比较器单元。比较器单元为硬件电路用于比较两个数值的大小,将局部动作的中文转换为数值a,再将局部动画的中文对应的动作的中文转换为数值b,a与b在匹配数据组件211中比较并得出数据是否一致的结果。匹配数据组件211用于匹配局部动作与局部动画,若匹配成功,则向识别处理器32发送内容为根据位置坐标在图像数据中添加标记符号的标记信号。
识别处理器32接收标记信号,根据标记信号按照预先设定好的指令修改并更新图像数据,识别处理器32向中心处理器21发送图像数据。
如图4所示,分析处理器42中包括:
初始特征组件421,用于建立预设有多个控制释义的特征解释库。初始特征组件421可采用能够掉电保存的闪存单元,闪存单元里面离线存储有设置好的特征解释库。
对应释义组件422,与识别处理器32数据连接,用于对应控制释义于图像数据或者显示属性。对应释义组件422可为对应图像数据或者显示属性的闪存单元,闪存单元内离线存储有事先对应控制释义与图像数据或者显示属性关系的关系信息。
识别释义组件423,用于识别出局部动画中的控制释义。识别释义组件423为内部离线存储有识别程序的闪存单元。改变释义组件424,用于根据局部动画中的控制释义改变图像数据的控制释义,或,根据局部动画中的控制释义改变显示属性的控制释义。改变释义组件424可为改变图像数据或者显示属性的闪存单元,闪存单元内离线存储有用于更改控制释义的控制指令。调用控制指令就能实现控制释义的更改。
在其它一些实施例中,分析处理器42中包括:多量初始组件425,用于建立预设有多个动画释义的动画解释库,以及预设有多个与动画释义一一对应的动作释义的显示解释库。多量初始组件425为多个串行连接的闪存单元,闪存单元里面离线存储有设置好的动画解释库。
多量对应组件426,用于对应动画释义于图像数据,以及对应动作释义于图像数据;多量对应组件426为多个串行连接的闪存单元,闪存单元里面离线存储有事先对应动画释义与图像数据或者显示属性关系的关系信息。
多量识别组件427,用于识别出局部动画中的动画释义。多量识别组件427为多个串行且内部离线存储有识别程序的闪存单元。
多量改变组件428,用于根据局部动画中的动画释义在图像数据中添加与图像数据对应的动作释义。多量改变组件428为多个串行连接的闪存单元,闪存单元内离线存储有用于更改动画释义的控制指令。调用控制指令就能实现动画释义的更改。
图像目标为多个。中心处理器21包括识别对应组件212,用于识别与其中一种图像目标对应的一种动画目标。显示处理器22包括并列显示组件221,用于并列显示多个图像数据,并列显示组件221可为并列排布的多个显示屏1。中心处理器21包括全局改变组件213,用于根据局部动画中的控制释义改变所有图像数据的控制释义。全局改变组件213可为闪存单元,闪存单元内离线存储有用于更改所有控制释义的全局控制指令。调用全局控制指令就能实现所有控制释义的统一更改。
本申请实施例还公开一种计算机可读存储介质,存储有能够被处理器加载并执行上述记载的基于视频识别的智能显示方法的计算机程序。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。
Claims (10)
1.一种基于视频识别的智能显示方法,基于包括多个可动分屏的显示屏(1),其特征在于,包括如下步骤:
拍摄所述显示屏(1)前的图像数据,使用预设算法识别出所述图像数据中的图像目标及所述图像目标在所述图像数据中的位置坐标;
根据所述位置坐标识别所述图像目标所属的局部动作;
循环获取所述显示屏(1)正在播放的预设图像,获取预设图像中多个预设深度的预设标记,根据预设深度正相关调节所述预设标记所在所述可动分屏的深度位置;
从待播放动画数据中识别出动画目标以及动画目标所属的局部动画;
匹配局部动作与局部动画;
若匹配成功,则将所述预设图像渐变成所述动画目标所属的待播放动画数据。
2.根据权利要求1所述的方法,其特征在于:还包括:
建立预设有多个排序的控制释义的特征解释库;
按序对应控制释义于图像数据或者显示属性;
识别出局部动画中连续的控制释义;
根据局部动画中连续的控制释义识别出当前局部动画对应的特征解释库,并播放特征解释库中的内容,特征解释库中的内容播放完后继续播放局部动画。
3.根据权利要求1所述的方法,其特征在于:所述可动分屏包括播放装置,方法还包括:
建立预设有多个动画释义的动画解释库,以及预设有多个与动画释义一一对应的动作释义的显示解释库;
对应动画释义于动画数据;
对应动作释义于图像数据;
识别出局部动画中预设对应的动画释义;
根据局部动画中的动画释义在可动分屏中播放动画释义对应的动画文件,同时让可动分屏播放与动作释义对应的动作。
4.根据权利要求1所述的方法,其特征在于:还包括:
图像目标为多个;
识别出与其中一种图像目标对应的一种动画目标后;
并列显示多个图像数据。
5.根据权利要求2所述的方法,其特征在于:还包括:
根据局部动画中的控制释义改变所有图像数据的控制释义。
6.一种基于视频识别的智能显示系统,其特征在于:基于包括多个可动分屏的显示屏(1)、显示屏(1)数据连接有控制中心模块(2)、分别与控制中心模块(2)数据连接的图像识别模块(3)以及动画识别模块(4),图像识别模块(3)用于采集并分析图像,动画识别模块(4)用于采集并分析动画,控制中心模块(2)用于接收图像以及分析结果,并将图像与分析结果显示于显示屏(1);
图像识别模块(3)采集出图像数据并将图像数据发送至控制中心模块(2),动画识别模块(4)可采集出待播放动画数据并将待播放动画数据发送至控制中心模块(2);
还包括:
图像识别模块(3)包括摄像头(31)以及与摄像头(31)数据连接的识别处理器(32),摄像头(31)用于采集图像数据,识别处理器(32)用于接收图像数据并从图像数据中识别出图像目标及其在图像数据中的位置坐标;
动画识别模块(4)包括动画采集器(41)以及与动画采集器(41)数据连接的分析处理器(42),动画采集器(41)用于采集待播放动画数据,分析处理器(42)用于接收待播放动画数据并从待播放动画数据中识别出动画目标以及动画目标所属的局部动画;
控制中心模块(2)包括与识别处理器(32)以及分析处理器(42)数据连接的中心处理器(21),中心处理器(21)数据连接有显示处理器(22),显示处理器(22)与显示屏(1)数据连接,中心处理器(21)接收识别处理器(32)以及分析处理器(42)的数据,并通过显示处理器(22)驱动显示屏(1)显示出来;
中心处理器(21)中包括有匹配数据组件(211),匹配数据组件(211)用于匹配局部动作与局部动画,若匹配成功,则向识别处理器(32)发送内容为根据位置坐标在图像数据中添加标记符号的标记信号;
识别处理器(32)接收标记信号,根据标记信号按照预先设定好的指令修改并更新图像数据,识别处理器(32)向中心处理器(21)发送图像数据。
7.根据权利要求6所述的系统,其特征在于:分析处理器(42)中包括:
初始特征组件(421),用于建立预设有多个控制释义的特征解释库;
对应释义组件(422),与识别处理器(32)数据连接,用于对应控制释义于图像数据或者显示属性;
识别释义组件(423),用于识别出局部动画中的控制释义;
改变释义组件(424),用于根据局部动画中的控制释义改变图像数据的控制释义,或,根据局部动画中的控制释义改变显示属性的控制释义。
8.根据权利要求6所述的系统,其特征在于:分析处理器(42)中包括:
多量初始组件(425),用于建立预设有多个控制释义的特征解释库,以及预设有多个与控制释义一一对应的动作释义的显示解释库;
多量对应组件(426),用于对应控制释义于图像数据,以及对应动作释义于图像数据;
多量识别组件(427),用于识别出局部动画中的控制释义;
多量改变组件(428),用于根据局部动画中的控制释义在图像数据中添加与图像数据对应的动作释义。
9.一种基于视频识别的智能显示装置,其特征在于:运行有如权利要求6至8中任意的一种系统。
10.一种计算机可读存储介质,其特征在于:存储有能够被处理器加载并执行如权利要求1至5中任意一种方法的计算机程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011272785.XA CN112328086A (zh) | 2020-11-14 | 2020-11-14 | 基于视频识别的智能显示方法、系统、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011272785.XA CN112328086A (zh) | 2020-11-14 | 2020-11-14 | 基于视频识别的智能显示方法、系统、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112328086A true CN112328086A (zh) | 2021-02-05 |
Family
ID=74318319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011272785.XA Pending CN112328086A (zh) | 2020-11-14 | 2020-11-14 | 基于视频识别的智能显示方法、系统、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112328086A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103890695A (zh) * | 2011-08-11 | 2014-06-25 | 视力移动技术有限公司 | 基于手势的接口系统和方法 |
CN108596941A (zh) * | 2018-03-09 | 2018-09-28 | 中国科学院自动化研究所 | 基于深度图像的目标体运动轨迹预测方法及系统 |
CN108776773A (zh) * | 2018-05-04 | 2018-11-09 | 华南理工大学 | 一种基于深度图像的三维手势识别方法及交互系统 |
CN109977740A (zh) * | 2017-12-28 | 2019-07-05 | 沈阳新松机器人自动化股份有限公司 | 一种基于深度图的手部跟踪方法 |
CN110021297A (zh) * | 2019-04-13 | 2019-07-16 | 上海影隆光电有限公司 | 一种基于音视频识别的智能显示方法及其装置 |
CN110049306A (zh) * | 2019-05-16 | 2019-07-23 | 京东方科技集团股份有限公司 | 一种立体显示装置以及使用方法 |
CN110826376A (zh) * | 2018-08-10 | 2020-02-21 | 广东虚拟现实科技有限公司 | 标记物识别方法、装置、终端设备及存储介质 |
-
2020
- 2020-11-14 CN CN202011272785.XA patent/CN112328086A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103890695A (zh) * | 2011-08-11 | 2014-06-25 | 视力移动技术有限公司 | 基于手势的接口系统和方法 |
CN109977740A (zh) * | 2017-12-28 | 2019-07-05 | 沈阳新松机器人自动化股份有限公司 | 一种基于深度图的手部跟踪方法 |
CN108596941A (zh) * | 2018-03-09 | 2018-09-28 | 中国科学院自动化研究所 | 基于深度图像的目标体运动轨迹预测方法及系统 |
CN108776773A (zh) * | 2018-05-04 | 2018-11-09 | 华南理工大学 | 一种基于深度图像的三维手势识别方法及交互系统 |
CN110826376A (zh) * | 2018-08-10 | 2020-02-21 | 广东虚拟现实科技有限公司 | 标记物识别方法、装置、终端设备及存储介质 |
CN110021297A (zh) * | 2019-04-13 | 2019-07-16 | 上海影隆光电有限公司 | 一种基于音视频识别的智能显示方法及其装置 |
CN110049306A (zh) * | 2019-05-16 | 2019-07-23 | 京东方科技集团股份有限公司 | 一种立体显示装置以及使用方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108875633B (zh) | 表情检测与表情驱动方法、装置和系统及存储介质 | |
CN112379812B (zh) | 仿真3d数字人交互方法、装置、电子设备及存储介质 | |
CN111897431B (zh) | 展示方法及装置、显示设备、计算机可读存储介质 | |
CN108776773B (zh) | 一种基于深度图像的三维手势识别方法及交互系统 | |
CN108564641B (zh) | 基于ue引擎的表情捕捉方法及装置 | |
US9122353B2 (en) | Kind of multi-touch input device | |
JP7168694B2 (ja) | ヒューマンフェースによる3d特殊効果生成方法、装置および電子装置 | |
CN103105924B (zh) | 人机交互方法和装置 | |
CN111638784B (zh) | 人脸表情互动方法、互动装置以及计算机存储介质 | |
CN107024989A (zh) | 一种基于Leap Motion手势识别的沙画制作方法 | |
CN109215416A (zh) | 一种基于增强现实技术的汉字辅助学习系统及方法 | |
CN114445853A (zh) | 一种视觉手势识别系统识别方法 | |
JP6651086B1 (ja) | 画像分析プログラム、情報処理端末、及び画像分析システム | |
Abdallah et al. | An overview of gesture recognition | |
CN104933278A (zh) | 一种用于言语障碍康复训练的多通道交互方法和系统 | |
CN109712246B (zh) | 一种基于生成对抗网络技术的增强现实图像上色方法 | |
CN112328086A (zh) | 基于视频识别的智能显示方法、系统、装置及存储介质 | |
CN111768729A (zh) | 一种vr场景自动解说方法、系统和存储介质 | |
CN111507139A (zh) | 图像效果生成方法、装置和电子设备 | |
Liu et al. | Gesture recognition based on Kinect | |
CN112866559B (zh) | 图像采集方法、装置、系统及存储介质 | |
CN114979789B (zh) | 一种视频展示方法、装置以及可读存储介质 | |
CN115309113A (zh) | 一种零件装配的引导方法及相关设备 | |
CN111507143B (zh) | 表情图像效果生成方法、装置和电子设备 | |
CN113158748A (zh) | 一种手部检测追踪与乐器检测的结合交互方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210205 |