CN108989553A - 场景操控的方法、装置及电子设备 - Google Patents
场景操控的方法、装置及电子设备 Download PDFInfo
- Publication number
- CN108989553A CN108989553A CN201810699063.9A CN201810699063A CN108989553A CN 108989553 A CN108989553 A CN 108989553A CN 201810699063 A CN201810699063 A CN 201810699063A CN 108989553 A CN108989553 A CN 108989553A
- Authority
- CN
- China
- Prior art keywords
- scene
- triggering object
- movement
- area
- triggering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
本公开实施例公开了一种场景操控的方法、装置及电子设备,涉及场景操控领域。其中,场景操控方法,包括:显示场景的第一形态;识别触发对象;判断所述触发对象的动作;基于所述动作将所述场景的第一形态切换为场景的第二形态,所述场景的第一形态与所述场景的第二形态相关联。依据触发对象的动作,调用相应的设定好的场景信息,从而实现对场景的切换或对场景中某个元素的控制,并将触发对象的动作与场景相关联,不需要对现有的电子设备进行硬件升级,即可实现对电子设备中场景的控制,从而达到降低成本目的。
Description
技术领域
本公开涉及图像处理领域,尤其涉及一种场景操控的方法、装置及电子设备。
背景技术
随着人机交互技术的快速发展,手势作为一种自然而直观的交流方式,是人机交互中的一个重要组成部分。随着科学技术的迅猛发展与计算机视觉的日益普及,人们对人机交互自然性的要求越来越高,传统的基于鼠标、键盘的交互方式显示出自身的局限性,新的人机交互方式成为研究的热点。其次,手势是一种高效的人机交互和设备控制的方式,基于视觉的手势识别是人机交互、模式识别等领域的一个富有挑战性的研究课题。
目前的手势识别系统多采用以下两种:
(1)数据手套或佩戴物:此方式可降低检测和识别算法的复杂性,但佩戴式的操作方式显然难以满足自然的人机交互的需要;
(2)基于3D深度相机:3D扫描设备体积较大,硬件成本较高,所需运算能力更高,难以集成并应用到大众化的智能终端上。
发明内容
现有技术中对场景进行控制,需要基于特定的复杂器件。而在实际应用中,如在使用智能手机进行直播时,为了智能手机的便携性,智能手机中往往没有安装这些复杂的器件,另外在现有技术中,对场景的控制往往涉及场景视角的移动,与场景中物体的交互,但是并不能控制场景的形态或者无法改变场景的对象的形态
有鉴于此,本公开实施例提供了一种场景操控的方法、装置及电子设备,至少部分的解决现有技术中存在的问题。
第一方面,本公开实施例提供了一种场景操控的方法,包括:
显示场景的第一形态;
识别触发对象;
判断所述触发对象的动作;
基于所述动作将所述场景的第一形态切换为场景的第二形态,所述场景的第一形态与所述场景的第二形态相关联。
作为本公开实施例的一种具体实现方式,所述识别触发对象,包括:
获取所述触发对象的特征信息;
将所述特征信息与标准特征信息相比对;
根据比对结果识别是否为触发对象。
作为本公开实施例的一种具体实现方式,所述获取所述触发对象的特征信息,具体为:
获取所述触发对象上的关键点。
作为本公开实施例的一种具体实现方式,所述判断所述触发对象的动作,包括:
获取触发对象的第一特征信息;
获取触发对象的第二特征信息;
基于所述第一特征信息和第二特征信息判断触发对象的动作。
作为本公开实施例的一种具体实现方式,所述判断所述触发对象的动作,包括:
获取触发对象的面积;
基于所述面积判断所述触发对象的动作。
作为本公开实施例的一种具体实现方式,所述判断所述触发对象的动作,包括:
获取触发对象的第一面积;
获取触发对象的第二面积;
基于所述第一面积与所述第二面积的比对结果,判断触发对象的动作。
作为本公开实施例的一种具体实现方式,所述获取触发对象的面积,包括:
设定最小规则框,使得触发对象完全包含在最小规则框内,
计算最小规则框的面积,得到触发对象的面积。
作为本公开实施例的一种具体实现方式,所述触发对象为人手。
作为本公开实施例的一种具体实现方式,所述动作,包括张合、旋转、远近移动或手势变化。
第二方面,本公开实施例还提供了一种场景操控的装置,包括:
显示模块:显示场景的第一形态;
识别模块:用于识别触发对象;
判断模块:用于判断所述触发对象的动作;
控制模块:基于所述动作将所述场景的第一形态切换为场景的第二形态,所
述场景的第一形态与所述场景的第二形态相关联。
作为本公开实施例的一种具体实现方式,所述识别模块,包括:
特征信息获取模块:用于获取所述触发对象的特征信息;
比对模块:用于将所述特征信息与标准特征信息相比对;
触发对象判断模块:用于根据比对结果识别是否为触发对象。
作为本公开实施例的一种具体实现方式,所述获取所述触发对象的特征信息,具体为:
获取所述触发对象上的关键点。
作为本公开实施例的一种具体实现方式,所述判断模块,包括:
第一特征信息获取模块:用于获取触发对象的第一特征信息;
第二特征信息获取模块:用于获取触发对象的第二特征信息;
第一动作判断模块:用于基于所述第一特征信息和第二特征信息判断触发对象的动作。
作为本公开实施例的一种具体实现方式,所述判断模块,包括:
面积获取模块:用于获取触发对象的面积。
作为本公开实施例的一种具体实现方式,所述判断模块,包括:
第一面积获取模块:用于获取触发对象的第一面积;
第二面积获取模块:用于获取触发对象的第二面积;
第二动作判断模块:用于基于所述第一面积与所述第二面积的比对结果,判断触发对象的动作。
作为本公开实施例的一种具体实现方式,所述面积获取模块,包括:
规则框设定模块:设定最小规则框,使得触发对象完全包含在最小规则框内,
面积计算模块:计算最小规则框的面积,得到触发对象的面积。
作为本公开实施例的一种具体实现方式,所述触发对象为人手。
作为本公开实施例的一种具体实现方式,所述动作,包括张合、旋转、远近移动或手势变化。
第三方面,本公开实施例还提供了一种电子设备,该电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有能被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面任一所述的场景操控的方法。
第四方面,本公开实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行权利要求第一方面任一所述的场景操控的方法。
本公开实施例提供的场景操控的方法、装置、电子设备及非暂态计算机可读存储介质,其中该场景操控的方法:依据触发对象的动作,调用相应的设定好的场景信息,从而实现对场景的切换或对场景中某个元素的控制,并将触发对象的动作与场景相关联,不需要对现有的电子设备进行硬件升级,即可实现对电子设备中场景的控制,从而达到降低成本目的。
上述说明仅是本公开技术方案的概述,为了能更清楚了解本公开的技术手段,而可依照说明书的内容予以实施,并且为让本公开的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本公开实施例提供的一种场景操控的方法的流程图;
图2为本公开实施例提供的识别触发对象的流程图;
图3为本公开实施例提供的判断触发对象的动作的流程图;
图4为本公开实施例提供的基于面积判断触发对象的动作的示意图;
图5为本公开实施例提供的设置最小规则框的示意图;
图6为本公开实施例提供的一种场景操控的装置的原理框图;
图7为本公开实施例提供的一种电子设备的原理框图;
图8为本公开实施例提供的一种计算机可读存储介质的示意图;
图9为本公开实施例提供的一种终端的原理框图。
具体实施方式
下面结合附图对本公开实施例进行详细描述。
应当明确,以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构相,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
如图1所示,本公开实施例提供一种场景操控的方法。该场景操控的方法,包括如下步骤:
S101:显示场景的第一形态。
场景的第一形态,即场景切换前的形态,比如在一个具体的应用场景中,场景的第一形态可以是2D场景,通过手机显示出来,场景的第一形态也可以是3D场景,即在场景切换前的形态,并在显示场景的第一形态的状态下完成识别触发对象和判断所述触发对象的动作。
S102:识别触发对象。
对场景进行操控,首先要判断对象是否为触发对象,如不是触发对象则不响应,只有识别出是触发对象时,才需要进一步对触发对象是否动作,以及做出了什么样的动作进行判断,然后根据不同的动作调取不同的场景信息。
S103:判断所述触发对象的动作。
在步骤S102识别出触发对象后,需要判断该触发对象是否做出了相应的动作,判断触发对象的动作是否与保存的动作数据相比对,并判断出具体是动作数据中的那种动作。
S104:基于所述动作将所述场景的第一形态切换为场景的第二形态,所述场景的第一形态与所述场景的第二形态相关联。
在步骤S103判断出相应动作后,就需要调用与动作相对应的场景信息,并将调用的场景信息显示出来,或使用调用的场景信息与现有的场景信息进行组合从而组成新的场景信息,或使用调用的场景信息替代现有的场景信息中的某个元素,或直接用调用的场景信息替换掉现有的场景信息。
场景即有各种元素构成的画面,对场景进行操控,可以在不同场景间的切换,也可以是对同一场景中某个元素的操控,如控制场景中的某个物体(如球)远近的运动。
在一个具体的应用场景中,触发对象为手,而触发对象的动作主要为各种手势,如张合、旋转、远近移动或手势变化。具体为通过手势来来控制手机中场景的变化。
开始时,手机显示的是摄像头拍摄的实时画面,且配有背景音乐,配有背景音乐的实时画面即为场景的第一形态,如具有下雨2D贴图的场景,当摄像头拍摄到张开的人手时,首先识别人手,然后再判断人手是否做出了张开的动作,即从握拳到张开手掌。如判断人手做出了张开动作,那么则调用相应的场景信息,如3D粒子中的下雨的信息,并将下雨的信息与当前显示的拍摄的实时画面结合到一起,从而在手机上显示雨滴的3D粒子的场景,而背景音乐可以根据原有的设定进行选择,可以选择继续播放原来的背景音乐,也可以将背景音乐关闭,或者换一首与下雨场景相适配的音乐,手机上显示雨滴的3D粒子的场景即为场景的第二形态,场景的第二形态与场景的第一形态其关联是预设好的,当在场景的第一形态下检测到人手张开的动作,即调用相应的信息,将场景从第一形态转换为第二形态。
另一个具体的应用场景中,手机显示的场景为蓝天白云,当手机检测到摄像头拍摄的图像包含人手后,即当手机识别出人手后,接下来就要判断人手是否做出相对手机摄像头前后移动的动作,如判断人手做出了相对手机摄像头前后移动的动作,则调用相应的场景信息,使云彩根据手的相对移动而移动,即可以是当手靠近相机时,云彩靠近屏幕,当手远离相机时,云彩则远离屏蔽。也可以是当手靠近相机时,云彩远离屏幕,当手远离相机时,云彩则靠近屏蔽,白云移动前的场景即为场景的第一形态,白云移动后的场景即为场景的第二形态,当在场景的第一形态下检测到人手移动的动作,即调用相应的信息,将场景从第一形态转换为第二形态。
在上两个具体的应用中,手机只是为了方便理解而进行示例性说明使用,本公开本不仅仅限定于手机,如平板、便携式电脑等具有信息处理功能的电子设备均可以使用本公开的技术方案。且该应用场景中以手为触发对象只是进行示例性的描述,并不将触发对象仅仅限定为手,触发对象也可以是头或肢体等,而动作也可以是摇头或眨眼等动作。
作为本公开实施例的一种具体实现方式,如图2所示,步骤S102中识别触发对象,具体包括:
S201:获取所述触发对象的特征信息。
对象的特征信息,是能够表征对象的信息,如对象图像的轮廓信息、关键点信息等。现有技术中关于图像的轮廓信息和关键点信息提取的技术比较成熟,在此不再累述。
S202:将所述特征信息与标准特征信息相比对。
在步骤201获取到特征信息后,需要将获取的特征信息与预存的特征信息相对比。
S203:根据比对结果识别是否为触发对象。
如在以人手为例的场景中,当获取到图像后,需要获取图像的轮廓或关键点信息,然后将获取的轮廓或关键点信息,与预存的人手的轮廓或关键点信息相比对,如比对的结果相符,则认为获取到的图像为人手,即识别出触发对象。而在实际应用中,因用户较多,而人手的轮廓或关键点信息并不相同,因此预存的人手的轮廓或关键点信息有多种,其中有不同大小的人手轮廓或关键点信息。在对比时,需要将获取的图像的轮廓或关键点信息逐一与预存的人手的轮廓或关键点信息相比对,只要有一次对比结果为相符,即将该获取的图像识别为人手图像。
作为本公开实施例的一种具体实现方式,所述获取所述触发对象的特征信息,具体为:获取所述触发对象上的关键点。
作为本公开实施例的一种具体实现方式,如图3所示,步骤S103所述判断所述触发对象的动作,具体包括:
步骤S301:获取触发对象的第一特征信息。
步骤S302:获取触发对象的第二特征信息。
步骤S303:基于所述第一特征信息和第二特征信息判断触发对象的动作。
本示例性说明采用关键点为特征信息,在人手的应用场景中,如在判断人手由握拳到张开的动作中,首先需要获取人手在握拳时的关键点。然后再获取人手张开后的关键点。然后分别将人手握拳的关键点与预存的人手关键点相比对,从而判断人手是握拳状态,再将人手张开后的关键点与预存的人手关键点相比对,从而判断人手时处于张开状态,从而判断出人手做出了张开的动作。
作为本公开实施例的一种具体实现方式,步骤S103所述判断所述触发对象的动作,还包括:获取触发对象的面积,基于所述面积判断所述触发对象的动作。
而基于所述面积判断所述触发对象的动作,如图4所示,具体为:
S401:获取触发对象的第一面积;
S402:获取触发对象的第二面积;
S403:基于所述第一面积与所述第二面积的比对结果,判断触发对象的动作。
还以上述的手有握拳到张开的动作为例,在获取到人手的图像后,首先获取人手在握拳时的面积,然后再获取人手张开后的面积,然后分别将人手握拳的面积与预存的人手面积相比对,从而判断人手是握拳状态,再将人手张开后的面积与预存的人手面积相比对,从而判断人手时处于张开状态,从而判断出人手做出了张开的动作。而在判断人手相对于手机远近运动时,在摄像头参数设置不变的前提下,人手离手机越远,其在成相时面积越小,人手离手机越近时,其在成相时面积越大。从而根据计算人手的面积大小可以很容易的就判断出人手相对于手机的动作。
而因为人手的形状不太规则,如果直接计算人手的面积,会较复杂点,因此作为本公开实施例的一种具体实现方式,所述获取触发对象的面积,具体包括以下步骤:
设定最小规则框,使得触发对象完全包含在最小规则框内,计算最小规则框的面积,得到触发对象的面积。
如图5所示,通过设置一个规则的长方形,该长方形正好能将手包裹住,从而通过计算该长方形的面积来代替手的面积,从而简化的了计算量。
本公开设置规则的长方形,除了用长方形的面积代替人手的面积,还可以将场景的元素运动与长方形的边长相关联,如在上述人手相对于手机前后移动时,可以通过长方形的边长与人手移动的距离相关联,从而根据长方形的边长控制云彩的运动轨迹。由于边长的变化是线性的,不会发生跃变。因此云彩的运动也会比较平滑,不会出现跳跃式的运动。
如图6所示,本公开实施例提供一种场景操控的装置,包括:
显示模块600:显示场景的第一形态;
识别模块601:用于识别触发对象;
判断模块602:用于判断所述触发对象的动作;
控制模块603:用于基于所述动作将所述场景的第一形态切换为场景的第二形态,所述场景的第一形态与所述场景的第二形态相关联。
作为本公开实施例的一种具体实现方式,所述识别模块601,包括:
特征信息获取模块6011:用于获取所述触发对象的特征信息;
比对模块6012:用于将所述特征信息与标准特征信息相比对;
触发对象判断模块6013:用于根据比对结果识别是否为触发对象。
作为本公开实施例的一种具体实现方式,所述获取所述触发对象的特征信息,具体为:
获取所述触发对象上的关键点。
作为本公开实施例的一种具体实现方式,所述判断模块602,包括:
第一特征信息获取模块6021:用于获取触发对象的第一特征信息;
第二特征信息获取模块6022:用于获取触发对象的第二特征信息;
第一动作判断模块6023:用于基于所述第一特征信息和第二特征信息判断触发对象的动作。
作为本公开实施例的一种具体实现方式,所述判断模块602,包括:
面积获取模块:用于获取触发对象的面积。
作为本公开实施例的一种具体实现方式,所述判断模块602,包括:
第一面积获取模块:用于获取触发对象的第一面积;
第二面积获取模块:用于获取触发对象的第二面积;
第二动作判断模块:用于基于所述第一面积与所述第二面积的比对结果,判断触发对象的动作。
作为本公开实施例的一种具体实现方式,所述面积获取模块,包括:
规则框设定模块:设定最小规则框,使得触发对象完全包含在最小规则框内,
面积计算模块:计算最小规则框的面积,得到触发对象的面积。
作为本公开实施例的一种具体实现方式,所述触发对象为人手。
作为本公开实施例的一种具体实现方式,所述动作,包括张合、旋转、远近移动或手势变化。
图7是图示根据本公开的实施例的电子设备的硬件框图。如图7所示,根据本公开实施例的电子设备70包括存储器71和处理器72。
该存储器71用于存储非暂时性计算机可读指令。具体地,存储器71可以包括一个或多个计算机程序产品,该计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。该易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。该非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。
该处理器72可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制电子设备70中的其它组件以执行期望的功能。在本公开的一个实施例中,该处理器72用于运行该存储器71中存储的该计算机可读指令,使得该电子设备70执行前述的本公开各实施例的场景操控的全部或部分步骤。
本领域技术人员应能理解,为了解决如何获得良好用户体验效果的技术问题,本实施例中也可以包括诸如通信总线、接口等公知的结构,这些公知的结构也应包含在本公开的保护范围之内。
有关本实施例的详细说明可以参考前述各实施例中的相应说明,在此不再赘述。
图8是图示根据本公开的实施例的计算机可读存储介质的示意图。如图8所示,根据本公开实施例的计算机可读存储介质80,其上存储有非暂时性计算机可读指令81。当该非暂时性计算机可读指令81由处理器运行时,执行前述的本公开各实施例的场景操控的全部或部分步骤。
上述计算机可读存储介质80包括但不限于:光存储介质(例如:CD-ROM和DVD)、磁光存储介质(例如:MO)、磁存储介质(例如:磁带或移动硬盘)、具有内置的可重写非易失性存储器的媒体(例如:存储卡)和具有内置ROM的媒体(例如:ROM盒)。
有关本实施例的详细说明可以参考前述各实施例中的相应说明,在此不再赘述。
图9是图示根据本公开实施例的终端设备的硬件结构示意图。如图9所示,该终端90包括上述场景操控装置实施例。
该终端设备可以以各种形式来实施,本公开中的终端设备可以包括但不限于诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置、车载终端设备、车载显示终端、车载电子后视镜等等的移动终端设备以及诸如数字TV、台式计算机等等的固定终端设备。
作为等同替换的实施方式,该终端90还可以包括其他组件。如图9所示,该终端90可以包括电源单元91、无线通信单元92、A/V(音频/视频)输入单元93、用户输入单元94、感测单元95、接口单元96、控制器97、输出单元98和存储单元99等等。图9示出了具有各种组件的终端,但是应理解的是,并不要求实施所有示出的组件,也可以替代地实施更多或更少的组件。
其中,无线通信单元92允许终端90与无线通信系统或网络之间的无线电通信。A/V输入单元93用于接收音频或视频信号。用户输入单元94可以根据用户输入的命令生成键输入数据以控制终端设备的各种操作。感测单元95检测终端90的当前状态、终端90的位置、用户对于终端90的触摸输入的有无、终端90的取向、终端90的加速或减速移动和方向等等,并且生成用于控制终端90的操作的命令或信号。接口单元96用作至少一个外部装置与终端90连接可以通过的接口。输出单元98被构造为以视觉、音频和/或触觉方式提供输出信号。存储单元99可以存储由控制器97执行的处理和控制操作的软件程序等等,或者可以暂时地存储己经输出或将要输出的数据。存储单元99可以包括至少一种类型的存储介质。而且,终端90可以与通过网络连接执行存储单元99的存储功能的网络存储装置协作。控制器97通常控制终端设备的总体操作。另外,控制器97可以包括用于再现或回放多媒体数据的多媒体模块。控制器97可以执行模式识别处理,以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。电源单元91在控制器97的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。
本公开提出的场景操控的各种实施方式可以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,本公开提出的场景操控的各种实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,本公开提出的场景操控的各种实施方式可以在控制器97中实施。对于软件实施,本公开提出的场景操控的各种实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储单元99中并且由控制器97执行。
有关本实施例的详细说明可以参考前述各实施例中的相应说明,在此不再赘述。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
在本公开中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序,本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
另外,如在此使用的,在以“至少一个”开始的项的列举中使用的“或”指示分离的列举,以便例如“A、B或C的至少一个”的列举意味着A或B或C,或AB或AC或BC,或ABC(即A和B和C)。此外,措辞“示例的”不意味着描述的例子是优选的或者比其他例子更好。
还需要指出的是,在本公开的系统和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
可以不脱离由所附权利要求定义的教导的技术而进行对在此所述的技术的各种改变、替换和更改。此外,本公开的权利要求的范围不限于以上所述的处理、机器、制造、事件的组成、手段、方法和动作的具体方面。可以利用与在此所述的相应方面进行基本相同的功能或者实现基本相同的结果的当前存在的或者稍后要开发的处理、机器、制造、事件的组成、手段、方法或动作。因而,所附权利要求包括在其范围内的这样的处理、机器、制造、事件的组成、手段、方法或动作。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (12)
1.一种场景操控方法,其特征在于,包括:
显示场景的第一形态;
识别触发对象;
判断所述触发对象的动作;
基于所述动作将所述场景的第一形态切换为场景的第二形态,所述场景的第一形态与所述场景的第二形态相关联。
2.根据权利要求1所述的场景操控方法,其特征在于,所述识别触发对象,包括:
获取所述触发对象的特征信息;
将所述特征信息与标准特征信息相比对;
根据比对结果识别是否为触发对象。
3.根据权利要求2所述的场景操控方法,其特征在于,所述获取所述触发对象的特征信息,具体为:
获取所述触发对象上的关键点。
4.根据权利要求1所述的场景操控方法,其特征在于,所述判断所述触发对象的动作,包括:
获取触发对象的第一特征信息;
获取触发对象的第二特征信息;
基于所述第一特征信息和第二特征信息判断触发对象的动作。
5.根据权利要求4所述的场景操控方法,其特征在于,所述判断所述触发对象的动作,包括:
获取触发对象的面积;
基于所述面积判断所述触发对象的动作。
6.根据权利要求5所述的场景操控方法,其特征在于,所述判断所述触发对象的动作,包括:
获取触发对象的第一面积;
获取触发对象的第二面积;
基于所述第一面积与所述第二面积的比对结果,判断触发对象的动作。
7.根据权利要求5所述的场景操控方法,其特征在于,所述获取触发对象的面积,包括:
设定最小规则框,使得触发对象完全包含在最小规则框内,
计算最小规则框的面积,得到触发对象的面积。
8.根据权利要求1所述的场景操控方法,其特征在于:
所述触发对象为人手。
9.根据权利要求8所述的场景操控方法,其特征在于:
所述动作,包括张合、旋转、远近移动或手势变化。
10.一种场景操控装置,其特征在于,包括:
显示模块:显示场景的第一形态;
识别模块:用于识别触发对象;
判断模块:用于判断所述触发对象的动作;
控制模块:基于所述动作将所述场景的第一形态切换为场景的第二形态,所述场景的第一形态与所述场景的第二形态相关联。
11.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9任一所述的场景操控方法。
12.一种非暂态计算机可读存储介质,其特征在于,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行权利要求1-9任一所述的场景操控方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810699063.9A CN108989553A (zh) | 2018-06-29 | 2018-06-29 | 场景操控的方法、装置及电子设备 |
PCT/CN2019/073076 WO2020001015A1 (zh) | 2018-06-29 | 2019-01-25 | 场景操控的方法、装置及电子设备 |
GB2100223.3A GB2590207B (en) | 2018-06-29 | 2019-01-25 | Scene controlling method, device and electronic equipment |
US16/769,368 US11755119B2 (en) | 2018-06-29 | 2019-01-25 | Scene controlling method, device and electronic equipment |
JP2020571800A JP7372945B2 (ja) | 2018-06-29 | 2019-01-25 | シナリオ制御方法、装置および電子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810699063.9A CN108989553A (zh) | 2018-06-29 | 2018-06-29 | 场景操控的方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108989553A true CN108989553A (zh) | 2018-12-11 |
Family
ID=64539579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810699063.9A Pending CN108989553A (zh) | 2018-06-29 | 2018-06-29 | 场景操控的方法、装置及电子设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11755119B2 (zh) |
JP (1) | JP7372945B2 (zh) |
CN (1) | CN108989553A (zh) |
GB (1) | GB2590207B (zh) |
WO (1) | WO2020001015A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020001015A1 (zh) * | 2018-06-29 | 2020-01-02 | 北京微播视界科技有限公司 | 场景操控的方法、装置及电子设备 |
CN111931762A (zh) * | 2020-09-25 | 2020-11-13 | 广州佰锐网络科技有限公司 | 基于ai的图像识别解决方法、装置及可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102226880A (zh) * | 2011-06-03 | 2011-10-26 | 北京新岸线网络技术有限公司 | 一种基于虚拟现实的体感操作方法及系统 |
CN103019378A (zh) * | 2012-12-07 | 2013-04-03 | 无锡清华信息科学与技术国家实验室物联网技术中心 | 一种移动电子设备手势控制交互方法、装置及移动终端 |
US20130265220A1 (en) * | 2012-04-09 | 2013-10-10 | Omek Interactive, Ltd. | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US20130271360A1 (en) * | 2012-04-16 | 2013-10-17 | Qualcomm Incorporated | Interacting with a device using gestures |
CN103383598A (zh) * | 2012-05-04 | 2013-11-06 | 三星电子株式会社 | 终端和基于空间交互控制所述终端的方法 |
CN103530613A (zh) * | 2013-10-15 | 2014-01-22 | 无锡易视腾科技有限公司 | 一种基于单目视频序列的目标人手势交互方法 |
CN205304923U (zh) * | 2015-12-23 | 2016-06-08 | 武汉哒呤科技有限公司 | 一种通过手势操作实现交互的手机 |
CN107589846A (zh) * | 2017-09-20 | 2018-01-16 | 歌尔科技有限公司 | 场景切换方法、装置及电子设备 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8872899B2 (en) | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
KR101364571B1 (ko) | 2010-10-06 | 2014-02-26 | 한국전자통신연구원 | 영상 기반의 손 검출 장치 및 그 방법 |
JP5701714B2 (ja) | 2011-08-05 | 2015-04-15 | 株式会社東芝 | ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム |
US9734393B2 (en) * | 2012-03-20 | 2017-08-15 | Facebook, Inc. | Gesture-based control system |
JP6207240B2 (ja) | 2013-06-05 | 2017-10-04 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
US10156908B2 (en) * | 2015-04-15 | 2018-12-18 | Sony Interactive Entertainment Inc. | Pinch and hold gesture navigation on a head-mounted display |
JP6398870B2 (ja) | 2015-05-25 | 2018-10-03 | コニカミノルタ株式会社 | ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法 |
JP2018084886A (ja) * | 2016-11-22 | 2018-05-31 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム |
US10643390B2 (en) | 2016-03-30 | 2020-05-05 | Seiko Epson Corporation | Head mounted display, method for controlling head mounted display, and computer program |
WO2017211740A1 (en) | 2016-06-07 | 2017-12-14 | Koninklijke Philips N.V. | A device for rendering haptic feedback to a user and a method for operating the device |
CN108989553A (zh) * | 2018-06-29 | 2018-12-11 | 北京微播视界科技有限公司 | 场景操控的方法、装置及电子设备 |
-
2018
- 2018-06-29 CN CN201810699063.9A patent/CN108989553A/zh active Pending
-
2019
- 2019-01-25 WO PCT/CN2019/073076 patent/WO2020001015A1/zh active Application Filing
- 2019-01-25 JP JP2020571800A patent/JP7372945B2/ja active Active
- 2019-01-25 US US16/769,368 patent/US11755119B2/en active Active
- 2019-01-25 GB GB2100223.3A patent/GB2590207B/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102226880A (zh) * | 2011-06-03 | 2011-10-26 | 北京新岸线网络技术有限公司 | 一种基于虚拟现实的体感操作方法及系统 |
US20130265220A1 (en) * | 2012-04-09 | 2013-10-10 | Omek Interactive, Ltd. | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US20130271360A1 (en) * | 2012-04-16 | 2013-10-17 | Qualcomm Incorporated | Interacting with a device using gestures |
CN103383598A (zh) * | 2012-05-04 | 2013-11-06 | 三星电子株式会社 | 终端和基于空间交互控制所述终端的方法 |
CN103019378A (zh) * | 2012-12-07 | 2013-04-03 | 无锡清华信息科学与技术国家实验室物联网技术中心 | 一种移动电子设备手势控制交互方法、装置及移动终端 |
CN103530613A (zh) * | 2013-10-15 | 2014-01-22 | 无锡易视腾科技有限公司 | 一种基于单目视频序列的目标人手势交互方法 |
CN205304923U (zh) * | 2015-12-23 | 2016-06-08 | 武汉哒呤科技有限公司 | 一种通过手势操作实现交互的手机 |
CN107589846A (zh) * | 2017-09-20 | 2018-01-16 | 歌尔科技有限公司 | 场景切换方法、装置及电子设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020001015A1 (zh) * | 2018-06-29 | 2020-01-02 | 北京微播视界科技有限公司 | 场景操控的方法、装置及电子设备 |
GB2590207A (en) * | 2018-06-29 | 2021-06-23 | Beijing Microlive Vision Tech Co Ltd | Scenario control method and device, and electronic device |
GB2590207B (en) * | 2018-06-29 | 2023-02-08 | Beijing Microlive Vision Tech Co Ltd | Scene controlling method, device and electronic equipment |
US11755119B2 (en) | 2018-06-29 | 2023-09-12 | Beijing Microlive Vision Technology Co., Ltd | Scene controlling method, device and electronic equipment |
CN111931762A (zh) * | 2020-09-25 | 2020-11-13 | 广州佰锐网络科技有限公司 | 基于ai的图像识别解决方法、装置及可读存储介质 |
CN111931762B (zh) * | 2020-09-25 | 2021-07-30 | 广州佰锐网络科技有限公司 | 基于ai的图像识别解决方法、装置及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020001015A1 (zh) | 2020-01-02 |
GB2590207B (en) | 2023-02-08 |
JP2021530032A (ja) | 2021-11-04 |
US11755119B2 (en) | 2023-09-12 |
US20200311398A1 (en) | 2020-10-01 |
GB2590207A (en) | 2021-06-23 |
JP7372945B2 (ja) | 2023-11-01 |
GB202100223D0 (en) | 2021-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11513608B2 (en) | Apparatus, method and recording medium for controlling user interface using input image | |
CN109034063A (zh) | 人脸特效的多人脸跟踪方法、装置和电子设备 | |
KR102092234B1 (ko) | 이동 단말기 및 그 제어방법 | |
US20130234957A1 (en) | Information processing apparatus and information processing method | |
WO2021213067A1 (zh) | 物品显示方法、装置、设备及存储介质 | |
CN109003224A (zh) | 基于人脸的形变图像生成方法和装置 | |
CN103631768A (zh) | 协作数据编辑和处理系统 | |
CN102103457B (zh) | 简报操作系统及方法 | |
CN109064388A (zh) | 人脸图像效果生成方法、装置和电子设备 | |
CN106020478A (zh) | 一种智能终端操控方法、装置和智能终端 | |
CN109309878A (zh) | 弹幕的生成方法及装置 | |
WO2020151255A1 (zh) | 一种基于移动终端的展示控制系统及方法 | |
CN110069125B (zh) | 虚拟对象的控制方法和装置 | |
CN107657590A (zh) | 图片处理方法及装置 | |
CN114387445A (zh) | 对象关键点识别方法及装置、电子设备和存储介质 | |
CN111340848A (zh) | 对目标区域的对象跟踪方法、系统、设备及介质 | |
CN105824399A (zh) | 投影设备的控制方法、系统及装置 | |
CN108989553A (zh) | 场景操控的方法、装置及电子设备 | |
US20180260031A1 (en) | Method for controlling distribution of multiple sub-screens and device using the same | |
CN108961314A (zh) | 运动图像生成方法、装置、电子设备及计算机可读存储介质 | |
CN104635930A (zh) | 一种信息处理方法及电子设备 | |
CN111260697A (zh) | 目标对象的识别方法、系统、设备及介质 | |
CN105493145A (zh) | 基于用户手指甲或脚趾甲上的视觉信息来确定用户输入的方法和设备 | |
CN112181228A (zh) | 一种显示方法、装置和用于显示的装置 | |
CN109472873A (zh) | 三维模型的生成方法、装置、硬件装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181211 |
|
RJ01 | Rejection of invention patent application after publication |