CN110559645B - 一种应用的运行方法及电子设备 - Google Patents
一种应用的运行方法及电子设备 Download PDFInfo
- Publication number
- CN110559645B CN110559645B CN201910651268.4A CN201910651268A CN110559645B CN 110559645 B CN110559645 B CN 110559645B CN 201910651268 A CN201910651268 A CN 201910651268A CN 110559645 B CN110559645 B CN 110559645B
- Authority
- CN
- China
- Prior art keywords
- touch operation
- application
- user
- electronic device
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 230000003238 somatosensory effect Effects 0.000 claims abstract description 133
- 230000009471 action Effects 0.000 claims abstract description 43
- 230000004044 response Effects 0.000 claims abstract description 19
- 230000033001 locomotion Effects 0.000 claims description 57
- 230000008093 supporting effect Effects 0.000 claims description 12
- 210000001145 finger joint Anatomy 0.000 claims description 4
- 238000010079 rubber tapping Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 82
- 210000000988 bone and bone Anatomy 0.000 description 66
- 239000010410 layer Substances 0.000 description 50
- 238000004891 communication Methods 0.000 description 34
- 230000006854 communication Effects 0.000 description 34
- 238000012545 processing Methods 0.000 description 21
- 238000007726 management method Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000010295 mobile communication Methods 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 210000003857 wrist joint Anatomy 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 210000004027 cell Anatomy 0.000 description 6
- 210000002454 frontal bone Anatomy 0.000 description 6
- 210000002414 leg Anatomy 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 210000002310 elbow joint Anatomy 0.000 description 5
- 230000001976 improved effect Effects 0.000 description 5
- 210000000629 knee joint Anatomy 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 210000001503 joint Anatomy 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 210000001991 scapula Anatomy 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 210000000544 articulatio talocruralis Anatomy 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000001981 hip bone Anatomy 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/22—Setup operations, e.g. calibration, key configuration or button assignment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/23—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种应用的运行方法及电子设备,涉及电子技术领域,可以通过将体感动作映射为触摸屏上的触摸操作,实现采用体感动作操控游戏的功能,提升游戏体验。该方法包括:运用于具有至少一个摄像头和触摸屏的电子设备,该方法包括:电子设备显示第一应用的第一画面,第一应用支持用户通过在触摸屏上的触摸操作操控第一应用;电子设备通过至少一个摄像头捕获用户的第一图像,并识别出第一图像中用户的第一体感动作;电子设备确定第一体感动作对应的第一触摸操作信息,第一触摸操作信息包括第一触摸操作的类型和第一触摸操作作用在触摸屏上的位置;响应于确定第一体感动作对应的第一触摸操作信息,电子设备执行第一触摸操作对应的操作。
Description
技术领域
本申请涉及电子技术领域,尤其涉及一种应用的运行方法及电子设备。
背景技术
游戏已成为人们的一项重要的娱乐功能。其中,体感游戏(motion sensing game)是玩家通过体感动作变化来进行(操作)的电子游戏,在娱乐同时也锻炼了身体,因而深受玩家喜爱。
然而,现有的体感游戏,多需要在游戏主机外,配置一台用于识别体感动作(bodymoving)的外设。由该外设捕捉玩家的影像,然后根据该影像识别出玩家的体感动作,由游戏主机执行该体感动作相应的操作。可见,玩家需要另外购置专属的外设才能体验体感玩法。并且,游戏厂商需要专门开发体感游戏,或者为已有的游戏专门开发支持体感玩法的版本。又由于不同的游戏主机软硬件能力不同,可支持的体感动作不同,造成体感玩法的开发成本较高。
发明内容
本申请提供的一种应用的运行方法及电子设备,可使得支持触摸操控的应用,也可以通过用户的体感动作进行操控,有利于提升用户体验,又有利于降低开发成本。
为达到上述目的,本申请实施例采用如下技术方案:
第一方面、提供一种应用的运行方法,运用于具有至少一个摄像头和触摸屏的电子设备,该方法包括:电子设备显示第一应用的第一画面,第一应用支持用户通过在触摸屏上的触摸操作操控第一应用;电子设备通过至少一个摄像头捕获用户的第一图像,并识别出第一图像中用户的第一体感动作;电子设备确定第一体感动作对应的第一触摸操作信息,第一触摸操作信息包括第一触摸操作的类型和第一触摸操作作用在触摸屏上的位置;响应于确定第一体感动作对应的第一触摸操作信息,电子设备执行第一触摸操作对应的操作。
其中,第一应用可以是电子设备上安装的任意应用,且该应用时可以支持触摸操作进行操控的。例如,第一应用可以是游戏应用。
其中,第一触摸操作对应的操作,可以是显示另外的画面,也可以是输出特定的声音,还可以是输出其他特定信号等,本申请实施例对第一触摸操作对应的操作不做限定。
可见,本申请通过将体感动作映射为第一应用原本支持的触摸操作,使得在不修改第一应用的原生代码的情况下,也可以实现第一应用支持体感玩法的功能,提升第一应用的使用体验。也就是说,本申请提供的方法不再需要单独针对各个第一应用,单独开发支持体感玩法的功能,有利于减少开发成本。
一种可能的实现方式中,电子设备执行第一触摸操作对应的操作,包括:电子设备显示第一应用的第二画面,第二画面与电子设备响应于用户在第一画面上执行第一触摸操作后显示的画面相同。
一种可能的实现方式中,电子设备确定第一体感动作对应的第一触摸操作信息,包括:电子设备调用应用程序框架层的接口,确定第一体感动作对应的第一触摸操作信息。
可见,本申请可以通过系统服务将体感动作映射为第一应用原本支持的触摸操作,以实现第一应用支持体感玩法的功能。也就是说,各个支持触摸操作的第一应用均可以通过调用系统服务,实现支持体感玩法的功能。
一种可能的实现方式中,在电子设备调用至少一个摄像头捕获用户的第一图像之前,该方法还包括:电子设备接收用户开启第一功能的操作;响应于用户开启第一功能的操作,电子设备开启第一功能,其中,第一功能为第一应用支持用户通过体感动作操控第一应用的功能。可见,用户可以选择是否开启体感玩法的功能。
一种可能的实现方式中,在电子设备开启第一功能之后,该方法还包括:电子设备在第一应用的画面上添加图层,图层包括非透明区域和透明区域,非透明区域显示第一功能的设置界面。由此,本申请提供一种显示第一功能的设置界面的方法,以便于用户对第一功能进行设置。
一种可能的实现方式中,该方法还包括:电子设备接收用户通过第一功能的设置界面,对体感动作与触摸操作的对应关系进行设置的操作;其中,触摸操作包括触摸操作的类型以及触摸操作作用在触摸屏上的位置。可见,本申请提供的方法可以由用户设置体感动作与触摸操作的对应关系,实现体感玩法的个性化和多样化。
一种可能的实现方式中,触摸操作的类型包括以下至少一种:点击操作、滑动操作、双击操作、长按操作、指关节敲击操作、多点触摸操作、预定义手势。
一种可能的实现方式中,该方法还包括:电子设备保存用户对体感动作与触摸操作的对应关系的设置;电子设备在第一应用的画面上添加第二图层,第二图层包括非透明区域和透明区域,非透明区域显示至少一个摄像头的预览窗口。由此,用户可以通过该摄像头的预览窗口查看自己的体感动作,便于提升用户使用体感动作的准确性,提升用户的使用体验。
一种可能的实现方式中,至少一个摄像头包括深度摄像头。
一种可能的实现方式中,该方法还包括:电子设备开启投屏功能,指示与电子设备连接的具有屏幕的另一电子设备显示电子设备的画面。可见,电子设备可以将屏幕显示的画面投屏到其他大屏幕的电子设备,有利于提升用户的视觉体验。
第二方面、提供一种电子设备,包括:至少一个处理器、触摸屏和至少一个摄像头,触摸屏、至少一个摄像头与处理器耦合,触摸屏,用于显示第一应用的第一画面,第一应用支持用户通过在触摸屏上的触摸操作操控第一应用;至少一个摄像头,用于捕获用户的第一图像;至少一个处理器,用于识别出第一图像中用户的第一体感动作;确定第一体感动作对应的第一触摸操作信息,第一触摸操作信息包括第一触摸操作的类型和第一触摸操作作用在触摸屏上的位置;响应于确定第一体感动作对应的第一触摸操作信息,执行第一触摸操作对应的操作。
其中,第一应用例如可以是游戏应用。
一种可能的实现方式中,上述执行第一触摸操作对应的操作,具体为:控制触摸屏显示第一应用的第二画面,第二画面与电子设备响应于用户在第一画面上执行第一触摸操作后显示的画面相同。
一种可能的实现方式中,上述确定第一体感动作对应的第一触摸操作信息,具体为:调用电子设备应用程序框架层的接口,确定第一体感动作对应的第一触摸操作信息。
一种可能的实现方式中,至少一个处理器,还用于:接收用户开启第一功能的操作;响应于用户开启第一功能的操作,开启第一功能,其中,第一功能为第一应用支持用户通过体感动作操控第一应用的功能。
一种可能的实现方式中,至少一个处理器,还用于在第一应用的画面上添加图层,图层包括非透明区域和透明区域,非透明区域显示第一功能的设置界面。
一种可能的实现方式中,至少一个处理器,还用于接收用户通过第一功能的设置界面,对体感动作与触摸操作的对应关系进行设置的操作;其中,触摸操作包括触摸操作的类型以及触摸操作作用在触摸屏上的位置。
一种可能的实现方式中,触摸操作的类型包括以下至少一种:点击操作、滑动操作、双击操作、长按操作、指关节敲击操作、多点触摸操作、预定义手势。
一种可能的实现方式中,至少一个处理器,还用于:保存用户对体感动作与触摸操作的对应关系的设置;在第一应用的画面上添加第二图层,第二图层包括非透明区域和透明区域,非透明区域显示至少一个摄像头的预览窗口。
一种可能的实现方式中,至少一个摄像头包括深度摄像头。
一种可能的实现方式中,至少一个处理器,还用于开启投屏功能,指示与电子设备连接的具有屏幕的另一电子设备显示电子设备的画面。
第三方面、提供一种计算机存储介质,包括计算机指令,当计算机指令在终端上运行时,使得终端执行如第一方面及其中任一种可能的实现方式中所述的方法。
第四方面、提供一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行如第一方面中及其中任一种可能的实现方式中所述的方法。
第五方面、提供一种电路系统,包括至少一个处理器,当所述至少一个处理器执行指令时,所述至少一个处理器执行如第一方面中及其中任一种可能的实现方式中所述的方法。
附图说明
图1为本申请实施例提供的一种电子设备的结构示意图一;
图2为本申请实施例提供的一种电子设备的结构示意图二;
图3A为本申请实施例提供的一些电子设备的用户界面示意图;
图3B为本申请实施例提供的又一些电子设备的用户界面示意图;
图3C为本申请实施例提供的又一些电子设备的用户界面示意图;
图4A为本申请实施例提供的又一些电子设备的用户界面示意图;
图4B为本申请实施例提供的又一些电子设备的用户界面示意图;
图4C为本申请实施例提供的又一些电子设备的用户界面示意图;
图5A为本申请实施例提供的又一些电子设备的用户界面示意图;
图5B为本申请实施例提供的又一些电子设备的用户界面示意图;
图5C为本申请实施例提供的又一些电子设备的用户界面示意图;
图5D为本申请实施例提供的又一些电子设备的用户界面示意图;
图5E为本申请实施例提供的又一些电子设备的用户界面示意图;
图5F为本申请实施例提供的又一些电子设备的用户界面示意图;
图5G为本申请实施例提供的又一些电子设备的用户界面示意图;
图5H为本申请实施例提供的又一些电子设备的用户界面示意图;
图5I为本申请实施例提供的又一些电子设备的用户界面示意图;
图6A为本申请实施例提供的一种识别人像中骨点的方法示意图;
图6B为本申请实施例提供的又一种识别人像中骨点的方法示意图;
图6C为本申请实施例提供的又一种识别人像中骨点的方法示意图;
图6D为本申请实施例提供的又一种识别人像中骨点的方法示意图;
图6E为本申请实施例提供的又一种识别人像中骨点的方法示意图;
图6F为本申请实施例提供的又一种识别人像中骨点的方法示意图;
图7为本申请实施例提供的一种电路系统的结构示意图。
具体实施方式
在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
示例性的,本申请中的电子设备可以为手机、平板电脑、个人计算机(personalcomputer,PC)、个人数字助理(personal digital assistant,PDA)、智能手表、上网本、可穿戴电子设备、增强现实技术(augmented reality,AR)设备、虚拟现实(virtual reality,VR)设备、车载设备、智能汽车、智能音响、机器人等,本申请对该电子设备的具体形式不做特殊限制。
图1示出了电子设备100的结构示意图。
电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在本申请的一些实施例中,处理器110可以对摄像头193捕获的图像进行分析,确定出用户的体感动作。并确定用户的体感动作是否为预定义体感动作。而后,查找给预定义体感动作对应的目标游戏中触摸操作,并将对应的触摸操作的指令发送给目标游戏应用,以便目标游戏应用执行相应的响应,达到用户通过体感动作操控目标游戏的效果。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现电子设备100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现电子设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现电子设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(lownoise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
在本申请实施例中,在手机运行目标游戏时,可以调用摄像头193捕获用户的图像,以便于处理器110对捕获的图像进行分析,确定出用户的体感动作。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
在本申请的一些实施例中,NPU可以对摄像头193采集的图像进行分析,可以采用例如人像识别技术等确定出图像中的人像。再采用骨骼识别技术(一个利用计算机视觉技术从图像或者视频当中估计人体关节点位置的过程),确定出人像中各个关节的位置,例如:比如肘关节、腕关节、膝关节等,被定位的关节点最后可以组成一个人体的骨骼图,可以反映出这个人体的当前姿态(即体感动作)等信息。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行电子设备100的各种功能应用以及数据处理。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触摸操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,电子设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。电子设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当电子设备100是翻盖机时,电子设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备100通过发光二极管向外发射红外光。电子设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备100附近有物体。当检测到不充分的反射光时,电子设备100可以确定电子设备100附近没有物体。电子设备100可以利用接近光传感器180G检测用户手持电子设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测电子设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,电子设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备100对电池142加热,以避免低温导致电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备100中,不能和电子设备100分离。
电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本发明实施例以分层架构的Android系统为例,示例性说明电子设备100的软件结构。
图2是本发明实施例的电子设备100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图2所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
在本申请的一些实施例中,应用程序包还包括游戏应用,例如:跑酷类游戏,音乐类游戏、舞蹈类游戏等。需要说明的是,这里的游戏应用本身可以是不支持体感玩法的。
应用程序包还可包括第一应用,例如游戏助手、应用助手等,用户可以通过第一应用提供的界面选择要以体感玩法进行的游戏应用,例如:地铁跑酷,开启体感玩法的功能等。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
在本申请的一些实施例中,应用程序框架层还包括AR引擎、姿态识别层和游戏映射层。其中,AR引擎层,用于将摄像头捕捉到的用户的图像进行分析,包括对用户的图像进行骨点识别,将用户的图像转化为点和线组合的骨骼运动坐标等。
姿态识别层,用于将转化后的骨骼运动坐标进行识别,确定用户的体感动作,例如:身体左倾/右倾/前倾/后倾、跳起、蹲下、左手臂向上/向下/向左/向前/向后等,左手臂向上/向下/向左/向前/向后等,左腿向前抬起/向左抬起等,右腿向前抬起/向右抬起等。
游戏映射层,用于将预定义的体感动作与游戏应用的触摸操作进行映射。在用户进行游戏的过程中,当检测到用户的一个体感动作后,若该体感动作属于预定义的体感动作,则确定该预定义的体感动作对应的游戏应用中的触摸操作,将对应的触摸操作的指令发送给游戏应用,使得游戏应用可以执行该触摸操作对应的响应,即实现由体感动作操控游戏应用的效果。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
在本申请的一些实施例中,第一应用可以在进行游戏的过程中,通过摄像头驱动,调用硬件层的摄像头捕捉用户的图像,以便应用程序框架层的AR引擎和姿态识别层对捕捉到的用户的图像进行分析,确定出用户执行的体感动作等。在AR引擎对捕捉到的用户的图像进行分析过程中,以及姿态识别层进行姿态识别的过程中,也可以调用硬件层的AI处理芯片,例如NPU进行骨点识别、姿态识别等数据处理。
以下实施例中所涉及的技术方案均可以在具有上述硬件架构和软件架构的电子设备100中实现。以下以电子设备100是手机为例,结合附图对本申请实施例提供的技术方案进行详细说明。
目前,用户可以在手机上很方便的安装各种各样的游戏应用,比如跑酷类游戏(例如:地铁跑酷等)、音乐类游戏(如劲舞团等)等。为了进一步提升游戏的趣味性,本申请实施例提供了一种让手机上的普通游戏(指原本不支持体感玩法的游戏)支持体感玩法的方法,使得用户可以通过体感动作来操控游戏,达到娱乐健身一体化的效果,满足用户多样化需求。
在本申请的一些实施例中,在目标游戏运行的过程中,运行第一应用,例如游戏助手,并由第一应用通过内核层的摄像头驱动调用手机的摄像头捕捉用户的图像。而后,手机对捕获的用户的图像进行分析,识别出用户执行的体感动作。若用户执行的体感动作属于预定义的体感动作,将该预定义的体感动作对应的目标游戏的触摸操作的指令发送给目标游戏,使得目标游戏可以执行相应的响应,使得原本不支持体感玩法的目标游戏也可以响应于用户执行的体感动作。这样,可以不对目标游戏的原生代码进行修改,即可实现目标游戏支持体感玩法。
也就是说,在不对目标游戏进行更改的情况下,可以通过手机的其他应用(例如第一应用)或者系统功能即可实现让目标游戏支持体感玩法的功能。可见,本实施例提供的游戏运行方法可以适用于各个支持触摸操作的游戏,即不用单独针对各个第一应用单独开发支持体感玩法的版本,有利于减少开发成本。
可以理解的是,除了游戏应用之外,手机上安装的其他可以支持触摸操作进行操控的应用,也可以适用于本申请实施例提供的方法。以下,以游戏应用为例,对本申请实施例提供的技术方法进行详细说明。
请参考图3A至图3C,图4A至图4C,图5A至图5I,以下结合这些用户图形界面示意图进行说明。
首先,手机开启目标游戏的体感玩法的功能。
在一些实施例中,用户可以通过第一应用(例如游戏助手、应用助手等)开启目标游戏的体感玩法的功能。
例如:如图3A所示的界面300,为手机的桌面的一个示意图。界面300上可以包括状态栏,一个或多个应用程序的图标,例如:游戏助手的图标301,目标游戏的图标(如地铁跑酷)302,以及dock栏。其中,状态栏可以包括运营商名称、时间、电量情况、网络连接情况等。dock栏可以包括多个快捷应用图标。
当用户希望采用体感玩法进行游戏时,可以通过点击游戏助手图标301,进入游戏助手的界面,开启目标游戏的体感玩法的功能。例如:如图3B所示,在游戏助手的界面303中选中将开启体感玩法的目标游戏,例如:地铁跑酷。然后,点击体感玩法的功能控件305,以开启地铁跑酷的体感玩法的功能。此时,如图3C所示的界面307,地铁跑酷开启了游戏加速、消息免打扰以及体感玩法的功能。其中,游戏加速和消息免打扰的功能可参考现有技术,这里不赘述。下文将详细介绍体感玩法的功能,以及体感玩法功能的具体实现。
若游戏助手中没有目标游戏时,也可以在游戏助手的界面303中先通过添加控件306,将目标游戏添加到游戏助手后,再开启目标游戏的体感玩法。
在另一些实施例中,用户可以通过系统设置开启体感玩法的功能。其中,体感玩法的功能可以是系统设置中一个独立的功能,也可以是游戏助手等的一个子功能,本申请实施例对此不做限定。
例如:如图4A所示的设置界面400,为手机系统设置界面的一个示例。该设置界面400包括体感玩法的功能项401。响应于用户点击体感玩法的功能项401,手机显示如图4B所示的界面402。如图4C所示,响应于用户点击添加控件403,手机弹出选择框404,用户可以通过选择框404添加需要开启体感玩法功能的游戏。
在又一些实施例中,用户还可以在目标游戏运行中,通过输入语音命令或执行预定义手势,例如:三指下滑等其他方式,开启目标游戏的体感玩法的功能。换言之,本申请对手机开启体感玩法的方式不做具体限定。
在开启目标游戏的体感玩法后,还需要先预定义一些体感动作,以及对预定义的体感动作与目标游戏中的触摸操作的对应关系进行设置。
其中,触摸操作是指目标游戏中支持用户通过触摸屏进行的操作,例如:点击、双击、长按、滑动、画特定图案等。
具体的,用户可以通过手机桌面上的目标游戏的图标打开目标游戏,还可以通过一些其他的快捷方式打开目标游戏。
例如:响应于用户在如图5A所示的手机桌面上,点击目标游戏(例如:地铁跑酷)的图标501,手机开启目标游戏,显示如图5B所示的目标游戏的开启界面。响应于用户在目标游戏的开启界面上点击“点击开始游戏”的控件,手机运行目标游戏,即显示如图5C所示界面。
在一些实施例中,如图5D所示,在手机开始游戏后,手机可以自动弹出或者响应于用户的操作(例如:对操作特定控件,执行预定义的手势,输入语音指令等)弹出一个游戏助手的对话框503。用户可以通过该对话框503对游戏助手的相关功能进行设置。例如:对游戏加速、消息免打扰、按键防误触、以及体感玩法进行设置。在另一些实施例中,也可以在手机进入目标游戏后,且未开始游戏时,手机自动弹出或者响应于用户的操作弹出一个游戏助手的对话框503。
其中,该对话框503可以部分透明或不透明等方式显示在游戏界面上。即,该对话框503可以遮挡住一部分游戏界面。该对话框503还可以不遮挡游戏界面的方式显示,例如:显示在游戏界面的左方、右方、上方或下方。即,对话框503和游戏界面一同互不遮挡的显示在屏幕上。需要说明的是,本申请实施例对对话框503的显示时机、显示方式、显示位置等均不做具体限定。
在一个具体的实现方式中,手机在检测到用户开启目标游戏应用后(或者检测到手机显示目标游戏应用的特定界面时),可以通过应用程序框架层的窗口管理器或者其他系统服务,在目标游戏应用的游戏界面上添加一个游戏助手的图层。该游戏助手的图层位于目标游戏应用的游戏界面的图层上,且包括游戏助手的对话框503,且该图层上除了对话框503外,其他区域均为透明的。这样,用户可以同时看到目标游戏应用的游戏界面和对话框503,并且用户可以对对话框503上的控件进行操作。可见,在该实现方式中,手机在没有对原生的目标游戏应用进行修改的情况下,为目标游戏应用添加预定义体感动作的设置界面。
在另一个具体的实现方式中,手机在检测到用户开启目标游戏应用后或者检测到手机显示目标游戏应用的特定界面时),也可以通过应用程序框架层的窗口管理器或者其他系统服务,对目标游戏应用的游戏界面的大小和位置进行调整。例如将目标游戏应用的游戏界面缩小,留出手机左方的一定大小的显示区域。并在该显示区域显示用于提示用户设置预定义体感动作的设置界面。可见,在该实现方式中,手机在没有对原生的目标游戏应用进行修改的情况下,为目标游戏应用添加预定义体感动作的设置界面。
继续,响应于用户在如图5D上对体感玩法功能对应的设置控件504的点击操作,手机显示如图5E所示的界面505,界面505显示有体感玩法功能的具体设置项506。示例性的,用户可以通过下列菜单选择预定义体感动作,并为选择的预定义体感动作设置其对应的触摸操作。
另外,在预定义体感动作时,用户也可以选择包含预定义体感动作的图像。那么,手机对用户选择的图像进行识别,将识别出的体感动作设置为预定义体感动作,即自定义一些预定义的体感动作。其中包含预定义体感动作的图像可以是手机相册中的图片,也可以是手机从网上下载到的图片,还可以是手机当前调用摄像头拍摄的包含人像的图片。其中,手机识别图像中的预定义体感动作的方法将在下文详细说明,这里不再赘述。
如表一所示,为设置的预定义体感动作与目标游戏中触摸操作的对应关系的一个示例。
表一
预定义体感动作 | 目标游戏中触摸操作 |
身体向左倾斜 | 在屏幕上向左滑动 |
身体向右倾斜 | 在屏幕上向右滑动 |
蹲下 | 在屏幕上向下滑动 |
跳起 | 在屏幕上向上滑动 |
连续跳2次 | 在屏幕上双击 |
…… | …… |
需要说明的是,在本申请中,当手机检测到用户的某个体感动作为预定义体感动作时,手机需要将该预定义的体感动作对应的触摸操作的指令发送给目标游戏,以便目标游戏执行该触摸操作对应的响应。其中,触摸操作的指令除了包含触摸操作的类型(例如:点击、双击、滑动、长按等),还应该包含该触摸操作作用在屏幕上的具体位置(或坐标),即该触摸操作作用在屏幕中的哪个位置。
在一些示例中,手机可以为预定义体感动作对应的触摸操作设置一个或几个默认的屏幕位置。即,用户可以不专门设置预定义体感动作对应的触摸操作的屏幕位置。例如:在地铁跑酷游戏中,用户可以在屏幕上任一位置向左/向右/向上/向下滑动,游戏人物都会执行向左走/向右走/向上跳/向下蹲。那么,在设置体感动作和触摸操作时,例如设置了身体向左倾斜对应向左滑动。后续,手机在检查到用户身体向左倾斜的体感动作后,可以在发送向左滑动的指令,即将默认的坐标(例如屏幕中心的坐标,或者屏幕下方任一位置的坐标等),以及向左滑动的动作发送给地铁跑酷游戏。而地铁跑酷游戏在接收到该指令后,认为是在默认的坐标的位置接收到一个向左滑动的操作,那么执行该操作相应的响应,即游戏人物向左走。
在另一些示例中,考虑到触摸操作需要作用在屏幕上特定的区域,目标游戏才可以进行响应。那么,手机也可以在设置预定义体感动作与触摸操作的对应关系时,由用户一并对触摸操作所作用的屏幕位置进行设置。
举个例子,以目标游戏为王者荣耀为例进行说明。在王者荣耀游戏中,当用户将攻击键设置在右下方时,在设置与该攻击键对应的预定义体感动作时,除了设置该预定义体感动作对应的触摸操作为点击外,还需要设置触摸操作作用位置与目标游戏中原攻击键的位置相同。即,设置目标位置在原攻击键所在区域内。
例如:如图5F所示,体感玩法的设置项中还可以包括位置控件507。用户可以通过位置控件507,对设置与预定义体感动作对应的每个触摸操作作用的位置进行设置。在一个具体实现中,响应于用户对某个预定义体感动作对应的位置控件507的点击,手机提示用户在屏幕上选择当前设置的触摸操作作用的位置(或坐标)。用户可以通过在屏幕上目标位置(即需要该触摸操作作用的位置)进行点击,手机记录该点击位置的坐标,将该坐标设置为该触摸操作作用的坐标。当然,用户可以通过输入坐标或选择坐标的方式进行设置。本申请实施例对此不做具体限定。
如表二所示,为设置的预定义体感动作与目标游戏(例如:地铁跑酷)中触摸操作的对应关系的又一个示例。
表二
又例如:如图5G所示,在设置预定义体感动作与触摸操作时,手机也可以在游戏界面上显示一些按钮,例如:按钮1、按钮2等。在设置时,可以将这些按钮与预定义的体感动作进行关联。举例来说,将身体左倾(一个预定义体感动作)与向左滑动(一个触摸操作)的操作,以及按钮1进行关联。意味着,身体左倾的体感动作,相当于用户在按钮1所在位置执行了一个向左滑动的触摸操作。也就是说,当检测到身体左倾的体感动作时,手机会将按钮1的位置,以及向左滑动的指令发送给目标游戏。
当然,用户可以通过对这些按钮的移动,来改变按钮所在的位置。也可以通过删除或添加控件对按钮的数量进行修改等。可以理解的是,在设置预定义体感动作时显示这些按钮,便于用户清楚了解到与各个预定义体感动作对应的触摸操作作用的位置。在设置完成后,游戏界面中将不会显示这些按钮。
如表三所示,为设置的预定义体感动作与目标游戏(例如地铁跑酷)中触摸操作的对应关系的又一个示例。
表三
按钮1 | 预定义体感动作 | 目标游戏中触摸操作 |
按钮2 | 身体向左倾斜 | 在屏幕上向左滑动 |
按钮3 | 身体向右倾斜 | 在屏幕上向右滑动 |
按钮4 | 蹲下 | 在屏幕上向下滑动 |
按钮5 | 跳起 | 在屏幕上向上滑动 |
按钮6 | 连续跳2次 | 在屏幕上双击 |
…… | …… |
其中,按钮1在手机屏幕中的位置为(200,100),按钮2的位置为(200,300),按钮3的位置为(100,200),按钮4的位置为(300,200),按钮5的位置为(200,400)。其中,单位为像素。
可以理解的是,一般而言,不同的游戏应用也会具有一些通用的触摸操作,所以手机可以默认将这些通用的触摸操作分别对应一种预定义体感动作。也就是说,不同的游戏应用中相同的触摸操作对应相同的预定义体感动作。
或者,考虑到同一类型的游戏应用具有更多较为相似的触摸操作,因此,也可以默认为同一类型的游戏应用设置一种预定义体感动作与触摸操作的对应关系。即,同一类型的游戏应用中相同的触摸操作对应相同的预定义体感动作。这样,有利于减少用户的记忆负担,使得用户保持相同的操作习惯,提升预定义体感动作的通用性。另外,也可以节省用户设置预定义体感动作的成本。
在对预定义体感动作设置完成后,可以通过如图5G中的关闭控件508,关闭体感玩法功能的具体设置项。如图5H所示,继续显示游戏界面。
以上是以首次开启体感玩法的功能时,需要对体感玩法进行设置为例进行说明的。后续,当手机再次开启体感玩法时,可以不再需要对体感玩法进行设置,用户可以直接使用体感动作进行游戏。当然,手机也可以支持用户对体感玩法的设置进行修改。
以下,对用户可以采用体感玩法进行游戏(即采用体感动作操控目标游戏)的过程进行说明。
在一些实施例中,为了给用户提供更好的视觉体验,也可以提示用户开启投屏功能,将游戏界面投屏到与手机连接的其他具有大屏幕的电子设备(例如:电视等)上。或者,手机在检测到用户开启体感玩法的功能后自动开启投屏功能,将游戏界面投屏到其他屏幕上。
在开启体感玩法的功能后,手机(例如:第一应用)可以创建摄像头的预览窗口。示例性的,手机可以在目标游戏应用的游戏界面上添加一个第一应用的图层,该图层可以包括第一应用创建的预览窗口,而该图层其他区域为透明的。这样,用户可以同时观看到目标游戏应用的游戏界面,也可以看到新创建的摄像头的预览窗口。进而,用户可以通过该预览窗口查看到自己做出的预定义体感动作,以便确定自己的预定义体感动作是否正确。其中,手机调用的摄像头可以是前置摄像头中的一个或多个,也可以是后置摄像头中的一个或多个。当手机包含有深度摄像头时,也可以调用深度摄像头,便于获取用户图像的深度数据,以便进一步确定用户的身体前倾/后倾、手臂向前/向后、腿向前/向后等姿态。其中,深度摄像头包括结构光摄像头、双目视觉摄像头、以及飞行时间(time of flight,TOF)摄像头等中任一个或任几个。
在一个具体的示例中,手机显示的游戏界面投屏到与手机连接的例如电视等大屏幕的电子设备上,手机调用后置摄像头捕获用户的图像,而后根据捕获的用户的图像确定用户的体感动作,确定是否为预定义体感动作。
如图5I所示,为目标游戏的游戏界面509。该游戏界面509上包括摄像头的预览窗口510。用户可以通过摄像头的预览窗口510调整手机放置的位置,以及确定自己做出预定义体感动作的位置。在一些示例中,手机可以在启动目标游戏后开始调用摄像头,或者在开始游戏后开始调用摄像头。手机可以一直显示摄像头的预览窗口,便于用户根据摄像头的预览窗口查看到自己做出的体感动作,便于确定做出的体感动作是否正确。当然,考虑到用户在熟悉体感玩法后,也可以手动关闭该预览窗口,或者手机在显示该预览窗口达到一段时间后自动关闭该预览窗口。这样,用户可以全屏观看到游戏界面。本申请实施例对此不做限定。
后续,在用户进行目标游戏的过程中,手机的摄像头实时捕获用户的图像,并对捕获的用户图像进行分析,识别出用户的体感动作,并确定该体感动作是否为预定义的体感动作。若为预定义的体感动作,则查找该预定义体感动作对应的触摸操作,将对应的触摸操作的指令发送给目标游戏,由目标游戏执行相应的响应。从而实现用户使用预定义体感动作操控目标游戏的效果。
以下,对识别出用户的体感动作的具体实现进行示例性说明。
首先,手机对捕获的用户图像(通常是RGB图像,也可以包括深度摄像头捕获的深度图像)进行骨点识别,将用户图像中的人像转化为由各个骨点(和/或骨点间的连线)组合成的骨骼运动坐标,以便确定出该用户图像对应的体感动作。可见,骨骼运动坐标包括人像中各个骨点的坐标位置。
例如:如图6A所示,为手机捕获到的图像600。手机可以采用例如人像识别技术等确定出图像中的人像,例如人像601。再采用骨骼识别技术(一个利用计算机视觉技术从图像或者视频当中估计人体关节点位置的过程),确定出人像601中各个关节的位置,例如:比如肘关节、腕关节、膝关节等,被定位的关节点最后可以组成一个人体的骨骼图,可以反映出这个人体的当前姿态(即体感动作)等信息。
在对根据骨骼运动坐标对人像的姿态(即体感动作)进行分析时,可以根据各个骨点的坐标位置进行判断,也可以根据各个骨点的相对位置关系进行判断,还可以根据其中任两个骨点的连线进行判断,本申请实施例对此不做限定。
例如:图6A中以黑色三角形示出了一些识别出的骨点,例如可以包括:额骨602、颈椎骨、肩胛骨、肘关节、手腕关节、髋骨、膝关节和脚腕关节等。可以理解的是,识别出的骨点越多,对于识别出用户的姿态越准确。当然,手机可以根据预先定义的体感动作的复杂程度确定需要识别出哪些骨点,以减少对不必要骨点的识别,有利于减少计算量,提升手机的处理能力。本申请实施例对此不做限定。
在一些示例中,可以直接根据各个骨点的坐标,或者骨点之间的相对位置关系,或者骨点之间的连线等确定出用户的姿态。在另一些示例中,也可以为预先设置一个参考人像,即参考人像中各个骨点设置有一个参考坐标或位置,后续在判断用户的姿态时,可以根据待判断人像中各个骨点与参考人像中各个骨点的位置的相对关系进行判断。其中,参考人像中各个骨点的参考坐标可以是根据海量图片中不同人像确定的各个骨点的平均值。该参考人像中各个骨点的参考坐标也可以是根据特定的人(例如手机用户)的图像确定出的各个骨点的坐标值。本申请实施例对此不做具体限定。
例如,根据人像601中各个骨点的坐标可知,额骨602和颈椎的连线与竖直方向平行(或近似平行),且其他骨点的坐标也处于特定位置关系,进而可以确定出人像601中用户处于竖直站立,且双手自然下垂。
又例如,如图6B所示的人像603中,根据人像603中各个骨点的坐标可知,额骨602和颈椎的连线与竖直方向形成特定角度(例如逆时针旋转α度,α大于10度且小于90度),进而可以确定出人像603用户处于向左倾斜的姿态。在另一些示例中,也可以将人像601中各个骨点的坐标设置为参考,将需要确定姿势的人像与该参考进行比对,例如人像603中额骨602和颈椎的连线与人像601中额骨602和颈椎的连线形成特定角度(例如逆时针旋转β度,β大于10度且小于90度)。于是,可确定人像603中用户处于向左倾斜的姿态。
又例如,仍然以将人像601中各个骨点的坐标设置为参考进行举例说明。如图6C所示的人像604中,根据人像604中左手的腕关节605,相对于人像601中左手的腕关节的坐标更靠左上方,而其余骨点的坐标几乎没变,进而可以确定出用户处于左前臂抬起的姿态。
又例如,仍然以将人像601中各个骨点的坐标设置为参考进行举例说明。如图6D所示的人像606中,根据人像606中左腿的膝关节607和左脚的腕关节608,相对于人像601中左腿的膝关节和左脚的腕关节的坐标都更靠左上方,而其余骨点的坐标几乎没变,进而可以确定出用户处于左腿抬起的姿态。
需要说明的是,以上是以手机捕获的RGB图像为例进行示例说明的。可以理解的是,手机还可以调用深度摄像头获取图像中人像的深度数据。那么,可进一步根据深度数据判断更多的姿态。
例如:如图6E所示,为用户上半身向前倾时的侧面示意图。由图6E可知,若某图像中人像的上半身的骨点(例如:额骨602、肩胛骨、肘关节、手腕关节)的深度数据小于下半身各个骨点的深度数据,可知上半身更靠近手机的摄像头,那么,可以确定出该图像中人像是向前倾的。同理的,若人像中上半身各个骨点的深度数据大于下半身各个骨点的深度数据,可知上半身更远离手机的摄像头,那么,可以确定出该图像中人像是向后倾的。
或者,预先设置有参考图像,若确定某图像的人像中上半身各个骨点的深度数据小于参考人像中上半身各个骨点的深度数据时,可以确定中该图像中的人像是向前倾的。若确定某图像的人像中上半身各个骨点的深度数据大于参考人像中上半身各个骨点的深度数据时,可以确定中该图像中的人像是向后倾的。
又例如,如图6F所示,为用户左手臂向前伸时的侧面示意图。由图6F可知,若某图像中左手臂的骨点(例如左手肘关节、左手腕关节)的深度数据小于其他骨点的深度数据时,可知左手臂更靠近手机的摄像头,那么,可以确定出该图像中人像是左手臂向前伸的。同理的,若人像中左手臂的骨点的深度数据大于其他骨点的深度数据时,可知左手臂更远离手机的摄像头,那么,可以确定出该图像中人像是左手臂向后伸的。
可以理解的是,也可以采用本领域中其他的识别图像或视频中人像姿态(即体感动作)的方法,本申请实施例对此不做限定。
本申请实施例还提供一种电路系统,如图7所示,该电路系统包括至少一个处理器1101和至少一个接口电路1102。处理器1101和接口电路1102可通过线路互联。例如,接口电路1102可用于从其它装置(例如电子设备100的存储器)接收信号。又例如,接口电路1102可用于向其它装置(例如处理器1101)发送信号。示例性的,接口电路1102可读取存储器中存储的指令,并将该指令发送给处理器1101。当所述指令被处理器1101执行时,可使得电子设备执行上述实施例中的电子设备100(比如,手机)执行的各个步骤。当然,该电路系统还可以包含其他分立器件,本申请实施例对此不作具体限定。
可以理解的是,上述终端等为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请实施例能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明实施例的范围。
本申请实施例可以根据上述方法示例对上述终端等进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本发明实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请实施例各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:快闪存储器、移动硬盘、只读存储器、随机存取存储器、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员还可以理解,所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以被携带在一个或一系列通过通信网络传播的信号中,该信号可以是电信号、光信号、声波信号、无线电信号或者其他形式的信号,终端用户(enduser)可以通过该信号将上述软件下载到本地设备(如个人电脑、手机、平板电脑等)中。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (20)
1.一种应用的运行方法,其特征在于,运用于具有至少一个摄像头和触摸屏的电子设备,所述方法包括:
所述电子设备显示第一应用的第一画面,所述第一应用为目标应用中的任意一个,所述目标应用支持用户通过在所述触摸屏上的触摸操作操控所述目标应用,所述目标应用包括至少一个;
所述电子设备接收所述用户通过第二应用和/或系统设置开启第一功能的操作;
响应于所述用户开启所述第一功能的操作,所述电子设备开启所述第一功能,其中,所述第一功能为所述第一应用支持所述用户通过体感动作操控所述第一应用的功能;
所述电子设备通过所述至少一个摄像头捕获用户的第一图像,并识别出所述第一图像中所述用户的第一体感动作;
所述电子设备确定所述第一体感动作对应的第一触摸操作信息,包括:所述电子设备调用应用程序框架层的接口,确定所述第一体感动作对应的所述第一触摸操作信息;所述第一触摸操作信息包括第一触摸操作的类型和所述第一触摸操作作用在所述触摸屏上的位置;
响应于确定所述第一体感动作对应的所述第一触摸操作信息,所述电子设备执行所述第一触摸操作对应的操作。
2.根据权利要求1所述的方法,其特征在于,所述电子设备执行所述第一触摸操作对应的操作,包括:
所述电子设备显示所述第一应用的第二画面,所述第二画面与所述电子设备响应于所述用户在所述第一画面上执行所述第一触摸操作后显示的画面相同。
3.根据权利要求1所述的方法,其特征在于,在所述电子设备开启所述第一功能之后,所述方法还包括:
所述电子设备在所述第一应用的画面上添加图层,所述图层包括非透明区域和透明区域,所述非透明区域显示所述第一功能的设置界面。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
所述电子设备接收所述用户通过所述第一功能的设置界面,对体感动作与触摸操作的对应关系进行设置的操作;
其中,所述触摸操作包括所述触摸操作的类型以及所述触摸操作作用在所述触摸屏上的位置。
5.根据权利要求4所述的方法,其特征在于,所述触摸操作的类型包括以下至少一种:点击操作、滑动操作、双击操作、长按操作、指关节敲击操作、多点触摸操作、预定义手势。
6.根据权利要求4或5所述的方法,其特征在于,所述方法还包括:
所述电子设备保存所述用户对所述体感动作与触摸操作的对应关系的设置;
所述电子设备在所述第一应用的画面上添加第二图层,所述第二图层包括非透明区域和透明区域,所述非透明区域显示所述至少一个摄像头的预览窗口。
7.根据权利要求1-5任一项所述的方法,其特征在于,所述至少一个摄像头包括深度摄像头。
8.根据权利要求1-5任一项所述的方法,其特征在于,所述方法还包括:
所述电子设备开启投屏功能,指示与所述电子设备连接的具有屏幕的另一电子设备显示所述电子设备的画面。
9.根据权利要求1-5任一项所述的方法,其特征在于,所述第一应用为游戏应用。
10.一种电子设备,其特征在于,包括:至少一个处理器、触摸屏和至少一个摄像头,所述触摸屏、所述至少一个摄像头与所述处理器耦合,
所述触摸屏,用于显示第一应用的第一画面,所述第一应用为目标应用中的任意一个,所述目标应用支持用户通过在所述触摸屏上的触摸操作操控所述目标应用,所述目标应用包括至少一个;
接收所述用户通过第二应用和/或系统设置开启第一功能的操作;
响应于所述用户开启所述第一功能的操作,开启所述第一功能,其中,所述第一功能为所述第一应用支持所述用户通过体感动作操控所述第一应用的功能;
所述至少一个摄像头,用于捕获用户的第一图像;
所述至少一个处理器,用于识别出所述第一图像中所述用户的第一体感动作;确定所述第一体感动作对应的第一触摸操作信息,具体为:调用所述电子设备应用程序框架层的接口,确定所述第一体感动作对应的所述第一触摸操作信息;所述第一触摸操作信息包括第一触摸操作的类型和所述第一触摸操作作用在所述触摸屏上的位置;响应于确定所述第一体感动作对应的所述第一触摸操作信息,执行所述第一触摸操作对应的操作。
11.根据权利要求10所述的电子设备,其特征在于,所述执行所述第一触摸操作对应的操作,具体为:
控制所述触摸屏显示所述第一应用的第二画面,所述第二画面与所述电子设备响应于所述用户在所述第一画面上执行所述第一触摸操作后显示的画面相同。
12.根据权利要求10所述的电子设备,其特征在于,所述至少一个处理器,还用于在所述第一应用的画面上添加图层,所述图层包括非透明区域和透明区域,所述非透明区域显示所述第一功能的设置界面。
13.根据权利要求12所述的电子设备,其特征在于,所述至少一个处理器,还用于接收所述用户通过所述第一功能的设置界面,对体感动作与触摸操作的对应关系进行设置的操作;
其中,所述触摸操作包括所述触摸操作的类型以及所述触摸操作作用在所述触摸屏上的位置。
14.根据权利要求13所述的电子设备,其特征在于,所述触摸操作的类型包括以下至少一种:点击操作、滑动操作、双击操作、长按操作、指关节敲击操作、多点触摸操作、预定义手势。
15.根据权利要求13或14所述的电子设备,其特征在于,所述至少一个处理器,还用于:
保存所述用户对所述体感动作与触摸操作的对应关系的设置;
在所述第一应用的画面上添加第二图层,所述第二图层包括非透明区域和透明区域,所述非透明区域显示所述至少一个摄像头的预览窗口。
16.根据权利要求10-14任一项所述的电子设备,其特征在于,所述至少一个摄像头包括深度摄像头。
17.根据权利要求10-14任一项所述的电子设备,其特征在于,所述至少一个处理器,还用于开启投屏功能,指示与所述电子设备连接的具有屏幕的另一电子设备显示所述电子设备的画面。
18.根据权利要求10-14任一项所述的电子设备,其特征在于,所述第一应用为游戏应用。
19.一种计算机存储介质,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1-9中任一项所述的应用的运行方法。
20.一种电路系统,其特征在于,包括至少一个处理器,当所述至少一个处理器执行指令时,所述至少一个处理器执行如权利要求1-9中任一项所述的应用的运行方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910651268.4A CN110559645B (zh) | 2019-07-18 | 2019-07-18 | 一种应用的运行方法及电子设备 |
PCT/CN2020/102471 WO2021008589A1 (zh) | 2019-07-18 | 2020-07-16 | 一种应用的运行方法及电子设备 |
US17/626,035 US11986726B2 (en) | 2019-07-18 | 2020-07-16 | Application running method and electronic device |
EP20840699.1A EP3998112A4 (en) | 2019-07-18 | 2020-07-16 | APPLICATION EXECUTION METHOD AND ELECTRONIC DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910651268.4A CN110559645B (zh) | 2019-07-18 | 2019-07-18 | 一种应用的运行方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110559645A CN110559645A (zh) | 2019-12-13 |
CN110559645B true CN110559645B (zh) | 2021-08-17 |
Family
ID=68773055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910651268.4A Active CN110559645B (zh) | 2019-07-18 | 2019-07-18 | 一种应用的运行方法及电子设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11986726B2 (zh) |
EP (1) | EP3998112A4 (zh) |
CN (1) | CN110559645B (zh) |
WO (1) | WO2021008589A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110559645B (zh) | 2019-07-18 | 2021-08-17 | 荣耀终端有限公司 | 一种应用的运行方法及电子设备 |
CN111275032B (zh) * | 2020-05-07 | 2020-09-15 | 西南交通大学 | 基于人体关键点的深蹲检测方法、装置、设备及介质 |
CN111897430B (zh) * | 2020-07-30 | 2023-05-23 | 深圳创维-Rgb电子有限公司 | 应用的控制方法、显示终端及计算机可读存储介质 |
CN112473121B (zh) * | 2020-11-13 | 2023-06-09 | 海信视像科技股份有限公司 | 一种显示设备及基于肢体识别的躲避球显示方法 |
CN117950489A (zh) * | 2022-10-28 | 2024-04-30 | 华为技术有限公司 | 一种体感交互方法、电子设备、系统及可读存储介质 |
CN118079382A (zh) * | 2022-11-28 | 2024-05-28 | 荣耀终端有限公司 | 游戏服务的管理方法和电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105912272A (zh) * | 2016-04-14 | 2016-08-31 | 华为技术有限公司 | 一种控制多个安全应用软件的运行的装置和方法 |
CN107885543A (zh) * | 2017-10-19 | 2018-04-06 | 珠海格力电器股份有限公司 | 一种应用程序的功能管理方法、装置和智能终端 |
CN109412906A (zh) * | 2018-10-09 | 2019-03-01 | 南京物联传感技术有限公司 | 跨app程序智能控制交互系统及工作方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8961321B2 (en) * | 2009-02-13 | 2015-02-24 | Microsoft Technology Licensing, Llc | Management of gaming data |
US8847880B2 (en) * | 2009-07-14 | 2014-09-30 | Cywee Group Ltd. | Method and apparatus for providing motion library |
US9594500B2 (en) * | 2012-06-27 | 2017-03-14 | sigmund lindsay clements | Touch Free hygienic display control panel for a smart toilet |
US9671874B2 (en) * | 2012-11-08 | 2017-06-06 | Cuesta Technology Holdings, Llc | Systems and methods for extensions to alternative control of touch-based devices |
US11826636B2 (en) | 2013-07-12 | 2023-11-28 | Chris Argiro | Depth sensing module and mobile device including the same |
US9164609B2 (en) * | 2013-03-13 | 2015-10-20 | Amazon Technologies, Inc. | Managing sensory information of a user device |
CN104951211B (zh) * | 2014-03-24 | 2018-12-14 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
US9916010B2 (en) * | 2014-05-16 | 2018-03-13 | Visa International Service Association | Gesture recognition cloud command platform, system, method, and apparatus |
US10265621B2 (en) * | 2015-01-20 | 2019-04-23 | Disney Enterprises, Inc. | Tracking specific gestures relative to user movement |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US20160279523A1 (en) * | 2015-03-25 | 2016-09-29 | GAMEin30 Ltd. | System and method for interactive gaming |
CN104992171A (zh) * | 2015-08-04 | 2015-10-21 | 易视腾科技有限公司 | 一种基于2d视频序列的手势识别及人机交互方法和系统 |
US20170185142A1 (en) * | 2015-12-25 | 2017-06-29 | Le Holdings (Beijing) Co., Ltd. | Method, system and smart glove for obtaining immersion in virtual reality system |
CN107577334A (zh) * | 2016-07-04 | 2018-01-12 | 中兴通讯股份有限公司 | 一种移动终端的体感操作方法及装置 |
US10416777B2 (en) | 2016-08-16 | 2019-09-17 | Microsoft Technology Licensing, Llc | Device manipulation using hover |
CN108227726A (zh) * | 2018-01-11 | 2018-06-29 | 深圳电航空技术有限公司 | 无人机飞行控制方法、装置、终端及存储介质 |
CN109388318B (zh) * | 2018-09-30 | 2022-05-31 | 联想(北京)有限公司 | 一种控制方法及电子设备 |
CN110559645B (zh) | 2019-07-18 | 2021-08-17 | 荣耀终端有限公司 | 一种应用的运行方法及电子设备 |
-
2019
- 2019-07-18 CN CN201910651268.4A patent/CN110559645B/zh active Active
-
2020
- 2020-07-16 EP EP20840699.1A patent/EP3998112A4/en not_active Ceased
- 2020-07-16 US US17/626,035 patent/US11986726B2/en active Active
- 2020-07-16 WO PCT/CN2020/102471 patent/WO2021008589A1/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105912272A (zh) * | 2016-04-14 | 2016-08-31 | 华为技术有限公司 | 一种控制多个安全应用软件的运行的装置和方法 |
CN107885543A (zh) * | 2017-10-19 | 2018-04-06 | 珠海格力电器股份有限公司 | 一种应用程序的功能管理方法、装置和智能终端 |
CN109412906A (zh) * | 2018-10-09 | 2019-03-01 | 南京物联传感技术有限公司 | 跨app程序智能控制交互系统及工作方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110559645A (zh) | 2019-12-13 |
WO2021008589A1 (zh) | 2021-01-21 |
EP3998112A1 (en) | 2022-05-18 |
US11986726B2 (en) | 2024-05-21 |
US20220249946A1 (en) | 2022-08-11 |
EP3998112A4 (en) | 2022-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112130742B (zh) | 一种移动终端的全屏显示方法及设备 | |
CN110045819B (zh) | 一种手势处理方法及设备 | |
CN113645351B (zh) | 应用界面交互方法、电子设备和计算机可读存储介质 | |
CN110559645B (zh) | 一种应用的运行方法及电子设备 | |
WO2021000881A1 (zh) | 一种分屏方法及电子设备 | |
CN110244893B (zh) | 一种分屏显示的操作方法及电子设备 | |
CN111176506A (zh) | 一种屏幕显示方法及电子设备 | |
WO2021036770A1 (zh) | 一种分屏处理方法及终端设备 | |
CN111669459B (zh) | 键盘显示方法、电子设备和计算机可读存储介质 | |
CN110798552A (zh) | 一种音量调节方法及电子设备 | |
CN112751954B (zh) | 一种操作提示的方法和电子设备 | |
CN111742539B (zh) | 一种语音控制命令生成方法及终端 | |
CN110032307A (zh) | 一种应用图标的移动方法及电子设备 | |
CN110806831A (zh) | 一种触摸屏的响应方法及电子设备 | |
CN114579016A (zh) | 一种共享输入设备的方法、电子设备及系统 | |
CN113935898A (zh) | 图像处理方法、系统、电子设备及计算机可读存储介质 | |
CN112383664B (zh) | 一种设备控制方法、第一终端设备、第二终端设备及计算机可读存储介质 | |
CN110955373A (zh) | 一种显示要素的显示方法和电子设备 | |
CN113746961A (zh) | 显示控制方法、电子设备和计算机可读存储介质 | |
CN114995715B (zh) | 悬浮球的控制方法和相关装置 | |
CN113970888A (zh) | 家居设备控制方法、终端设备及计算机可读存储介质 | |
CN112584037A (zh) | 保存图像的方法及电子设备 | |
CN114253349A (zh) | 一种折叠设备及其开合控制方法 | |
CN113391775A (zh) | 一种人机交互方法及设备 | |
CN112449101A (zh) | 一种拍摄方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210422 Address after: Unit 3401, unit a, building 6, Shenye Zhongcheng, No. 8089, Hongli West Road, Donghai community, Xiangmihu street, Futian District, Shenzhen, Guangdong 518040 Applicant after: Honor Device Co.,Ltd. Address before: 518129 Bantian HUAWEI headquarters office building, Longgang District, Guangdong, Shenzhen Applicant before: HUAWEI TECHNOLOGIES Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |