CN110456911A - 电子设备控制方法和装置、电子设备、可读存储介质 - Google Patents

电子设备控制方法和装置、电子设备、可读存储介质 Download PDF

Info

Publication number
CN110456911A
CN110456911A CN201910736263.1A CN201910736263A CN110456911A CN 110456911 A CN110456911 A CN 110456911A CN 201910736263 A CN201910736263 A CN 201910736263A CN 110456911 A CN110456911 A CN 110456911A
Authority
CN
China
Prior art keywords
information
equipment control
user
control instruction
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910736263.1A
Other languages
English (en)
Other versions
CN110456911B (zh
Inventor
赵旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201910736263.1A priority Critical patent/CN110456911B/zh
Publication of CN110456911A publication Critical patent/CN110456911A/zh
Application granted granted Critical
Publication of CN110456911B publication Critical patent/CN110456911B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请涉及一种电子设备控制方法和装置、电子设备、可读存储介质。方法包括:获取用户操作信息;将用户操作信息转化为设备控制指令;向目标电子设备发送设备控制指令,其中,设备控制指令用于指示目标电子设备执行相应操作;获取根据设备控制指令得到的第一界面信息,并显示。采用本申请的方案能够简化操作,提高操作效率。

Description

电子设备控制方法和装置、电子设备、可读存储介质
技术领域
本申请涉及计算机技术领域,特别是涉及一种电子设备控制方法和装置、电子设备、计算机可读存储介质。
背景技术
随着计算机技术的发展,用户可以通过手机操控其他电子设备,例如通过触碰手机屏幕调节蓝牙耳机的音量、通过手机界面控制空调开关等。然而,传统的电子设备控制方法,存在操作繁琐的问题。
发明内容
本申请实施例提供一种电子设备控制方法、装置、电子设备、计算机可读存储介质,可以简化操作,提高操作效率。
一种电子设备控制方法,应用于增强现实穿戴设备,所述方法包括:
获取用户操作信息;
将所述用户操作信息转化为设备控制指令;
向目标电子设备发送所述设备控制指令,其中,所述设备控制指令用于指示所述目标电子设备执行相应操作;
获取根据所述设备控制指令得到的第一界面信息,并显示。
一种电子设备控制方法,应用于移动终端,所述移动终端包含显示装置,包括:
获取增强现实穿戴设备发送的设备控制指令;
根据所述设备控制指令执行相应操作,并向所述增强现实穿戴设备发送对应的终端界面信息,所述终端界面信息用于指示所述增强现实穿戴设备显示所述终端界面信息。
一种电子设备控制装置,包括:
获取模块,用于获取用户操作信息;
转化模块,用于将所述用户操作信息转化为设备控制指令;
控制模块,用于向目标电子设备发送所述设备控制指令,所述设备控制指令用于指示所述目标电子设备执行相应操作;
显示模块,用于获取根据所述设备控制指令得到的第一界面信息,并显示。
一种电子设备控制装置,包括:
指令获取模块,用于获取增强现实穿戴设备发送的设备控制指令;
指令执行模块,用于根据所述设备控制指令执行相应操作,并向所述增强现实穿戴设备发送对应的终端界面信息,所述终端界面信息用于指示所述增强现实穿戴设备显示所述终端界面信息。
一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
获取用户操作信息;
将所述用户操作信息转化为设备控制指令;
向目标电子设备发送所述设备控制指令,其中,所述设备控制指令用于指示所述目标电子设备执行相应操作;
获取根据所述设备控制指令得到的第一界面信息,并显示。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行如下步骤:
获取用户操作信息;
将所述用户操作信息转化为设备控制指令;
向目标电子设备发送所述设备控制指令,其中,所述设备控制指令用于指示所述目标电子设备执行相应操作;
获取根据所述设备控制指令得到的第一界面信息,并显示。
上述电子设备控制方法和装置、电子设备、可读存储介质,通过增强现实穿戴设备获取用户操作信息,将用户操作信息转化为设备控制指令,向目标电子设备发送设备控制指令,使目标电子设备执行相应操作,可在使用增强现实穿戴设备的同时控制其他设备,简化电子设备控制操作,提高操作效率,获取根据设备控制指令得到的第一界面信息并显示,能得到电子设备的控制结果,提高电子设备控制的准确性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中电子设备控制方法的应用环境图;
图2为一个实施例中电子设备控制方法的流程图;
图3为一个实施例中设备控制指令转化的流程示意图;
图4为与本申请实施例提供的移动终端相关的手机的部分结构的框图;
图5为另一个实施例中电子设备控制方法的流程示意图;
图6为一个实施例的电子设备控制装置的结构框图;
图7为一个另实施例中电子设备控制装置的结构框图;
图8为一个实施例中电子设备的内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件和信息,但这些元件和信息不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分,或者一种信息与另一种信息区分。举例来说,在不脱离本申请的范围的情况下,可以将第一界面信息称为第二界面信息,且类似地,可将第二界面信息称为第一界面信息。第一界面信息和第二界面信息两者都是界面信息,但其不是同一界面信息。第一电子设备可称为第二电子设备,第二电子设备也可以称为第一电子设备。第一电子设备和第二电子设备两者都是电子设备,但其不是同一电子设备。
图1为一个实施例中电子设备控制方法的应用环境示意图。如图1所示,该应用环境包括增强现实穿戴设备110和目标电子设备120。其中,增强现实技术(AugmentedReality,AR)是一种将真实世界信息和虚拟世界信息集成的新技术。增强现实的原理是把原本在现实世界的一定时间空间范围内难以体验到的实体信息,例如视觉信息,声音,味道,触觉等,通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。增强现实穿戴设备110是集合增强现实技术的穿戴设备。增强现实穿戴设备具体可以是AR眼镜等不限于此。目标电子设备120可以是含有无线网络接口或有线接口的电子设备。无线网络接口具体可以是WIFI(无线接入点)模块、蓝牙模块等不限于此。有线接口例如可以是电线接口等。目标电子设备可以是移动终端。目标电子设备具体可以是手机、蓝牙耳机、智能手表、冰箱、电视、空调等不限于此。
图2为一个实施例中电子设备控制方法的流程图。本实施例中的电子设备控制方法,以运行于图1中的增强现实穿戴设备110上为例进行描述。如图2所示,电子设备控制方法包括步骤202至步骤208。
步骤202,获取用户操作信息。
其中,用户操作信息可以是用户语音信息、用户手势信息、眼睛动作信息中至少一种。
具体地,增强现实穿戴设备中含有处理器,可用于处理信息。增强现实穿戴设备启动后,获取设备连接指令,与目标电子设备进行连接。其中,连接方式可以是通过蓝牙、WIFI或者线缆等不限于此。增强现实设备通过语音采集装置、拍摄装置等获取用户操作,并解析得到用户操作信息。
本实施例中,在获取用户操作信息之前,增强现实穿戴设备可获取用户操作选择指令。例如,用户操作选择指令可以是用户语音操作、用户手势操作、眼睛动作信息操作、位于增强现实穿戴设备上的按键操作中的至少一种。
步骤204,将用户操作信息转化为设备控制指令。
其中,设备控制指令是指用于控制目标电子设备的指令。例如,设备控制指令可用于调节空调的温度、调节蓝牙耳机的音量、控制手机打开应用、控制智能手表调整时间、调节冰箱的温度、控制电视转换频道等不限于此。
具体地,增强现实穿戴设备可通过协议将用户操作信息转化为对应的能够控制目标电子设备的设备控制指令。每个用户操作信息对应一种设备控制指令。用户操作信息对应的设备控制指令可根据需求配置。
步骤206,向目标电子设备发送设备控制指令,其中,设备控制指令用于指示目标电子设备执行相应操作。
具体地,向目标电子设备发送设备控制指令。目标电子设备接收该设备控制指令后,执行相应操作。
步骤208,获取根据设备控制指令得到的第一界面信息,并显示。
其中,第一界面信息是指在增强现实穿戴设备上显示的界面信息。第一界面信息可以从包含显示装置的目标电子设备实时获取。当该目标电子设备为不包含显示装置的目标电子设备时,在增强现实穿戴设备上为该不包含显示装置的目标电子设备配置对应的第一界面。
具体地,增强现实穿戴设备获取根据控制指令得到的目标电子设备对应的第一界面信息。当该目标电子设备为不包含显示装置的目标电子设备时,从自身的存储器中获取该目标电子设备对应的第二界面信息。当目标电子设备执行完相应操作后,得到第一界面信息,并显示。例如,蓝牙耳机的第一界面信息中包含音量信息、增减音量的标识等。冰箱的第一界面信息中包含冰箱温度信息、增减温度的标识等。空调的第一界面信息中包含空调温度信息、增减温度的标识等。
本实施例中,目标电子设备可以是具有显示模块的移动终端。向目标电子设备发送视频播放指令,目标电子设备根据该视频播放指令播放视频,并通过投屏技术向增强现实穿戴设备发送该视频流,得到第一界面信息,并显示在增强现实穿戴设备。对于目标电子设备为移动终端的情况,设备控制指令可以是拨号指令、短信发送指令、网页浏览指令等不限于此。
本实施例中的电子设备控制方法,通过增强现实穿戴设备获取用户操作信息,将用户操作信息转化为设备控制指令,向目标电子设备发送设备控制指令,使目标电子设备执行相应操作,可在使用增强现实穿戴设备的同时控制其他设备,兼顾工作和娱乐,简化电子设备控制操作,提高操作效率,获取根据设备控制指令得到的第一界面信息并显示,能得到电子设备的控制结果,提高电子设备控制的准确性。
在一个实施例中,用户操作信息包括眼球操作信息。获取用户操作信息,包括:获取眼睛图像;识别眼睛图像中的眼睛动作信息。将用户操作转化为设备控制指令,包括:将眼睛动作信息转化为对应的设备控制指令。
其中,眼睛动作信息指的是瞳孔发生移动时的动作信息。例如眼睛动作可以是转动、平移、眨眼等不限于此。
具体地,通过拍摄装置获取眼睛图像,通过眼睛图像中是否存在瞳孔从而得到眼睛图像中的眼睛动作信息。当眼睛图像中不存在瞳孔时,则眼睛动作信息为眨眼。当眼睛图像中存在瞳孔时,根据瞳孔位置识别眼睛图像中的眼睛动作信息。例如,瞳孔位置在人的左手方向,那么确定眼睛动作信息为向左移动。增强现实穿戴设备可将眼睛转动信息转化为设备控制确认指令。例如,眼睛在0.2s内完成转动的动作。或者,增强现实穿戴设备将眨眼信息转化为设备控制确认指令。
本实施例中的电子设备控制方法,获取眼镜图像,识别眼镜图像中的眼睛动作信息,将眼睛动作信息转化为对应的设备控制指令,能通过眼睛动作完成设备的控制,简化电子设备控制方法操作,提高了操作效率。
在一个实施例中,眼睛动作信息包括眨眼动作信息。将眼睛动作信息转化为对应的设备控制指令,包括:将眨眼动作信息转化为设备控制确认指令。
其中,设备控制确认指令是指用于确认设备控制内容的指令。
具体地,例如,增强现实穿戴设备显示“是否控制手机1”,当接收到眨眼动作信息时,将眨眼动作转化为“是”的设备控制指令。或者,增强现实穿戴设备将眨眼动作信息转化为点击确认的指令。当接收到眨眼动作信息时,增强现实穿戴设备获取眨眼动作信息对应的目标位置。例如目标位置为增大音量所在的位置,那么增强现实穿戴设备根据目标位置将眨眼动作信息转化为增大音量的设备控制确认指令。
本实施例中的电子设备控制方法,眼睛动作信息包括眨眼动作信息,将眨眼动作信息转化为设备控制确认指令,能通过眼睛动作完成设备的控制,简化电子设备控制方法操作,提高了操作效率。
在一个实施例中,目标电子设备为包含显示装置的电子设备;获取根据设备控制指令得到的第一界面信息,包括:从目标电子设备实时获取执行操作后得到的第一界面信息。
具体地,包含显示装置的电子设备例如可以是手机、智能手表等。在增强现实穿戴设备与该包含显示装置的电子设备建立连接后,增强现实穿戴设备从目标电子设备实时获取界面信息并显示。包含显示装置的目标电子设备执行对应的操作后,界面信息发生改变,则增强现实穿戴设备从目标电子设备中实时获取执行操作后得到的第一界面信息。
本实施例中的电子设备控制方法,从目标电子设备实时获取执行操作后得到的第一界面信息,能够将目标电子设备的界面信息实时显示在增强现实穿戴设备,并且不管操作成功或者失败都能得到执行操作的结果,可根据操作结果进行进一步的操作,提高电子设备控制的准确性。
在一个实施例中,用户操作信息包括瞳孔移动方向以及眨眼动作信息。图3为一个实施例中设备控制指令转化的流程示意图。如图3所示,该电子设备控制方法还包括:
步骤302,获取目标电子设备对应的第二界面信息,第二界面中包含光标。
其中,第二界面中的光标显示在增强现实穿戴设备。该光标可在第二界面中移动,作为眼睛的焦点位置。
具体地,当该目标电子设备为含有显示装置的电子设备时,增强现实穿戴设备从该目标电子设备实时获取第二界面信息,并显示。
当该目标电子设备为不含有显示装置的电子设备时,增强现实穿戴设备从自身的存储器中获取对应的第二界面信息。该第二界面信息与目标电子设备的设备类型相对应。例如,蓝牙耳机的第二界面信息中包含音量信息、增减音量的标识等。冰箱的第二界面信息中包含冰箱温度信息、增减温度的标识等。空调的第二界面信息中包含空调温度信息、增减温度的标识等。
步骤304,根据瞳孔移动方向控制第二界面中的光标移动。
具体地,第二界面中的光标移动方向与瞳孔移动方向相一致。例如,瞳孔移动方向为向界面上方移动,那么第二界面中的光标也向界面上方移动。
本实施例中,当瞳孔在眼球中的位置与预设瞳孔中心位置之间的距离超过第一预设距离时,确定瞳孔发生移动。增强现实穿戴设备获取瞳孔移动方向,根据瞳孔移动方向控制第二界面中的光标移动。控制第二界面中的光标移动可类似于鼠标在显示屏上的操作。眼球移动类似于鼠标移动,眨眼类似于点击鼠标。
本实施例中,用户操作信息包括瞳孔移动距离。其中,瞳孔移动距离是指瞳孔在眼球中的位置与预设瞳孔中心位置之间的距离。当瞳孔在眼球中的位置与预设瞳孔中心位置之间的距离超过第二预设距离时,控制第二界面中的光标加速移动。其中,第二预设距离大于第一预设距离。
本实施例中,第一界面信息中可包括增强现实穿戴设备为该界面配置的滑动触控标识。当光标移动至滑动触控标识所在位置,且接收到眨眼指令时,确定为对应的翻页指令。例如,“↑”图标为向上滑动,也称为向上翻页。“↓”图标为向下滑动,也称为向下翻页。“←”图标为向左滑动,也称为向左翻页。“→”图标为向右滑动,也称为向右翻页。当光标移动至“↑”图标所在位置,且接收到眨眼指令时,确定为向上翻页指令。
将用户操作信息转化为设备控制指令,包括:
步骤306,当光标移动至目标位置且接收到眨眼动作信息时,根据目标位置将眨眼动作信息转化为设备控制确认指令。
具体地,当光标移动至目标位置且增强现实穿戴设备接收到眨眼动作信息时,根据目标位置对应的信息将眨眼动作信息转化为设备控制指令。例如,光标移动至“A应用”所在的图标时,且增强现实穿戴设备接收到眨眼动作信息,根据目标位置将眨眼动作信息转化为打开“A应用”的设备控制确认指令。移动终端执行打开“A应用”的操作,得到第一界面信息。移动终端将向增强现实穿戴设备发送第一界面信息。增强现实穿戴设备接收第一界面信息并显示。
本实施例中的电子设备控制方法,获取目标电子设备对应的第二界面信息,第二界面中包含光标,根据瞳孔移动方向控制第二界面中的光标移动,当光标移动至目标位置且接收到眨眼动作信息时,根据目标位置将眨眼动作信息转化为设备控制确认指令,可在使用增强现实穿戴设备的同时控制其他设备,通过眼球操作简化电子设备控制操作,提高操作效率。
在一个实施例中,用户操作信息包括用户手势信息。获取用户操作信息,包括:获取用户手势图像;识别用户手势图像中的用户手势信息。将用户操作信息转化为设备控制指令,包括:将用户手势信息转化为对应的设备功能触发指令。
其中,用户手势信息可以是用户手部姿态信息。每个用户手势对应一种设备功能。
具体地,增强现实穿戴设备通过拍摄装置获取用户手势图像,可通过边缘检测算法等算法识别出用户手势图像中的用户手势信息。增强现实穿戴设备获取用户手势信息对应的设备功能触发指令。例如,用户手势1对应打开A应用。用户手势2对应打开B应用。用户手势3对应增大音量,用户手势4对应减小音量。
本实施例中,用户操作信息可包括用户手指位置。当用户手指位置移动至目标位置,且在目标位置停留的时长超过预设时长时,根据目标位置将用户手势信息转化为对应的设备功能触发指令。
本实施例中的电子设备控制方法,获取用户手势图像,识别用户手势图像中的用户手势信息,将用户手势信息转化为对应的设备功能触发指令,能够快速触发设备功能,简化电子设备控制操作,提高操作效率。
在一个实施例中,用户操作信息包括用户语音信息、用户手势信息、眼睛动作信息中至少一种。
具体地,增强现实穿戴设备通过语音采集装置获取用户语音信息。增强现实穿戴设备解析用户语音信息,得到对应的文字信息;将文字信息转化为设备控制指令。
用户操作信息根据需求配置。例如用户操作信息可仅包括用户语音信息,或者用户手势信息,或者眼睛动作信息。用户操作信息也可以包括用户语音信息和用户手势信息,或者用户语音信息和眼睛动作信息,或者用户手势信息和眼睛动作信息。用户操作信息还可以包括用户语音信息、用户手势信息和眼睛动作信息三种信息。
本实施例中的电子设备控制方法,用户操作信息包括用户语音信息、用户手势信息、眼睛动作信息中至少一种,可采用多种形式控制目标电子设备,从而简化电子设备控制操作,提高操作效率。
在一个实施例中,目标电子设备包括第一电子设备和第二电子设备,第一电子设备以第一连接方式与增强现实穿戴设备连接,第二电子设备以第二连接方式与增强现实穿戴设备连接。
其中,增强现实穿戴设备与目标电子设备可通过蓝牙、WIFI网络和线缆三种方式连接。第一连接方式可以是蓝牙、WIFI网络和线缆三种中的一种,第二连接方式可以是与第一连接方式不同的其他连接方式。例如,移动终端可以WIFI网络的连接方式与增强现实穿戴设备连接,蓝牙耳机以蓝牙的连接方式与增强现实穿戴设备连接。并且,增强现实穿戴设备可同时显示第一电子设备和第二电子设备的界面。增强现实穿戴设备可根据用户操作信息显示第一电子设备的界面、第二电子设备的界面或者不显示。
本实施例中,目标电子设备还可以包括第一电子设备、第二电子设备和第三电子设备。其中,第一电子设备以第一连接方式与增强现实穿戴设备连接,第二电子设备以第二连接方式与增强现实穿戴设备连接,第三电子设备以第三连接方式与增强现实穿戴设备连接。第一连接方式、第二连接方式和第三连接方式均不相同。
本实施例中的电子设备控制方法,目标电子设备包括第一电子设备和第二电子设备,第一电子设备以第一连接方式与增强现实穿戴设备连接,第二电子设备以第二连接方式与增强现实穿戴设备连接,能够同时控制两个电子设备,简化电子设备控制操作,提高操作效率。
在一个实施例中,该电子设备控制方法还包括:获取用户虹膜信息;当用户虹膜信息与预设虹膜信息相匹配时,执行获取用户操作信息的步骤。
其中,预设虹膜信息是指在增强现实穿戴设备中存储的经过验证的虹膜信息。
具体地,增强现实穿戴设备获取用户虹膜信息,并检测用户虹膜信息与预设虹膜信息的匹配度。当匹配度大于预设匹配度阈值时,确定用户虹膜信息与预设虹膜信息相匹配,获取用户操作信息。
本实施例中的电子设备控制方法,获取用户虹膜信息,当用户虹膜信息与预设虹膜信息相匹配时,获取用户操作信息,能够验证操作者是否为具有增强现实穿戴设备使用权限,当具有权限时,才进行设备控制,提高电子设备控制的安全性。
在一个实施例中,移动终端可在用户口袋中或者背包里。移动终端通过WIFI网络或者蓝牙与AR眼镜相连接。那么,用户可以通过眼球操作去控制AR眼镜打开手机界面,并实现拨号、短信、浏览网页等等数据或者语音功能业务。
在一个实施例中,移动终端可放在口袋中或者背包里,通过WIFI网络或蓝牙与AR眼镜相连接。那么,用户可以通过眼球操作去控制AR眼镜打开手机,控制手机界面播放电影,再投屏到AR眼镜上,实现AR眼镜看手机电影,非常便捷和实用。
在一个实施例中,智能手表通过WIFI网络与AR眼镜相连接,蓝牙耳机通过蓝牙模块与AR眼镜相连。那么,用户可以通过眼球操作去控制智能手表反馈检测状态,控制蓝牙耳机开关及音量调节等,便捷性和实用性都很高。
在一个实施例中,一种电子设备控制方法,包括:
步骤(a1),获取目标电子设备对应的第二界面信息,第二界面中包含光标。
步骤(a2),获取眼睛图像。
步骤(a3),获取用户虹膜信息。
步骤(a4),当用户虹膜信息与预设虹膜信息相匹配时,识别眼睛图像中的眼睛动作信息,眼睛动作信息包括瞳孔移动方向。
步骤(a5),根据瞳孔移动方向控制第二界面中的光标移动。
步骤(a6),当光标移动至目标位置且接收到眨眼动作信息时,根据目标位置将眨眼动作信息转化为设备控制指令。
步骤(a7),向目标电子设备发送设备控制指令,其中,设备控制指令用于指示目标电子设备执行相应操作,目标电子设备为包含显示装置的电子设备。
步骤(a8),从目标电子设备实时获取执行操作后得到的第一界面信息,并显示。
本实施例中的电子设备控制方法,当用户虹膜信息与预设虹膜信息相匹配时,识别眼睛图像中的眼睛动作信息,能够提高电子设备控制的准确性;根据瞳孔移动方向以及眨眼动作转化为控制指令,能够简化电子设备控制操作,提高操作效率;从目标电子设备实时获取执行操作后得到的界面信息并显示,能够能得到电子设备的控制结果,提高电子设备控制的准确性。
在一个实施例中,图4为与本申请实施例提供的移动终端相关的手机的部分结构的框图。参考图4,手机包括:射频(Radio Frequency,RF)电路410、存储器440、输入单元430、显示单元440、传感器450、音频电路440、无线保真(wireless fidelity,WIFI)模块470、处理器480、以及电源490等部件。本领域技术人员可以理解,图4所示的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
其中,RF电路410可用于收发信息或通话过程中,信号的接收和发送,可将基站的下行信息接收后,给处理器480处理;也可以将上行的数据发送给基站。通常,RF电路包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low Noise Amplifier,LNA)、双工器等。此外,RF电路410还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System ofMobile communication,GSM)、通用分组无线服务(General Packet Radio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband CodeDivision Multiple Access,WCDMA)、长期演进(Long Term Evolution,LTE))、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器440可用于存储软件程序以及模块,处理器480通过运行存储在存储器440的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器440可主要包括程序存储区和数据存储区,其中,程序存储区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能的应用程序、图像播放功能的应用程序等)等;数据存储区可存储根据手机的使用所创建的数据(比如音频数据、通讯录等)等。此外,存储器440可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。存储器440可用于存储第一界面信息、第二界面信息、图像等不限于此。
输入单元430可用于接收输入的数字或字符信息,以及产生与手机400的用户设置以及功能控制有关的键信号输入。具体地,输入单元430可包括触控面板431以及其他输入设备432。触控面板431,也可称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板431上或在触控面板431附近的操作),并根据预先设定的程式驱动相应的连接装置。在一个实施例中,触控面板431可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器480,并能接收处理器480发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板431。除了触控面板431,输入单元430还可以包括其他输入设备432。具体地,其他输入设备432可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)等中的一种或多种。
显示单元440可用于显示由用户输入的信息以及手机的各种菜单。显示单元440可包括显示面板441。在一个实施例中,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板441。在一个实施例中,触控面板431可覆盖显示面板441,当触控面板431检测到在其上或附近的触摸操作后,传送给处理器480以确定触摸事件的类型,随后处理器480根据触摸事件的类型在显示面板441上提供相应的视觉输出。虽然在图4中,触控面板431与显示面板441是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板431与显示面板441集成而实现手机的输入和输出功能。
手机400还可包括至少一种传感器450,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板441的亮度,接近传感器可在手机移动到耳边时,关闭显示面板441和/或背光。运动传感器可包括加速度传感器,通过加速度传感器可检测各个方向上加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换)、振动识别相关功能(比如计步器、敲击)等;此外,手机还可配置陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器等。
音频电路440、扬声器441和传声器422可提供用户与手机之间的音频接口。音频电路440可将接收到的音频数据转换后的电信号,传输到扬声器441,由扬声器441转换为声音信号输出;另一方面,传声器422将收集的声音信号转换为电信号,由音频电路440接收后转换为音频数据,再将音频数据输出处理器480处理后,经RF电路410可以发送给另一手机,或者将音频数据输出至存储器440以便后续处理。
WIFI属于短距离无线传输技术,手机通过WIFI模块470可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图4示出了WIFI模块470,但是可以理解的是,其并不属于手机400的必须构成,可以根据需要而省略。
处理器480是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器440内的软件程序和/或模块,以及调用存储在存储器440内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。处理器480可用于获取增强现实穿戴设备发送的设备控制指令;根据设备控制指令执行相应操作,并向增强现实穿戴设备发送对应的终端界面信息,终端界面信息用于指示增强现实穿戴设备显示终端界面信息。
在一个实施例中,处理器480可包括一个或多个处理单元。在一个实施例中,处理器480可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等;调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器480中。
手机400还包括给各个部件供电的电源490(比如电池),优选的,电源可以通过电源管理系统与处理器480逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
在一个实施例中,手机400还可以包括摄像头、蓝牙模块等。
在一个实施例中,图5为另一个实施例中电子设备控制方法的流程示意图。如图5所示,一种电子设备控制方法,应用于移动终端,移动终端包含显示装置,包括:
步骤502,获取增强现实穿戴设备发送的设备控制指令。
具体地,移动终端通过蓝牙协议、WIFI协议或者投屏协议等获取增强现实穿戴设备发送的设备控制指令。
步骤504,根据设备控制指令执行相应操作,并向增强现实穿戴设备发送对应的终端界面信息,终端界面信息用于指示增强现实穿戴设备显示终端界面信息。
具体地,该增强现实穿戴设备发送的设备控制指令是该移动终端支持的设备控制指令。移动终端根据增强现实穿戴设备发送的设备控制指令,根据设备控制指令执行相应操作,并实时向增强现实穿戴设备发送对应的终端界面信息。增强现实穿戴设备接收终端界面信息,并展示。
本实施例中的电子设备控制方法,获取增强现实穿戴设备发送的设备控制指令,根据设备控制指令执行相应操作,并向增强现实穿戴设备发送对应的终端界面信息,终端界面信息用于指示增强现实穿戴设备显示终端界面信息,可在使用增强现实穿戴设备的同时控制其他设备,简化电子设备控制操作,提高操作效率。
应该理解的是,虽然图2、3和5的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、3和5中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图6为一个实施例的电子设备控制装置的结构框图。在一个实施例中,如图6所示,一种电子设备控制装置,应用于增强现实穿戴设备,包括获取模块602、转化模块604、控制模块606和显示模块608,其中:
获取模块602,用于获取用户操作信息。
转化模块604,用于将用户操作信息转化为设备控制指令。
控制模块606,用于向目标电子设备发送设备控制指令,设备控制指令用于指示目标电子设备执行相应操作。
显示模块608,用于获取根据设备控制指令得到的第一界面信息,并显示。
本实施例中的电子设备控制装置,通过增强现实穿戴设备获取用户操作信息,将用户操作信息转化为设备控制指令,向目标电子设备发送设备控制指令,使目标电子设备执行相应操作,可在使用增强现实穿戴设备的同时控制其他设备,简化电子设备控制操作,提高操作效率,获取根据设备控制指令得到的第一界面信息并显示,能得到电子设备的控制结果,提高电子设备控制的准确性。
在一个实施例中,获取模块602用于获取眼睛图像;识别眼睛图像中的眼睛动作信息。转化模块604用于将眼睛动作信息转化为对应的设备控制指令。
本实施例中的电子设备控制装置,获取眼镜图像,识别眼镜图像中的眼睛动作信息,将眼睛动作信息转化为对应的设备控制指令,能通过眼睛动作完成设备的控制,简化电子设备控制装置操作,提高了操作效率。
在一个实施例中,眼睛动作信息包括眨眼动作信息。转化模块604用于将眨眼动作信息转化为设备控制确认指令。
本实施例中的电子设备控制装置,眼睛动作信息包括眨眼动作信息,将眨眼动作信息转化为设备控制确认指令,能通过眼睛动作完成设备的控制,简化电子设备控制装置操作,提高了操作效率。
在一个实施例中,目标电子设备为包含显示装置的电子设备。显示模块608用于从目标电子设备实时获取执行操作后得到的第一界面信息。
本实施例中的电子设备控制装置,从目标电子设备实时获取执行操作后得到的第一界面信息,能够将目标电子设备的界面信息实时显示在增强现实穿戴设备,并且不管操作成功或者失败都能得到执行操作的结果,可根据操作结果进行进一步的操作,提高电子设备控制的准确性。
在一个实施例中,用户操作信息包括瞳孔移动方向以及眨眼动作信息。显示模块608用于获取目标电子设备对应的第二界面信息,第二界面中包含光标。控制模块606用于根据瞳孔移动方向控制第二界面中的光标移动。转化模块604用于当光标移动至目标位置且接收到眨眼动作信息时,根据目标位置将眨眼动作信息转化为设备控制确认指令。
本实施例中的电子设备控制装置,获取目标电子设备对应的第二界面信息,第二界面中包含光标,根据瞳孔移动方向控制第二界面中的光标移动,当光标移动至目标位置且接收到眨眼动作信息时,根据目标位置将眨眼动作信息转化为设备控制确认指令,可在使用增强现实穿戴设备的同时控制其他设备,通过眼球操作简化电子设备控制操作,提高操作效率。
在一个实施例中,用户操作信息包括用户手势信息。获取模块602用于获取用户手势图像;识别用户手势图像中的用户手势信息。转化模块604用于将用户手势信息转化为对应的设备功能触发指令。
本实施例中的电子设备控制装置,获取用户手势图像,识别用户手势图像中的用户手势信息,将用户手势信息转化为对应的设备功能触发指令,能够快速触发设备功能,简化电子设备控制操作,提高操作效率。
在一个实施例中,用户操作信息包括用户语音信息、用户手势信息、眼睛动作信息中至少一种。
本实施例中的电子设备控制装置,用户操作信息包括用户语音信息、用户手势信息、眼睛动作信息中至少一种,可采用多种形式控制目标电子设备,从而简化电子设备控制操作,提高操作效率。
在一个实施例中,目标电子设备包括第一电子设备和第二电子设备,第一电子设备以第一连接方式与增强现实穿戴设备连接,第二电子设备以第二连接方式与增强现实穿戴设备连接。
本实施例中的电子设备控制装置,目标电子设备包括第一电子设备和第二电子设备,第一电子设备以第一连接方式与增强现实穿戴设备连接,第二电子设备以第二连接方式与增强现实穿戴设备连接,能够同时控制两个电子设备,简化电子设备控制操作,提高操作效率。
在一个实施例中,获取模块602还用于获取用户虹膜信息;当用户虹膜信息与预设虹膜信息相匹配时,获取用户操作信息。
本实施例中的电子设备控制装置,获取用户虹膜信息,当用户虹膜信息与预设虹膜信息相匹配时,获取用户操作信息,能够验证操作者是否为具有增强现实穿戴设备使用权限,当具有权限时,才进行设备控制,提高电子设备控制的安全性。
在一个实施例中,图7为一个实施例中电子设备控制装置的结构框图。一种电子设备控制装置,应用于移动终端,如图7所示,包括指令获取模块702和指令执行模块704,其中:
指令获取模块702用于获取增强现实穿戴设备发送的设备控制指令。
指令执行模块704用于根据设备控制指令执行相应操作,并向增强现实穿戴设备发送对应的终端界面信息,终端界面信息用于指示增强现实穿戴设备显示终端界面信息。
本实施例中的电子设备控制装置,获取增强现实穿戴设备发送的设备控制指令,根据设备控制指令执行相应操作,并向增强现实穿戴设备发送对应的终端界面信息,终端界面信息用于指示增强现实穿戴设备显示终端界面信息,可在使用增强现实穿戴设备的同时控制其他设备,简化电子设备控制操作,提高操作效率。
上述电子设备控制装置中各个模块的划分仅用于举例说明,在其他实施例中,可将电子设备控制装置按照需要划分为不同的模块,以完成上述电子设备控制装置的全部或部分功能。
关于电子设备控制装置的具体限定可以参见上文中对于电子设备控制方法的限定,在此不再赘述。上述电子设备控制装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
图8为一个实施例中电子设备的内部结构示意图。如图8所示,该电子设备包括通过系统总线连接的处理器和存储器。其中,该处理器用于提供计算和控制能力,支撑整个电子设备的运行。存储器可包括非易失性存储介质及内存储器。非易失性存储介质存储有操作系统和计算机程序。该计算机程序可被处理器所执行,以用于实现以上各个实施例所提供的一种电子设备控制方法。内存储器为非易失性存储介质中的操作系统计算机程序提供高速缓存的运行环境。该电子设备可以是手机、平板电脑或者个人数字助理或增强现实穿戴式设备等。
本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行电子设备控制方法的步骤。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行电子设备控制方法。
本申请所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (13)

1.一种电子设备控制方法,其特征在于,应用于增强现实穿戴设备,所述方法包括:
获取用户操作信息;
将所述用户操作信息转化为设备控制指令;
向目标电子设备发送所述设备控制指令,其中,所述设备控制指令用于指示所述目标电子设备执行相应操作;
获取根据所述设备控制指令得到的第一界面信息,并显示。
2.根据权利要求1所述的方法,其特征在于,所述用户操作信息包括眼球操作信息;
所述获取用户操作信息,包括:
获取眼睛图像;
识别所述眼睛图像中的眼睛动作信息;
所述将所述用户操作转化为设备控制指令,包括:
将所述眼睛动作信息转化为对应的设备控制指令。
3.根据权利要求2所述的方法,其特征在于,所述眼睛动作信息包括眨眼动作信息;
所述将所述眼睛动作信息转化为对应的设备控制指令,包括:
将所述眨眼动作信息转化为设备控制确认指令。
4.根据权利要求1所述的方法,其特征在于,所述目标电子设备为包含显示装置的电子设备;
所述获取根据所述设备控制指令得到的第一界面信息,包括:
从所述目标电子设备实时获取执行所述操作后得到的第一界面信息。
5.根据权利要求4所述的方法,其特征在于,所述用户操作信息包括瞳孔移动方向以及眨眼动作信息;
所述方法还包括:
获取目标电子设备对应的第二界面信息,第二界面中包含光标;
根据所述瞳孔移动方向控制所述第二界面中的光标移动;
所述将所述用户操作信息转化为设备控制指令,包括:
当所述光标移动至目标位置且接收到眨眼动作信息时,根据所述目标位置将所述眨眼动作信息转化为设备控制确认指令。
6.根据权利要求1所述的方法,其特征在于,所述用户操作信息包括用户手势信息;
所述获取用户操作信息,包括:
获取用户手势图像;
识别所述用户手势图像中的用户手势信息;
将所述用户操作信息转化为设备控制指令,包括:
将所述用户手势信息转化为对应的设备功能触发指令。
7.根据权利要求1所述的方法,其特征在于,所述用户操作信息包括用户语音信息、用户手势信息、眼睛动作信息中至少一种。
8.根据权利要求1至7任一项所述的方法,其特征在于,所述目标电子设备包括第一电子设备和第二电子设备,所述第一电子设备以第一连接方式与所述增强现实穿戴设备连接,所述第二电子设备以第二连接方式与所述增强现实穿戴设备连接。
9.根据权利要求1至7任一项所述的方法,其特征在于,所述方法还包括:
获取用户虹膜信息;
当所述用户虹膜信息与预设虹膜信息相匹配时,执行所述获取用户操作信息的步骤。
10.一种电子设备控制方法,其特征在于,应用于移动终端,所述移动终端包含显示装置,包括:
获取增强现实穿戴设备发送的设备控制指令;
根据所述设备控制指令执行相应操作,并向所述增强现实穿戴设备发送对应的终端界面信息,所述终端界面信息用于指示所述增强现实穿戴设备显示所述终端界面信息。
11.一种电子设备控制装置,其特征在于,包括:
获取模块,用于获取用户操作信息;
转化模块,用于将所述用户操作信息转化为设备控制指令;
控制模块,用于向目标电子设备发送所述设备控制指令,所述设备控制指令用于指示所述目标电子设备执行相应操作;
显示模块,用于获取根据所述设备控制指令得到的第一界面信息,并显示。
12.一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至10中任一项所述的电子设备控制方法的步骤。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至10中任一项所述的方法的步骤。
CN201910736263.1A 2019-08-09 2019-08-09 电子设备控制方法和装置、电子设备、可读存储介质 Active CN110456911B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910736263.1A CN110456911B (zh) 2019-08-09 2019-08-09 电子设备控制方法和装置、电子设备、可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910736263.1A CN110456911B (zh) 2019-08-09 2019-08-09 电子设备控制方法和装置、电子设备、可读存储介质

Publications (2)

Publication Number Publication Date
CN110456911A true CN110456911A (zh) 2019-11-15
CN110456911B CN110456911B (zh) 2022-05-13

Family

ID=68485706

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910736263.1A Active CN110456911B (zh) 2019-08-09 2019-08-09 电子设备控制方法和装置、电子设备、可读存储介质

Country Status (1)

Country Link
CN (1) CN110456911B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112233674A (zh) * 2020-10-15 2021-01-15 上海博泰悦臻网络技术服务有限公司 一种多模交互方法及其系统
CN112954602A (zh) * 2021-04-28 2021-06-11 北京声智科技有限公司 语音控制方法、传输方法、装置、电子设备及存储介质
CN114063778A (zh) * 2021-11-17 2022-02-18 北京蜂巢世纪科技有限公司 一种利用ar眼镜模拟图像的方法、装置、ar眼镜及介质
CN114461065A (zh) * 2022-01-25 2022-05-10 北京声智科技有限公司 电子设备的控制方法、装置、设备及计算机可读存储介质
WO2023082952A1 (zh) * 2021-11-10 2023-05-19 华为技术有限公司 一种与电子设备进行交互的方法及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100201621A1 (en) * 2007-08-07 2010-08-12 Osaka Electro-Communication University Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium
CN104285243A (zh) * 2012-05-09 2015-01-14 Nec卡西欧移动通信株式会社 三维图像显示设备及其光标显示方法和计算机程序
CN105955043A (zh) * 2016-05-27 2016-09-21 浙江大学 一种增强现实型的可见即可控智能家居控制系统及方法
CN205665468U (zh) * 2016-06-14 2016-10-26 陈国强 实时显示的增强现实智能眼镜
CN106101786A (zh) * 2016-06-15 2016-11-09 北京小米移动软件有限公司 控制目标设备的方法和装置
US20180173315A1 (en) * 2016-12-20 2018-06-21 Getgo, Inc. Augmented reality user interface
US20180321739A1 (en) * 2014-11-24 2018-11-08 Samsung Electronics Co., Ltd. Electronic device and method for controlling display
CN109189227A (zh) * 2018-09-18 2019-01-11 宋明峰 一种arg移动电脑
US20190146219A1 (en) * 2017-08-25 2019-05-16 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100201621A1 (en) * 2007-08-07 2010-08-12 Osaka Electro-Communication University Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium
CN104285243A (zh) * 2012-05-09 2015-01-14 Nec卡西欧移动通信株式会社 三维图像显示设备及其光标显示方法和计算机程序
US20180321739A1 (en) * 2014-11-24 2018-11-08 Samsung Electronics Co., Ltd. Electronic device and method for controlling display
CN105955043A (zh) * 2016-05-27 2016-09-21 浙江大学 一种增强现实型的可见即可控智能家居控制系统及方法
CN205665468U (zh) * 2016-06-14 2016-10-26 陈国强 实时显示的增强现实智能眼镜
CN106101786A (zh) * 2016-06-15 2016-11-09 北京小米移动软件有限公司 控制目标设备的方法和装置
US20180173315A1 (en) * 2016-12-20 2018-06-21 Getgo, Inc. Augmented reality user interface
US20190146219A1 (en) * 2017-08-25 2019-05-16 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
CN109189227A (zh) * 2018-09-18 2019-01-11 宋明峰 一种arg移动电脑

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112233674A (zh) * 2020-10-15 2021-01-15 上海博泰悦臻网络技术服务有限公司 一种多模交互方法及其系统
CN112954602A (zh) * 2021-04-28 2021-06-11 北京声智科技有限公司 语音控制方法、传输方法、装置、电子设备及存储介质
CN112954602B (zh) * 2021-04-28 2022-11-29 北京声智科技有限公司 语音控制方法、传输方法、装置、电子设备及存储介质
WO2023082952A1 (zh) * 2021-11-10 2023-05-19 华为技术有限公司 一种与电子设备进行交互的方法及电子设备
CN114063778A (zh) * 2021-11-17 2022-02-18 北京蜂巢世纪科技有限公司 一种利用ar眼镜模拟图像的方法、装置、ar眼镜及介质
CN114461065A (zh) * 2022-01-25 2022-05-10 北京声智科技有限公司 电子设备的控制方法、装置、设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN110456911B (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
CN110456911A (zh) 电子设备控制方法和装置、电子设备、可读存储介质
KR102303115B1 (ko) 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법
CN108388414B (zh) 终端的灭屏控制方法和装置、计算机可读存储介质、终端
CN108418953B (zh) 终端的屏幕控制方法和装置、可读存储介质、终端
EP3525075B1 (en) Method for lighting up screen of double-screen terminal, and terminal
CN112235452A (zh) 一种灭屏显示的方法及电子设备
CN104571849A (zh) 可佩戴装置及其控制方法
CN106406530B (zh) 一种屏幕显示方法及其移动终端
CN108628217B (zh) 穿戴设备功耗控制方法、穿戴设备及计算机可读存储介质
CN109062405A (zh) 移动终端显示方法、移动终端及计算机可读存储介质
CN110460774A (zh) 一种视频录制的控制方法及终端
CN110324497A (zh) 一种操作控制方法及终端
WO2020103091A1 (zh) 锁定触控操作的方法及电子设备
CN110308838A (zh) 一种应用交互处理方法及终端设备
CN110413363A (zh) 一种截图方法及终端设备
CN109493821A (zh) 屏幕亮度调整方法、装置及存储介质
KR20170004160A (ko) 이동단말기 및 그 제어방법
CN109276881A (zh) 一种游戏控制方法、设备
CN107085718B (zh) 人脸检测方法和装置、计算机设备、计算机可读存储介质
CN108279842A (zh) 一种功能调控方法、功能调控装置及终端设备
CN109933400A (zh) 显示界面布局方法、可穿戴设备及计算机可读存储介质
CN108984075B (zh) 显示模式切换方法、装置及终端
CN108304037A (zh) 基于柔性屏的显示方法、移动终端及计算机可读存储介质
CN110719361B (zh) 信息发送方法、移动终端和存储介质
CN104765441B (zh) 一种基于眼动实现页面更新的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant