CN106569725A - 为智能眼镜提供输入的方法、装置及触摸设备 - Google Patents

为智能眼镜提供输入的方法、装置及触摸设备 Download PDF

Info

Publication number
CN106569725A
CN106569725A CN201610987507.XA CN201610987507A CN106569725A CN 106569725 A CN106569725 A CN 106569725A CN 201610987507 A CN201610987507 A CN 201610987507A CN 106569725 A CN106569725 A CN 106569725A
Authority
CN
China
Prior art keywords
intelligent glasses
mapping
resolution
input
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610987507.XA
Other languages
English (en)
Inventor
王爱军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201610987507.XA priority Critical patent/CN106569725A/zh
Publication of CN106569725A publication Critical patent/CN106569725A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开是关于一种为智能眼镜提供输入的方法、装置及触摸设备,其中,为智能眼镜提供输入的方法应用于触摸设备上,该方法包括:与智能眼镜建立连接;确定触摸设备的操作区域;建立操作区域和智能眼镜的显示区域的映射关系;接收用户在操作区域输入的操作,该操作用于为智能眼镜提供输入;获得该操作的位置,并获得该位置在显示区域对应的映射位置;向智能眼镜发送映射位置,该映射位置用于智能眼镜显示用户的当前操作位置。本公开实施例,使得用户可以在操作区域输入操作,并可以根据智能眼镜上显示的位置来判断用户的操作是否正确,以达到方便、准确地为智能眼镜提供输入的目的。

Description

为智能眼镜提供输入的方法、装置及触摸设备
技术领域
本公开涉及通信技术领域,尤其涉及一种为智能眼镜提供输入的方法、装置及触摸设备。
背景技术
随着穿戴式技术的快速发展,出现了各种穿戴式设备,例如,智能手环、智能眼镜等。其中,智能眼镜也称智能镜,是指像智能手机一样,具有独立的操作系统,可以由用户安装软件、游戏等软件服务商提供的程序,可通过语音或动作操控完成添加日程、地图导航、与好友互动、拍摄照片和视频、与朋友展开视频通话等功能,并可以通过移动通讯网络来实现无线网络接入的这样一类眼镜的总称。
目前,用户可以通过点击或触摸智能眼镜上的输入设备例如按键或显示屏对智能眼镜进行操控,但是由于智能眼镜的输入设备小,故操作性差。
发明内容
为克服相关技术中存在的问题,本公开提供一种为智能眼镜提供输入的方法、装置及触摸设备。
根据本公开实施例的第一方面,提供一种为智能眼镜提供输入的方法,应用于触摸设备上,所述方法包括:
与所述智能眼镜建立连接;
确定所述触摸设备的操作区域;
建立所述操作区域和所述智能眼镜的显示区域的映射关系;
接收用户在所述操作区域输入的操作,所述操作用于为所述智能眼镜提供输入;
获得所述操作的位置,并获得所述位置在所述显示区域对应的映射位置;
向所述智能眼镜发送所述映射位置,所述映射位置用于所述智能眼镜显示用户的当前操作位置。
在一实施例中,所述确定所述触摸设备的操作区域,包括:
获取所述智能眼镜的分辨率和所述触摸设备的分辨率,并根据所述智能眼镜的分辨率和所述触摸设备的分辨率确定所述操作区域;或者
接收用户选择的映射方式,并根据所述映射方式确定所述操作区域。
在一实施例中,在所述向所述智能眼镜发送所述映射位置之后,所述方法还包括:
接收用户根据所述映射位置在所述操作区域输入的修正操作;
获得所述修正操作的位置,并获得所述修正操作的位置在所述显示区域对应的修正映射位置;
向所述智能眼镜发送所述修正映射位置,所述修正映射位置用于所述智能眼镜显示用户的当前操作位置。
在一实施例中,所述获得所述位置在所述显示区域对应的映射位置,包括:
获取所述智能眼镜的分辨率和所述触摸设备的分辨率;
根据所述位置、所述智能眼镜的分辨率和所述触摸设备的分辨率计算所述映射位置。
在一实施例中,所述获得所述修正操作的位置在所述显示区域对应的修正映射位置,包括:
获取所述智能眼镜的分辨率和所述触摸设备的分辨率;
根据所述修正操作的位置、所述智能眼镜的分辨率和所述触摸设备的分辨率计算所述修正映射位置。
根据本公开实施例的第二方面,提供一种为智能眼镜提供输入的装置,应用于触摸设备上,所述装置包括:
连接建立模块,被配置为与所述智能眼镜建立连接;
确定模块,被配置为确定所述触摸设备的操作区域;
映射建立模块,被配置为建立所述确定模块确定的所述操作区域和所述连接建立模块建立连接的所述智能眼镜的显示区域的映射关系;
接收模块,被配置为接收用户所述操作区域输入的操作,所述操作用于为所述智能眼镜提供输入;
位置获得模块,被配置为在所述接收模块接收用户根据所述映射关系在所述操作区域输入的操作之后,获得的所述操作的位置,并获得所述位置在所述显示区域对应的映射位置;
发送模块,被配置为向所述智能眼镜发送所述位置获得模块获得的所述映射位置,所述映射位置用于所述智能眼镜显示用户的当前操作位置。
在一实施例中,所述确定模块包括:
获取确定子模块,被配置为获取所述智能眼镜的分辨率和所述触摸设备的分辨率,并根据所述智能眼镜的分辨率和所述触摸设备的分辨率确定所述操作区域;或者
接收确定子模块,被配置为接收用户选择的映射方式,并根据所述映射方式确定所述操作区域。
在一实施例中,所述装置还包括:
修正接收模块,被配置为在所述发送模块向所述智能眼镜发送所述映射位置之后,接收用户根据所述映射位置在所述操作区域输入的修正操作;
修正位置获得模块,被配置为获得所述修正接收模块接收的所述修正操作的位置,并获得所述修正操作的位置在所述显示区域对应的修正映射位置;
修正发送模块,被配置为向所述智能眼镜发送所述修正位置获得模块获得的所述修正映射位置,所述修正映射位置用于所述智能眼镜显示用户的当前操作位置。
在一实施例中,所述位置获得模块包括:
获取子模块,被配置为获取所述智能眼镜的分辨率和所述触摸设备的分辨率;
计算子模块,被配置为根据所述位置、所述获取子模块获取到的所述智能眼镜的分辨率和所述触摸设备的分辨率计算所述映射位置。
在一实施例中,获取子模块,被配置为获取所述智能眼镜的分辨率和所述触摸设备的分辨率;
计算子模块,被配置为根据所述修正操作的位置、所述获取子模块获取到的所述智能眼镜的分辨率和所述触摸设备的分辨率计算所述修正映射位置。
根据本公开实施例的第三方面,提供一种为智能眼镜提供输入的触摸设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,处理器被配置为:
与所述智能眼镜建立连接;
确定所述触摸设备的操作区域;
建立所述操作区域和所述智能眼镜的显示区域的映射关系;
接收用户在所述操作区域输入的操作,所述操作用于为所述智能眼镜提供输入;
获得所述操作的位置,并获得所述位置在所述显示区域对应的映射位置;
向所述智能眼镜发送所述映射位置,所述映射位置用于所述智能眼镜显示用户的当前操作位置。
本公开的实施例提供的技术方案可以包括以下有益效果:通过确定触摸设备的操作区域,并建立所述操作区域和所述智能眼镜的显示区域的映射关系,使得用户可以在操作区域输入操作,通过获得映射位置,并向所述智能眼镜发送该映射位置,使得用户可以根据智能眼镜上显示的位置来判断用户的操作是否正确,以达到方便、准确地为智能眼镜提供输入的目的。
可以通过多种方式确定操作区域,实现方式多样化。
通过接收修正操作,并获得所述修正操作的位置,然后获得所述修正操作的位置在所述显示区域对应的修正映射位置,并向所述智能眼镜发送所述修正映射位置,使得用户在触摸设备操作错误时,可以修正操作,从而提高为智能眼镜提供输入的准确性。
根据获取的分辨率可以获得映射位置,实现方式简单。
根据获取的分辨率可以获得修正映射位置,实现方式简单。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种为智能眼镜提供输入的方法的流程图。
图2是根据一示例性实施例示出的一种为智能眼镜提供输入的方法的场景图。
图3是根据一示例性实施例示出的另一种为智能眼镜提供输入的方法的流程图。
图4是根据一示例性实施例示出的另一种为智能眼镜提供输入的方法的流程图。
图5是根据一示例性实施例示出的一种为智能眼镜提供输入的装置的框图。
图6是根据一示例性实施例示出的另一种为智能眼镜提供输入的装置的框图。
图7是根据一示例性实施例示出的另一种为智能眼镜提供输入的装置的框图。
图8是根据一示例性实施例示出的另一种为智能眼镜提供输入的装置的框图。
图9是根据一示例性实施例示出的另一种为智能眼镜提供输入的装置的框图。
图10是根据一示例性实施例示出的另一种为智能眼镜提供输入的装置的框图。
图11是根据一示例性实施例示出的一种适用于为智能眼镜提供输入的触摸设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种为智能眼镜提供输入的方法的流程图,如图1所示,该为智能眼镜提供输入的方法可应用于触摸设备上,其中,该触摸设备可以包括但不局限于手机、平板电脑(PAD)和触摸遥控器,该方法包括以下步骤S101-S106:
在步骤S101中,与智能眼镜建立连接。
在该实施例中,触摸设备可以通过有线或无线的连接方式与智能眼镜建立连接。其中,无线的连接方式可包括但不局限于无线保真(wifi)、蓝牙和通用串行总线(USB)等连接方式。
在步骤S102中,确定触摸设备的操作区域。
在该实施例中,触摸设备可以通过以下两种方式来确定自己的操作区域。
第一种方式:可以通过预置的应用或协议获取智能眼镜的分辨率,并读取自己的分辨率,然后根据二者的分辨率确定操作区域。例如,如果二者的分辨率一一对应,则可以根据分辨率确定操作区域。
第二种方式:可以通过接收用户选择的映射方式,并根据该映射方式确定操作区域。
其中,映射方式可以为全映射、半映射、三分之一映射等方式,具体采用哪种映射方式可以根据操作的方便性来选择。其中,全映射是指将触摸设备的整个触摸屏作为操作区域,半映射是指将触摸设备的一半触摸屏作为操作区域,三分之一映射是指将触摸设备的三分之一触摸屏作为操作区域。
在步骤S103中,建立操作区域和智能眼镜的显示区域的映射关系。
在该实施例中,触摸设备在确定好自己的操作区域后,可以建立操作区域和智能眼镜的显示区域的映射关系,以便用户可以直接在触摸设备上操作智能眼镜。
在步骤S104中,接收用户根据映射关系在操作区域输入的操作,该操作用于为智能眼镜提供输入。
在该实施例中,触摸设备在建立好自己的操作区域和智能眼镜的显示区域的映射关系之后,用户可以直接在操作区域输入操作来为智能眼镜提供输入。
在步骤S105中,获得用户在操作区域输入的操作的位置,并获得该位置在显示区域对应的映射位置。
在该实施例中,可以通过获取智能眼镜的分辨率和触摸设备的分辨率,并根据用户在操作区域输入的操作的位置、智能眼镜的分辨率和触摸设备的分辨率计算映射位置。
假设,触摸设备通过安装的应用或者协议得到智能眼镜的分辨率是1080p,即1920*1080,自己的分辨率为720p,即1280*720,其中操作区域是1280*360,用户在操作区域输入的操作的位置坐标为(Px,Py),则映射位置为:x=1920*Px/1280,y=1080*Py/360。
在步骤S106中,向智能眼镜发送映射位置,该映射位置用于智能眼镜显示用户的当前操作位置。
在该实施例中,触摸设备在获得映射位置后,可以向智能眼镜发送该映射位置,即将用户在触摸设备的实时操作位置反馈给智能眼镜,并在智能眼镜的显示区域显示。此时,用户可以根据智能眼镜上显示的位置来判断用户的操作是否正确。
下面结合图2对本公开进行示例性说明,如图2所示,手机21与智能眼镜22通过蓝牙建立连接,用户在手机21上选择了半映射的映射方式,手机21接收该映射方式后,确定一半触摸屏作为操作区域,并建立该操作区域和智能眼镜22的显示区域例如镜片的映射关系。假如用户想点击显示区域的一个按钮,则用户可以在手机21的操作区域执行点击操作,即可实现对智能眼镜上按钮的点击。由于手机21可以获得用户操作的位置,并可以获得该位置在显示区域对应的映射位置,然后向智能眼镜22发送该映射位置,使得用户可以根据智能眼镜22显示的映射位置来获知当前操作位置,从而获知当前操作是否准确,通过上述方式,可以很方便、准确地为智能眼镜提供输入。
上述为智能眼镜提供输入的方法实施例,通过确定触摸设备的操作区域,并建立操作区域和智能眼镜的显示区域的映射关系,使得用户可以在操作区域输入操作,通过获得映射位置,并向智能眼镜发送该映射位置,使得用户可以根据智能眼镜上显示的位置来判断用户的操作是否正确,以达到方便、准确地为智能眼镜提供输入的目的。
图3是根据一示例性实施例示出的另一种为智能眼镜提供输入的方法的流程图,该方法可应用于触摸设备上,如图3所示,在步骤S106之后,该方法还可以包括如下步骤:
在步骤S107中,接收用户根据该映射位置在操作区域输入的修正操作。
在该实施例中,用户可以根据智能眼镜上显示的位置来判断用户的操作是否正确,如果用户的操作不正确,例如用户点击按钮的位置位于按钮的下方,即用户操作的位置有偏差,则用户可以进行修正,此时,触摸设备可以接收用户输入的修正操作。
在步骤S108中,获得修正操作的位置,并获得修正操作的位置在显示区域对应的修正映射位置。
在该实施例中,在获得修正操作的位置之后,可以根据修正操作的位置、智能眼镜的分辨率和触摸设备的分辨率计算修正映射位置。计算方法与图1所示实施例中的步骤S105相同,此处不详述。
在步骤S109中,向智能眼镜发送修正映射位置,该修正映射位置用于智能眼镜显示用户的当前操作位置。
在该实施例中,在获得修正映射位置后,向智能眼镜发送该修正映射位置,以便智能眼镜显示该修正映射位置,用户可以根据该修正映射位置确定修正操作是否正确,如果不正确,可重复执行上述步骤S107-S109,直至操作正确。
上述为智能眼镜提供输入的方法实施例,通过接收修正操作,并获得修正操作的位置,然后获得修正操作的位置在显示区域对应的修正映射位置,并向智能眼镜发送修正映射位置,使得用户在触摸设备操作错误时,可以修正操作,从而提高为智能眼镜提供输入的准确性。
图4是根据一示例性实施例示出的另一种为智能眼镜提供输入的方法的流程图,该方法可应用于触摸设备上,如图4所示,在步骤S101之后,步骤S102之前,该方法还可以包括如下步骤:
在步骤S401中,接收进入映射模式的触发指令,并根据该触发指令向智能眼镜发送进入映射模式的请求。
在该实施例中,在触摸设备和智能眼镜建立连接之后,用户可以在触摸设备端选择进入映射模式,触摸设备接收到触发指令后,可以向智能眼镜发送进入映射模式的请求。
在步骤S402中,接收智能眼镜根据该请求返回的进入映射模式的确认响应。
在该实施例中,触摸设备如果接收到智能眼镜返回的确认响应,则二者可以建立映射关系。
上述为智能眼镜提供输入的方法实施例,通过向智能眼镜发送进入映射模式的请求,并接收智能眼镜返回的进入映射模式的确认响应,表明二者同意建立映射关系,从而为后续建立映射关系提供条件。
与前述为智能眼镜提供输入的方法实施例相对应,本公开还提供了为智能眼镜提供输入的装置实施例。
图5是根据一示例性实施例示出的一种为智能眼镜提供输入的装置的框图,如图5所示,为智能眼镜提供输入的装置包括:连接建立模块51、确定模块52、映射建立模块53、接收模块54、位置获得模块55和发送模块56。
连接建立模块51被配置为与智能眼镜建立连接。
在该实施例中,触摸设备可以通过有线或无线的连接方式与智能眼镜建立连接。其中,无线的连接方式可包括但不局限于无线保真(wifi)、蓝牙和通用串行总线(USB)等连接方式。
确定模块52被配置为确定触摸设备的操作区域。
在该实施例中,确定模块52可以通过以下两种方式来确定自己的操作区域。
第一种方式:可以通过预置的应用或协议获取智能眼镜的分辨率,并读取自己的分辨率,然后根据二者的分辨率确定操作区域。例如,如果二者的分辨率一一对应,则可以根据分辨率确定操作区域。
第二种方式:可以通过接收用户选择的映射方式,并根据该映射方式确定操作区域。
其中,映射方式可以为全映射、半映射、三分之一映射等方式,具体采用哪种映射方式可以根据操作的方便性来选择。
映射建立模块53被配置为建立确定模块52确定的操作区域和连接建立模块51建立连接的智能眼镜的显示区域的映射关系。
在该实施例中,映射建立模块53在确定好自己的操作区域后,可以建立操作区域和智能眼镜的显示区域的映射关系,以便用户可以直接在触摸设备上操作智能眼镜。
接收模块54被配置为接收用户在操作区域输入的操作,该操作用于为智能眼镜提供输入。
在该实施例中,映射建立模块53在建立好自己的操作区域和智能眼镜的显示区域的映射关系之后,用户可以直接在操作区域输入操作来为智能眼镜提供输入。
位置获得模块55被配置为在所述接收模块54接收用户在所述操作区域输入的操作之后,获得的所述操作的位置,并获得所述位置在所述显示区域对应的映射位置。
在该实施例中,可以通过获取智能眼镜的分辨率和触摸设备的分辨率,并根据用户在操作区域输入的操作的位置、智能眼镜的分辨率和触摸设备的分辨率计算映射位置。
假设,触摸设备通过安装的应用或者协议得到智能眼镜的分辨率是1080p,即1920*1080,自己的分辨率为720p,即1280*720,其中操作区域是1280*360,用户在操作区域输入的操作的位置坐标为(Px,Py),则映射位置为:x=1920*Px/1280,y=1080*Py/360。
发送模块56被配置为向所述智能眼镜发送所述位置获得模块55获得的所述映射位置,所述映射位置用于所述智能眼镜显示用户的当前操作位置。
在该实施例中,触摸设备在获得映射位置后,可以向智能眼镜发送该映射位置,即将用户在触摸设备的实时操作位置反馈给智能眼镜,并在智能眼镜的显示区域显示。此时,用户可以根据智能眼镜上显示的位置来判断用户的操作是否正确。
如图5所示的装置用于实现上述如图1所示的方法流程,涉及到的相关内容描述相同,此处不赘述。
上述为智能眼镜提供输入的装置实施例,通过确定触摸设备的操作区域,并建立操作区域和智能眼镜的显示区域的映射关系,使得用户可以在操作区域输入操作,通过获得映射位置,并向智能眼镜发送该映射位置,使得用户可以根据智能眼镜上显示的位置来判断用户的操作是否正确,以达到方便、准确地为智能眼镜提供输入的目的。
图6是根据一示例性实施例示出的另一种为智能眼镜提供输入的装置的框图,如图6所示,在上述图5所示实施例的基础上,确定模块52可包括:获取确定子模块521或者接收确定子模块522。
获取确定子模块521被配置为获取智能眼镜的分辨率和触摸设备的分辨率,并根据智能眼镜的分辨率和触摸设备的分辨率确定操作区域。
获取确定子模块521可以通过预置的应用或协议获取智能眼镜的分辨率,并读取自己的分辨率,然后根据二者的分辨率确定操作区域。例如,如果二者的分辨率一一对应,则可以根据分辨率确定操作区域。
接收确定子模块522被配置为接收用户选择的映射方式,并根据映射方式确定操作区域。
其中,映射方式可以为全映射、半映射、三分之一映射等方式,具体采用哪种映射方式可以根据操作的方便性来选择。
如图6所示的装置用于实现上述如图1所示的方法流程,涉及到的相关内容描述相同,此处不赘述。
上述为智能眼镜提供输入的装置实施例,可以通过多种方式确定操作区域,实现方式多样化。
图7是根据一示例性实施例示出的另一种为智能眼镜提供输入的装置的框图,如图7所示,在上述图5所示实施例的基础上,该装置还可包括:修正接收模块57、修正位置获得模块58和修正发送模块59。
修正接收模块57被配置为在发送模块向智能眼镜发送映射位置之后,接收用户根据映射位置在操作区域输入的修正操作。
在该实施例中,用户可以根据智能眼镜上显示的位置来判断用户的操作是否正确,如果用户的操作不正确,例如用户点击按钮的位置位于按钮的下方,即用户操作的位置有偏差,则用户可以进行修正,此时,触摸设备可以接收用户输入的修正操作。
修正位置获得模块58被配置为获得修正接收模块57接收的修正操作的位置,并获得修正操作的位置在显示区域对应的修正映射位置。
在该实施例中,在获得修正操作的位置之后,可以根据修正操作的位置、智能眼镜的分辨率和触摸设备的分辨率计算修正映射位置。
修正发送模块59被配置为向智能眼镜发送修正位置获得模块58获得的修正映射位置,修正映射位置用于智能眼镜显示用户的当前操作位置。
在该实施例中,在获得修正映射位置后,向智能眼镜发送该修正映射位置,以便智能眼镜显示该修正映射位置,用户可以根据该修正映射位置确定修正操作是否正确,如果不正确,可重复执行上述步骤,直至操作正确。
如图7所示的装置用于实现上述如图3所示的方法流程,涉及到的相关内容描述相同,此处不赘述。
上述为智能眼镜提供输入的装置实施例,通过接收修正操作,并获得修正操作的位置,然后获得修正操作的位置在显示区域对应的修正映射位置,并向智能眼镜发送修正映射位置,使得用户在触摸设备操作错误时,可以修正操作,从而提高为智能眼镜提供输入的准确性。
图8是根据一示例性实施例示出的另一种为智能眼镜提供输入的装置的框图,如图8所示,在上述图5所示实施例的基础上,该装置还可包括:收发模块81和响应接收模块82。
收发模块81被配置为在连接建立模块51与智能眼镜建立连接之后,确定模块52确定触摸设备的操作区域之前,接收进入映射模式的触发指令,并根据触发指令向智能眼镜发送进入映射模式的请求。
在该实施例中,在触摸设备和智能眼镜建立连接之后,用户可以在触摸设备端选择进入映射模式,触摸设备接收到触发指令后,可以向智能眼镜发送进入映射模式的请求。
响应接收模块82被配置为接收智能眼镜根据收发模块81发送的请求返回的进入映射模式的确认响应。
在该实施例中,触摸设备如果接收到智能眼镜返回的确认响应,则二者可以建立映射关系。
如图8所示的装置用于实现上述如图4所示的方法流程,涉及到的相关内容描述相同,此处不赘述。
上述为智能眼镜提供输入的装置实施例,通过向智能眼镜发送进入映射模式的请求,并接收智能眼镜返回的进入映射模式的确认响应,表明二者同意建立映射关系,从而为后续建立映射关系提供条件。
图9是根据一示例性实施例示出的再一种为智能眼镜提供输入的装置的框图,如图9所示,在上述图5所示实施例的基础上,位置获得模块55可包括:获取子模块551和计算子模块552。
获取子模块551被配置为获取智能眼镜的分辨率和触摸设备的分辨率。
计算子模块552被配置为根据位置、获取子模块551获取到的智能眼镜的分辨率和触摸设备的分辨率计算映射位置。
如图9所示的装置用于实现上述如图3所示的方法流程,涉及到的相关内容描述相同,此处不赘述。
上述为智能眼镜提供输入的装置实施例,根据获取的分辨率可以获得映射位置,实现方式简单。
图10是根据一示例性实施例示出的再一种为智能眼镜提供输入的装置的框图,如图10所示,在上述图7所示实施例的基础上,修正位置获得模块58可包括:获取子模块581和计算子模块582。
获取子模块581被配置为获取智能眼镜的分辨率和触摸设备的分辨率。
计算子模块582被配置为根据修正操作的位置、获取子模块581获取到的智能眼镜的分辨率和触摸设备的分辨率计算修正映射位置。
如图10所示的装置用于实现上述如图3所示的方法流程,涉及到的相关内容描述相同,此处不赘述。
上述为智能眼镜提供输入的装置实施例,根据获取的分辨率可以获得修正映射位置,实现方式简单。
关于上述实施例中的装置,其中各个模块、子模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图11是根据一示例性实施例示出的一种适用于为智能眼镜提供输入的装置的框图。例如,装置1100可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理,飞行器等。
参照图11,装置1100可以包括以下一个或多个组件:处理组件1102,存储器1104,电源组件1106,多媒体组件1108,音频组件1110,输入/输出(I/O)的接口1111,传感器组件1114,以及通信组件1116。
处理组件1102通常控制装置1100的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件1102可以包括一个或多个处理器1120来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1102可以包括一个或多个模块,便于处理组件1102和其他组件之间的交互。例如,处理部件1102可以包括多媒体模块,以方便多媒体组件1108和处理组件1102之间的交互。
存储器1104被配置为存储各种类型的数据以支持在设备1100的操作。这些数据的示例包括用于在装置1100上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1104可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1106为装置1100的各种组件提供电力。电源组件1106可以包括电源管理系统,一个或多个电源,及其他与为装置1100生成、管理和分配电力相关联的组件。
多媒体组件1108包括在所述装置1100和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1108包括一个前置摄像头和/或后置摄像头。当设备1100处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1110被配置为输出和/或输入音频信号。例如,音频组件1110包括一个麦克风(MIC),当装置1100处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1104或经由通信组件1116发送。在一些实施例中,音频组件1110还包括一个扬声器,用于输出音频信号。
I/O接口1111为处理组件1102和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1114包括一个或多个传感器,用于为装置1100提供各个方面的状态评估。例如,传感器组件1114可以检测到设备1100的打开/关闭状态,组件的相对定位,例如所述组件为装置1100的显示器和小键盘,传感器组件1114还可以检测装置1100或装置1100一个组件的位置改变,用户与装置1100接触的存在或不存在,装置1100方位或加速/减速和装置1100的温度变化。传感器组件1114可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1114还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1114还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1116被配置为便于装置1100和其他设备之间有线或无线方式的通信。装置1100可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件1116经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件1116还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置1100可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1104,上述指令可由装置1100的处理器1120执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (11)

1.一种为智能眼镜提供输入的方法,其特征在于,应用于触摸设备上,所述方法包括:
与所述智能眼镜建立连接;
确定所述触摸设备的操作区域;
建立所述操作区域和所述智能眼镜的显示区域的映射关系;
接收用户在所述操作区域输入的操作,所述操作用于为所述智能眼镜提供输入;
获得所述操作的位置,并获得所述位置在所述显示区域对应的映射位置;
向所述智能眼镜发送所述映射位置,所述映射位置用于所述智能眼镜显示用户的当前操作位置。
2.根据权利要求1所述的为智能眼镜提供输入的方法,其特征在于,所述确定所述触摸设备的操作区域,包括:
获取所述智能眼镜的分辨率和所述触摸设备的分辨率,并根据所述智能眼镜的分辨率和所述触摸设备的分辨率确定所述操作区域;或者
接收用户选择的映射方式,并根据所述映射方式确定所述操作区域。
3.根据权利要求1所述的为智能眼镜提供输入的方法,其特征在于,在所述向所述智能眼镜发送所述映射位置之后,所述方法还包括:
接收用户根据所述映射位置在所述操作区域输入的修正操作;
获得所述修正操作的位置,并获得所述修正操作的位置在所述显示区域对应的修正映射位置;
向所述智能眼镜发送所述修正映射位置,所述修正映射位置用于所述智能眼镜显示用户的当前操作位置。
4.根据权利要求1所述的为智能眼镜提供输入的方法,其特征在于,所述获得所述位置在所述显示区域对应的映射位置,包括:
获取所述智能眼镜的分辨率和所述触摸设备的分辨率;
根据所述位置、所述智能眼镜的分辨率和所述触摸设备的分辨率计算所述映射位置。
5.根据权利要求3所述的为智能眼镜提供输入的方法,其特征在于,所述获得所述修正操作的位置在所述显示区域对应的修正映射位置,包括:
获取所述智能眼镜的分辨率和所述触摸设备的分辨率;
根据所述修正操作的位置、所述智能眼镜的分辨率和所述触摸设备的分辨率计算所述修正映射位置。
6.一种为智能眼镜提供输入的装置,其特征在于,应用于触摸设备上,所述装置包括:
连接建立模块,被配置为与所述智能眼镜建立连接;
确定模块,被配置为确定所述触摸设备的操作区域;
映射建立模块,被配置为建立所述确定模块确定的所述操作区域和所述连接建立模块建立连接的所述智能眼镜的显示区域的映射关系;
接收模块,被配置为接收用户在所述操作区域输入的操作,所述操作用于为所述智能眼镜提供输入;
位置获得模块,被配置为在所述接收模块接收的所述操作的位置,并获得所述位置在所述显示区域对应的映射位置;
发送模块,被配置为向所述智能眼镜发送所述位置获得模块获得的所述映射位置,所述映射位置用于所述智能眼镜显示用户的当前操作位置。
7.根据权利要求6所述的为智能眼镜提供输入的装置,其特征在于,所述确定模块包括:
获取确定子模块,被配置为获取所述智能眼镜的分辨率和所述触摸设备的分辨率,并根据所述智能眼镜的分辨率和所述触摸设备的分辨率确定所述操作区域;或者
接收确定子模块,被配置为接收用户选择的映射方式,并根据所述映射方式确定所述操作区域。
8.根据权利要求6所述的为智能眼镜提供输入的装置,其特征在于,所述装置还包括:
修正接收模块,被配置为在所述发送模块向所述智能眼镜发送所述映射位置之后,接收用户根据所述映射位置在所述操作区域输入的修正操作;
修正位置获得模块,被配置为获得所述修正接收模块接收的所述修正操作的位置,并获得所述修正操作的位置在所述显示区域对应的修正映射位置;
修正发送模块,被配置为向所述智能眼镜发送所述修正位置获得模块获得的所述修正映射位置,所述修正映射位置用于所述智能眼镜显示用户的当前操作位置。
9.根据权利要求6所述的为智能眼镜提供输入的装置,其特征在于,所述位置获得模块包括:
获取子模块,被配置为获取所述智能眼镜的分辨率和所述触摸设备的分辨率;
计算子模块,被配置为根据所述位置、所述获取子模块获取到的所述智能眼镜的分辨率和所述触摸设备的分辨率计算所述映射位置。
10.根据权利要求8所述的为智能眼镜提供输入的装置,其特征在于,所述修正位置获得模块包括:
获取子模块,被配置为获取所述智能眼镜的分辨率和所述触摸设备的分辨率;
计算子模块,被配置为根据所述修正操作的位置、所述获取子模块获取到的所述智能眼镜的分辨率和所述触摸设备的分辨率计算所述修正映射位置。
11.一种为智能眼镜提供输入的触摸设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
与所述智能眼镜建立连接;
确定所述触摸设备的操作区域;
建立所述操作区域和所述智能眼镜的显示区域的映射关系;
接收用户在所述操作区域输入的操作,所述操作用于为所述智能眼镜提供输入;
获得所述操作的位置,并获得所述位置在所述显示区域对应的映射位置;
向所述智能眼镜发送所述映射位置,所述映射位置用于所述智能眼镜显示用户的当前操作位置。
CN201610987507.XA 2016-11-09 2016-11-09 为智能眼镜提供输入的方法、装置及触摸设备 Pending CN106569725A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610987507.XA CN106569725A (zh) 2016-11-09 2016-11-09 为智能眼镜提供输入的方法、装置及触摸设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610987507.XA CN106569725A (zh) 2016-11-09 2016-11-09 为智能眼镜提供输入的方法、装置及触摸设备

Publications (1)

Publication Number Publication Date
CN106569725A true CN106569725A (zh) 2017-04-19

Family

ID=58540820

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610987507.XA Pending CN106569725A (zh) 2016-11-09 2016-11-09 为智能眼镜提供输入的方法、装置及触摸设备

Country Status (1)

Country Link
CN (1) CN106569725A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825223A (zh) * 2019-10-22 2020-02-21 维沃移动通信有限公司 一种控制方法及智能眼镜
US11934735B2 (en) 2021-11-09 2024-03-19 Samsung Electronics Co., Ltd. Apparatus and method for providing contents related to augmented reality service between electronic device and wearable electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779000A (zh) * 2012-05-03 2012-11-14 乾行讯科(北京)科技有限公司 一种用户交互系统和方法
CN103941915A (zh) * 2014-04-04 2014-07-23 百度在线网络技术(北京)有限公司 智能眼镜系统及其控制方法
CN105446488A (zh) * 2015-12-03 2016-03-30 小米科技有限责任公司 提醒控制方法及装置
CN105739857A (zh) * 2016-01-25 2016-07-06 北京小米移动软件有限公司 控制移动终端的方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779000A (zh) * 2012-05-03 2012-11-14 乾行讯科(北京)科技有限公司 一种用户交互系统和方法
CN103941915A (zh) * 2014-04-04 2014-07-23 百度在线网络技术(北京)有限公司 智能眼镜系统及其控制方法
CN105446488A (zh) * 2015-12-03 2016-03-30 小米科技有限责任公司 提醒控制方法及装置
CN105739857A (zh) * 2016-01-25 2016-07-06 北京小米移动软件有限公司 控制移动终端的方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825223A (zh) * 2019-10-22 2020-02-21 维沃移动通信有限公司 一种控制方法及智能眼镜
US11934735B2 (en) 2021-11-09 2024-03-19 Samsung Electronics Co., Ltd. Apparatus and method for providing contents related to augmented reality service between electronic device and wearable electronic device

Similar Documents

Publication Publication Date Title
KR102036977B1 (ko) 디바이스를 제어하는 방법 및 장치, 및 단말 디바이스
EP3188414B1 (en) Method and apparatus for controlling smart device
CN103973979B (zh) 一种配置拍摄参数的方法及装置
CN105120144A (zh) 图像拍摄方法和装置
CN104703295A (zh) 网络接入方法及装置
CN105120099A (zh) 拍摄控制方法和装置
CN106775525A (zh) 控制投影仪的方法及装置
CN106792448A (zh) 蓝牙连接方法和装置、系统
CN104331220A (zh) 解锁处理方法及装置
CN106203650A (zh) 打车请求发送方法及装置
CN104933419A (zh) 获取虹膜图像的方法、装置及红膜识别设备
CN104936039A (zh) 图像处理方法及装置
CN105117111A (zh) 虚拟现实交互画面的渲染方法和装置
CN107092359A (zh) 虚拟现实视角重定位方法、装置及终端
CN104243829A (zh) 自拍的方法及装置
CN105120301A (zh) 视频处理方法和装置、智能设备
CN104950838A (zh) 网络账户绑定方法及装置
CN105549300A (zh) 自动对焦方法及装置
CN103885678A (zh) 显示对象的方法及装置
CN104640062A (zh) 信息传输方法及装置
CN106358064A (zh) 控制电视机的方法及设备
CN106681632A (zh) 投射控制方法、装置、系统、终端设备及显示设备
CN106569725A (zh) 为智能眼镜提供输入的方法、装置及触摸设备
CN105657325A (zh) 一种视频通信的方法、装置和系统
CN105721283A (zh) 截屏消息的发送方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170419