CN103616998A - 用户信息获取方法及用户信息获取装置 - Google Patents

用户信息获取方法及用户信息获取装置 Download PDF

Info

Publication number
CN103616998A
CN103616998A CN201310572154.3A CN201310572154A CN103616998A CN 103616998 A CN103616998 A CN 103616998A CN 201310572154 A CN201310572154 A CN 201310572154A CN 103616998 A CN103616998 A CN 103616998A
Authority
CN
China
Prior art keywords
user
image
information
related information
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310572154.3A
Other languages
English (en)
Other versions
CN103616998B (zh
Inventor
杜琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhigu Ruituo Technology Services Co Ltd
Original Assignee
Beijing Zhigu Ruituo Technology Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhigu Ruituo Technology Services Co Ltd filed Critical Beijing Zhigu Ruituo Technology Services Co Ltd
Priority to CN201310572154.3A priority Critical patent/CN103616998B/zh
Priority to US14/888,204 priority patent/US9838588B2/en
Priority to PCT/CN2014/071141 priority patent/WO2015070536A1/zh
Publication of CN103616998A publication Critical patent/CN103616998A/zh
Application granted granted Critical
Publication of CN103616998B publication Critical patent/CN103616998B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • G06F21/16Program or content traceability, e.g. by watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Technology Law (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种用户信息获取方法及用户信息获取装置,所述方法包括:图像获取步骤,获取一包含至少一数字水印的图像;信息获取步骤,获取所述图像中所述数字水印包含的与当前用户对应的至少一用户相关信息,所述用户相关信息包括一用于启动一对应应用的应用启动信息;投射步骤,将所述用户相关信息向所述用户的眼底投射。此外,本发明还公开了一种用户信息交互方法及用户信息交互装置,所述方法包括:水印嵌入模块,用于在一图像中嵌入至少一数字水印,所述数字水印中包含与至少一用户对应的至少一用户相关信息;所述用户相关信息包括一用于启动一对应应用的应用启动信息。本发明使得用户可以快速、安全、方便的启动对应应用。

Description

用户信息获取方法及用户信息获取装置
技术领域
本发明涉及信息获取技术,尤其涉及一种用户信息获取方法及装置。
背景技术
电子设备基于节能和防止误操作的原因,通常都会设置屏幕锁定,而用户实际操作时,往往需要先解锁屏幕后,再启动相应的应用程序来完成用户需要的功能。
公开号为US8136053的专利公开了一种通过特殊的屏幕解锁手势来自动启动特定的操作,例如启动不同的应用程序等。该方法虽然可以通过不同手势启动不同应用,但记忆手势比较困难,而且无法区分操作的用户,安全性不高。
此外,当电子设备需要给不同用户使用时,可以设置不同的用户环境,通常方法是通过不同的用户名和密码登录不同的用户环境,这样做也存在不够方便和不够安全的问题。
因此,需要找到一种更加方便、安全的方法,帮助用户快速启动用户环境中应用。
发明内容
本发明要解决的技术问题是:提供一种用户信息获取方法及装置,以获得用户相关信息,进而可以帮助用户快速、方便、安全的启动相关的应用。
为实现上述目的,第一方面,本发明提供了一种用户信息获取方法,包括:
图像获取步骤,获取一包含至少一数字水印的图像;
信息获取步骤,获取所述图像中所述数字水印包含的与当前用户对应的至少一用户相关信息,所述用户相关信息包括一用于启动一对应应用的应用启动信息;
投射步骤,将所述用户相关信息向所述用户的眼底投射。
第二方面,本发明提供了一种用户信息交互方法,包括:
水印嵌入步骤,在一图像中嵌入至少一数字水印,所述数字水印中包含与至少一用户对应的至少一用户相关信息;所述用户相关信息包括一用于启动一对应应用的应用启动信息。
第三方面,本发明提供了一种用户信息获取装置,包括:
图像获取模块,用于获取一包含至少一数字水印的图像;
信息获取模块,用于获取所述图像中所述数字水印包含的与当前用户对应的至少一用户相关信息,所述用户相关信息包括一用于启动一对应应用的应用启动信息;
投射模块,用于将所述用户相关信息向所述用户的眼底投射。
第四方面,本发明提供了一种可穿戴设备,包含上述的用户信息获取装置。
第五方面,本发明提供了一种用户信息交互装置,包括:
水印嵌入模块,用于在一图像中嵌入至少一数字水印,所述数字水印中包含与至少一用户对应的至少一用户相关信息;所述用户相关信息包括一用于启动一对应应用的应用启动信息。
第六方面,本发明提供了一种电子终端,包括上述的用户信息交互装置。
本发明实施例的上述技术方案通过提取包含数字水印的图像中的与当前用户对应的用户相关信息,使得用户可以保密地获得快速启动一应用的应用启动信息,进而可以快速、安全、方便的启动对应应用。
附图说明
图1为本发明实施例的一种用户信息获取方法的步骤流程图;
图2和图3为本发明实施例的一种用户信息获取方法的应用示意图;
图4a和图4b为本发明实施例一种用户信息获取方法使用的光斑图案以及在眼底获得的包括所述光斑图案的图像的示意图;
图5为本发明实施例一种用户信息获取装置的结构示意框图;
图6a和6b为本发明实施例另外两种用户信息获取装置的结构示意框图;
图7a为本发明实施例一种用户信息获取装置使用的位置检测模块的结构示意框图;
图7b为本发明实施例另一种用户信息获取装置使用的位置检测模块的结构示意框图;
图7c和图7d为本发明实施例一种用户信息获取装置使用的位置检测模块进行位置检测时对应的光路图;
图8为本发明实施例一种用户信息获取装置应用在眼镜上的示意图;
图9为本发明实施例另一种用户信息获取装置应用在眼镜上的示意图;
图10为本发明实施例又一种用户信息获取装置应用在眼镜上的示意图;
图11为本发明实施例再一种用户信息获取装置的结构示意图;
图12为本发明实施例一种可穿戴设备的结构示意框图;
图13为本发明实施例一种用户信息交互方法的步骤流程图;
图14为本发明实施例一种用户信息交互装置的结构示意框图。
图15为本发明实施例一种电子终端的结构示意框图。
图16为本发明实施例另一种用户信息交互装置的结构示意框图。
具体实施方式
本发明的方法及装置结合附图及实施例详细说明如下。
一般,用户需要首先进入对应的用户环境,才能启动该用户环境中的应用,对一些用户经常需要使用的应用来说,不是很方便。
数字水印技术是将一些标识信息嵌入到数字载体中,来进行版权保护、防伪、鉴权、信息隐藏等,通常都需要一定的设备通过特定的算法来读取和验证,有时还需要第三方权威机构参与认证过程,这些复杂过程一定程度上限制了它们的应用。随着可穿戴式设备特别是智能眼镜的出现,可以在智能眼镜中以视觉呈现的方式来提醒用户看到的数字水印信息,而用户屏幕解锁的密码、图案、动作等就可以作为数字水印嵌入在锁屏背景图中,特定的用户可以通过佩戴认证过的智能眼镜来看到隐藏的水印内容,间接完成其它设备的用户认证过程。因此本发明实施例提供了下面的技术方案来帮助用户快速并安全的启动自己需要的应用。
在本发明实施例的下述描述中,所述“用户环境”为与用户相关的使用环境,例如用户通过手机、电脑等电子终端的用户登录界面登录后,进入到的电子终端系统的使用环境,该电子终端系统的使用环境中一般包括多个应用,例如用户通过手机的锁屏界面进入手机系统的使用环境之后,就可以启动该系统中的各功能模块对应的应用,例如电话、邮件、信息、相机等应用;或者,例如还可以为用户通过某个应用的登录界面登陆后,进入到的该应用的使用环境,该应用的使用环境中有可能还包括多个下一级的应用,例如,上述手机系统中的电话应用,启动之后,所述电话应用中有可能还包括打电话、联系人、通话记录等下一级的应用。
如图1所示,本发明实施例提供了一种用户信息获取方法,包括:
S110图像获取步骤,获取一包含至少一数字水印的图像;
S120信息获取步骤,获取所述图像中所述数字水印包含的与当前用户对应的至少一用户相关信息,所述用户相关信息包括一用于启动一对应应用的应用启动信息;
S130投射步骤,将所述用户相关信息向所述用户的眼底投射。
本发明实施例的方法通过提取包含数字水印的图像中的与当前用户对应的用户相关信息,使得用户可以保密地获得快速启动一应用的应用启动信息,进而可以快速、安全、方便的启动对应应用。
下面本发明实施例通过以下的实施方式对各步骤进行进一步的描述:
S110图像获取步骤,获取一包含至少一数字水印的图像。
本发明实施例获取所述图像的方式有多种,例如:
1)通过拍摄的方式获取所述图像。
在本发明实施例中,优选地,可以通过一智能眼镜设备,拍摄用户看到的物体,例如当用户看到所述图像时,所述智能眼镜设备拍摄到所述图像。
2)通过接收的方式获取所述图像。
在本发明实施例的一种可能的实施方式中,还可以通过其它设备获取所述图像,或者通过与一显示该图像的设备之间的交互来获取所述图像。
S120信息获取步骤,获取所述图像中所述数字水印包含的与当前用户对应的至少一用户相关信息。
在本发明实施例中,获取所述用户相关信息的方法有多种,例如为以下的一种或多种:
1)从所述图像中提取所述用户相关信息。
在本实施方式中,例如可以通过个人私钥及公开或私有的水印提取方法来分析所述图像中的数字水印,提取所述用户相关信息。
2)将所述图像向外部发送;并从外部接收所述图像中的所述用户相关信息。
在本实施方式中,可以将所述图像向外部发送,例如发送至云端服务器和/或一第三方权威机构,通过所述云端服务器或所述第三方权威机构来提取所述图像的数字水印中的所述用户相关信息。
如图2所示,在本发明实施例的一种可能的实施方式中,所述图像为一设备显示的一用户环境的登录界面110。
此时,所述应用启动信息,用于在所述登录界面直接启动与所述当前用户对应的所述用户环境中的至少一个对应应用。
在现有技术中,例如一些不需要进行用户鉴权的电子设备的锁屏界面上也有一些应用的快速启动接口,虽然很方便,但是很不安全。而用户通过本发明实施例可以在一用户环境的登录界面保密地获得用于直接从所述登录界面启动所述用户环境中对应应用的应用启动信息,使得用户可以快速、方便、安全的启动需要的应用,改善用户体验。
在一种可能的实施方式中,除了上述的应用启动信息外,所述用户相关信息还包括:所述当前用户用于登录所述用户环境的一用户鉴权信息。
这里所述的用户鉴权信息例如为用户登录所述用户环境的用户名、密码、手势等信息,通过输入该用户鉴权信息,用户可以进入到对应的用户环境中。例如在一手机的锁屏界面上输入的用户设定的密码或特定的手指一动轨迹等来解除锁屏状态,并进入手机系统的用户环境中。如图3所示,用户可以通过在屏幕上输入图3所示的用户鉴权信息130来进入所述用户环境中(例如通过输入图3所示的“lina”图形的轨迹进入与该用户对应的用户环境),而不直接启动应用。
在本发明实施例的一些可能的实施方式中,在所述信息获取步骤之前还包括:认证当前用户的步骤。通过对当前用户的身份进行确认,进而使得所述步骤S120能够获得与所述用户对应的所述用户相关信息。例如,用户使用一经过身份认证的智能眼镜来实现本发明实施例各步骤的功能。
当然,对于一些保密要求不是特别高的场合,也可以不进行所述认证,用户只要通过对应的设备就可以得到该设备可以得到的对应信息。还是以用户通过一智能眼镜来实现本发明实施例各步骤的功能为例,一般特定的眼镜只有特定的用户会使用,因此,只要通过一智能眼镜,就可以获得与该智能眼镜对应的用户相关信息,而不需要特地对用户的身份进行确认。
S130投射步骤,将所述用户相关信息向所述用户的眼底投射。
在本发明实施例中,为了使得用户可以在保密的场合下得到所述用户相关信息,通过将所述用户相关信息向用户眼底投射的方式来使得用户获得对应的所述用户相关信息。
在一种可能的实施方式中,该投射可以是将所述用户相关信息通过投射模块直接投射至用户的眼底。
在另一种可能的实施方式中,该投射还可以是将所述用户相关信息显示在只有用户可以看到的位置(例如一智能眼镜的显示面上),通过该显示面将所述用户相关信息投射至用户眼底。
其中,第一种方式由于不需要将用户相关信息通过中间显示,而是直接到达用户眼底,因此其隐私性更高。下面进一步说明本实施方式,所述投射步骤包括:
信息投射步骤,投射所述用户相关信息;
参数调整步骤,调整所述投射位置与所述用户的眼睛之间光路的至少一投射成像参数,直至所述用户相关信息在所述用户的眼底清晰成像。
在本发明实施例的一种可能的实施方式中,所述参数调整步骤包括:
调节所述投射位置与所述用户的眼睛之间光路的至少一光学器件的至少一成像参数和/或在光路中的位置。
这里所述成像参数包括光学器件的焦距、光轴方向等等。通过该调节,可以使得所述用户相关信息被合适地投射在用户的眼底,例如通过调节所述光学器件的焦距使得所述用户相关信息清晰地在用户的眼底成像。或者在下面提到的实施方式中,需要进行立体显示时,除了在生成所述用户相关信息时直接生成带视差的左、右眼图像外,通过将相同的用户相关信息具有一定偏差地分别投射至两只眼睛也可以实现所述用户相关信息的立体显示效果,此时,例如可以调节所述光学器件的光轴参数来达到该效果。
由于用户观看所述用户相关信息时眼睛的视线方向可能会变化,需要在用户眼睛的视线方向不同时都能将所述用户相关信息较好的投射到用户的眼底,因此,在本发明实施例的一种可能的实施方式中,所述投射步骤S130还包括:
分别对应所述眼睛光轴方向不同时瞳孔的位置,将所述用户相关信息向所述用户的眼底传递。
在本发明实施例的一种可能的实施方式中,可能会需要通过曲面分光镜等曲面光学器件来实现所述上述步骤的功能,但是通过曲面光学器件后待显示的内容一般会发生变形,因此,在本发明实施例的一种可能的实施方式中,所述投射步骤S130还包括:
对所述用户相关信息进行与所述眼睛光轴方向不同时瞳孔的位置对应的反变形处理,使得眼底接收到需要呈现的所述用户相关信息。
例如:对投射的用户相关信息进行预处理,使得投射出的用户相关信息具有与所述变形相反的反变形,该反变形效果再经过上述的曲面光学器件后,与曲面光学器件的变形效果相抵消,从而用户眼底接收到的用户相关信息是需要呈现的效果。
在一种可能的实施方式中,投射到用户眼睛中的用户相关信息不需要与所述图像进行对齐,例如,当需要用户按一定顺序在所述图像中显示的输入框中输入一组应用启动信息或用户鉴权信息,如“1234”时,只需要将该组信息投射在用户的眼底被用户看到即可。但是,在一些情况下,例如,当所述用户相关信息为一在特定位置完成特定动作,例如需要在显示所述图像的屏幕上的特定位置画出特定轨迹时,需要将所述用户相关信息与所述图像进行对齐显示。因此,在本发明实施例的一种可能的实施方式中,所述投射步骤S130包括:
对齐调整步骤,将所述投射的用户相关信息与所述用户看到的图像在所述用户的眼底对齐。
如图3所示,本实施方式中,用户通过步骤S120获取了六个用户相关信息,其中包括五个应用启动信息120和一个用户鉴权信息130。
由图3可以看出,本实施方式中,用户通过所述投射步骤看到的所述应用启动信息120包括用于标识应用的标识信息121(可以为图3所示的图形,也可以为其它文字、符号等;当然在一些实施方式中,所述标识信息121也可以是直接显示在所述图像上的)以及启动所述应用的输入信息122(可以为图3中所示的图形轨迹,也可以为数字、符号等)。当然,在本发明实施例的其它实施方式中,所述应用启动信息可能只包括所述输入信息。以图3所示的登录界面110上左上角的应用启动信息120为例,该应用启动信息120包括左侧的浏览器应用的标识信息121,以及右侧的“e”形图形轨迹。例如,用户可以通过在所述屏幕上画一个“e”形轨迹,就可以直接启动浏览器的应用。
在一些实施例中,为了防止用户误操作,并且提高输入的保密性,需要在特定位置,例如在图3所示的“e”形轨迹所在的屏幕的位置,输入特定的图形轨迹,例如图3所示的“e”形轨迹,才可以启动对应的应用。在这种情况下,需要将所述投射的用户相关信息与所述图像进行对齐,使得用户在需要的位置看到所述用户相关信息。
为了实现上述的对齐功能,在一种可能的实施方式中,所述方法还包括:
位置检测步骤,检测所述用户的注视点相对于所述用户的位置;
所述对齐调整步骤,根据所述用户注视点相对于所述用户的所述位置将所述投射的用户相关信息与所述用户看到的图像在所述用户的眼底对齐。
这里,由于用户此时正在看所述图像,例如用户的手机锁屏界面,因此,用户的注视点对应的位置即为所述图像所在的位置。
本实施方式中,检测所述用户注视点位置的方式有多种,例如包括以下的一种或多种:
i)采用一个瞳孔方向检测器检测一个眼睛的光轴方向、再通过一个深度传感器(如红外测距)得到眼睛注视场景的深度,得到眼睛视线的注视点位置,该技术为已有技术,本实施方式中不再赘述。
ii)分别检测两眼的光轴方向,再根据所述两眼光轴方向得到用户两眼视线方向,通过所述两眼视线方向的交点得到眼睛视线的注视点位置,该技术也为已有技术,此处不再赘述。
iii)根据采集到眼睛的成像面呈现的最清晰图像时图像采集位置与眼睛之间光路的光学参数以及眼睛的光学参数,得到所述眼睛视线的注视点位置,本发明实施例会在下面给出该方法的详细过程,此处不再赘述。
当然,本领域的技术人员可以知道,除了上述几种形式的注视点检测方法外,其它可以用于检测用户眼睛注视点的方法也可以用于本发明实施例的方法中。
其中,通过第iii)种方法检测用户当前的注视点位置的步骤包括:
眼底图像采集步骤,采集一所述用户眼底的图像;
可调成像步骤,进行所述眼底图像采集位置与所述用户眼睛之间光路的至少一成像参数的调节直至采集到一最清晰的图像;
图像处理步骤,对采集到的所述眼底的图像进行分析,得到与所述最清晰的图像对应的所述眼底图像采集位置与所述眼睛之间光路的所述成像参数以及所述眼睛的至少一光学参数,并计算所述用户当前的注视点相对于所述用户的位置。
通过对眼睛眼底的图像进行分析处理,得到采集到最清晰图像时眼睛的光学参数,从而计算得到视线当前的对焦点位置,为进一步基于该精确的对焦点的位置对观察者的观察行为进行检测提供基础。
这里的“眼底”呈现的图像主要为在视网膜上呈现的图像,其可以为眼底自身的图像,或者可以为投射到眼底的其它物体的图像,例如下面提到的光斑图案。
在可调成像步骤中,可通过对眼睛与采集位置之间的光路上的光学器件的焦距和/或在光路中的位置进行调节,可在该光学器件在某一个位置或状态时获得眼底最清晰的图像。该调节可为连续实时的。
在本发明实施例方法的一种可能的实施方式中,该光学器件可为焦距可调透镜,用于通过调整该光学器件自身的折射率和/或形状完成其焦距的调整。具体为:1)通过调节焦距可调透镜的至少一面的曲率来调节焦距,例如在双层透明层构成的空腔中增加或减少液体介质来调节焦距可调透镜的曲率;2)通过改变焦距可调透镜的折射率来调节焦距,例如焦距可调透镜中填充有特定液晶介质,通过调节液晶介质对应电极的电压来调整液晶介质的排列方式,从而改变焦距可调透镜的折射率。
在本发明实施例的方法的另一种可能的实施方式中,该光学器件可为:透镜组,用于通过调节透镜组中透镜之间的相对位置完成透镜组自身焦距的调整。或者,所述透镜组中的一片或多片透镜为上面所述的焦距可调透镜。
除了上述两种通过光学器件自身的特性来改变系统的光路参数以外,还可以通过调节光学器件在光路上的位置来改变系统的光路参数。
此外,在本发明实施例的方法中,所述图像处理步骤进一步包括:
对在眼底图像采集步骤中采集到的图像进行分析,找到最清晰的图像;
根据所述最清晰的图像、以及得到所述最清晰图像时已知的成像参数计算眼睛的光学参数。
所述可调成像步骤中的调整使得能够采集到最清晰的图像,但是需要通过所述图像处理步骤来找到该最清晰的图像,根据所述最清晰的图像以及已知的光路参数就可以通过计算得到眼睛的光学参数。
在本发明实施例的方法中,所述图像处理步骤中还可包括:
向眼底投射光斑。所投射的光斑可以没有特定图案仅用于照亮眼底。所投射的光斑还可包括特征丰富的图案。图案的特征丰富可以便于检测,提高检测精度。如图4a所示为一个光斑图案P的示例图,该图案可以由光斑图案生成器形成,例如毛玻璃;图4b所示为在有光斑图案P投射时采集到的眼底的图像。
为了不影响眼睛的正常观看,优选的,所述光斑为眼睛不可见的红外光斑。此时,为了减小其它光谱的干扰:可滤除投射的光斑中眼睛不可见光之外的光。
相应地,本发明实施的方法还可包括步骤:
根据上述步骤分析得到的结果,控制投射光斑亮度。该分析结果例如包括所述采集到的图像的特性,包括图像特征的反差以及纹理特征等。
需要说明的是,控制投射光斑亮度的一种特殊的情况为开始或停止投射,例如观察者持续注视一点时可以周期性停止投射;观察者眼底足够明亮时可以停止投射,利用眼底信息来检测眼睛当前视线对焦点到眼睛的距离。
此外,还可以根据环境光来控制投射光斑亮度。
优选地,在本发明实施例的方法中,所述图像处理步骤还包括:
进行眼底图像的校准,获得至少一个与眼底呈现的图像对应的基准图像。具言之,将采集到的图像与所述基准图像进行对比计算,获得所述最清晰的图像。这里,所述最清晰的图像可以为获得的与所述基准图像差异最小的图像。在本实施方式的方法中,可以通过现有的图像处理算法计算当前获得的图像与基准图像的差异,例如使用经典的相位差值自动对焦算法。
所述眼睛的光学参数可包括根据采集到所述最清晰图像时眼睛的特征得到的眼睛光轴方向。这里眼睛的特征可以是从所述最清晰图像上获取的,或者也可以是另外获取的。根据所述眼睛的光轴方向可以得到用户眼睛视线的注视方向。具言之,可根据得到所述最清晰图像时眼底的特征得到眼睛光轴方向,并且通过眼底的特征来确定眼睛光轴方向精确度更高。
在向眼底投射光斑图案时,光斑图案的大小有可能大于眼底可视区域或小于眼底可视区域,其中:
当光斑图案的面积小于等于眼底可视区域时,可以利用经典特征点匹配算法(例如尺度不变特征转换(Scale Invariant FeatureTransform,SIFT)算法)通过检测图像上的光斑图案相对于眼底位置来确定眼睛光轴方向。
当光斑图案的面积大于等于眼底可视区域时,可以通过得到的图像上的光斑图案相对于原光斑图案(通过图像校准获得)的位置来确定眼睛光轴方向确定观察者视线方向。
在本发明实施例的方法的另一种可能的实施方式中,还可根据得到所述最清晰图像时眼睛瞳孔的特征得到眼睛光轴方向。这里眼睛瞳孔的特征可以是从所述最清晰图像上获取的,也可以是另外获取的。通过眼睛瞳孔特征得到眼睛光轴方向为已有技术,此处不再赘述。
此外,在本发明实施例的方法中,还可包括对眼睛光轴方向的校准步骤,以便更精确的进行上述眼睛光轴方向的确定。
在本发明实施例的方法中,所述已知的成像参数包括固定的成像参数和实时成像参数,其中实时成像参数为获取最清晰图像时所述光学器件的参数信息,该参数信息可以在获取所述最清晰图像时实时记录得到。
在得到眼睛当前的光学参数之后,就可以结合计算得到的眼睛对焦点到眼睛的距离(具体过程将结合装置部分详述),得到眼睛注视点的位置。
为了让用户看到的用户相关信息具有立体显示效果、更加真实,在本发明实施例的一种可能的实施方式中,可以在所述投射步骤130中,将所述用户相关信息立体地向所述用户的眼底投射。
如上面所述的,在一种可能的实施方式中,该立体的显示可以是将相同的信息,通过投射步骤投射位置的调整,使得用户两只眼睛看到的具有视差的信息,形成立体显示效果。
在另一种可能的实施方式中,所述用户相关信息包括分别与所述用户的两眼对应的立体信息,所述投射步骤中,分别向所述用户的两眼投射对应的用户相关信息。即:所述用户相关信息包括与用户左眼对应的左眼信息以及与用户右眼对应的右眼信息,投射时将所述左眼信息投射至用户左眼,将右眼信息投射至用户右眼,使得用户看到的用户相关信息具有适合的立体显示效果,带来更好的用户体验。此外,在对用户输入的用户相关信息中含有三维空间信息时,通过上述的立体投射,使得用户可以看到所述三维空间信息。例如:当需要用户在三维空间中特定的位置做特定的手势才能正确输入所述用户相关信息时,通过本发明实施例的上述方法使得用户看到立体的用户相关信息,获知所述特定的位置和特定的手势,进而使得用户可以在所述特定位置做所述用户相关信息提示的手势,此时其它人即使看到用户进行的手势动作,但是由于无法获知所述空间信息,使得所述用户相关信息的保密效果更好。
如图5所示,本发明实施例还提供了一种用户信息获取装置500,包括:
图像获取模块510,用于获取一包含至少一数字水印的图像;
信息获取模块520,用于获取所述图像中所述数字水印包含的与当前用户对应的至少一用户相关信息,所述用户相关信息包括一用于启动一对应应用的应用启动信息;
投射模块530,用于将所述用户相关信息向所述用户的眼底投射。
本发明实施例的方法通过提取包含数字水印的图像中的与当前用户对应的用户相关信息,使得用户可以保密地获得快速启动一应用的应用启动信息,进而可以快速、安全、方便的启动对应应用。
为了让用户更加自然、方便地获取所述用户相关信息,本发明实施例的装置优选地为一用于用户眼睛附近的可穿戴设备,例如一智能眼镜。在用户视线的注视点落在所述图像上时,通过所述图像获取模块510自动获取所述图像,并在获得所述用户相关信息后将所述信息投射至用户眼底。
下面本发明实施例通过以下的实施方式对上述装置的各模块进行进一步的描述:
在本发明实施例的实施方式中,所述图像获取模块510的形式可以有多种,例如:
如图6a所示,所述图像获取模块510包括一拍摄子模块511,用于拍摄所述图像。
其中所述拍摄子模块511,例如可以为一智能眼镜的摄像头,用于对用户看到的图像进行拍摄。
如图6b所示,在本发明实施例的另一个实施方式中,所述图像获取模块510包括:
一第一通信子模块512,用于接收所述图像。
在本实施方式中,可以通过其它设备获取所述图像,再发送本发明实施例的装置;或者通过与一显示该图像的设备之间的交互来获取所述图像(即所述设备将显示的图像信息传送给本发明实施例的装置)。
在本发明实施例中,所述信息获取模块520的形式也可以有多种,例如:
如图6a所示,所述信息获取模块520包括:一信息提取子模块521,用于从所述图像中提取所述用户相关信息。
在本实施方式中,所示信息提取子模块512例如可以通过个人私钥及公开或私有的水印提取方法来分析所述图像中的数字水印,提取所述用户相关信息。
如图6b所示,在本发明实施例的另一个实施方式中,所述信息获取模块520包括:一第二通信子模块522,用于:
将所述图像向外部发送;从外部接收所述图像中的所述用户相关信息。
在本实施方式中,可以将所述图像向外部发送,例如发送至云端服务器和/或一第三方权威机构,通过所述云端服务器或所述第三方权威机构来提取所述图像的数字水印中的所述用户相关信息后,再回发给本发明实施例的所述第二通信子模块522。
这里,所述第一通信子模块512与所述第二通信子模块522的功能有可能由同一通信模块实现。
如图6a所示,在本发明实施例的一种可能的实施方式中,在需要对装置的用户进行认证的场合,所述装置500还包括:用户认证模块550,用于认证当前用户。
所述用户认证模块可以为现有的用户认证模块,例如:通过用户的瞳孔、指纹等生物特征进行认证的认证模块;或者,通过用户输入的指令进行认证的模块等等,这些认证模块都为已有的技术,这里不再赘述。
还是以智能眼镜为例,当用户使用能实现本发明实施例装置的功能的智能眼镜时,首先智能眼镜对用户进行认证,使得智能眼镜知道用户的身份,在之后通过所述信息提取模块520提取所述用户相关信息时,只获取与用户对应的用户相关信息。即,用户只需要对自己的智能眼镜进行一次用户认证后,就可以通过所述智能眼镜对自己的或公用的各设备进行用户相关信息的获取。
当然,本领域的技术人员可以知道,在不需要对用户进行认证时,所述装置可以不包括所述用户认证模块,如图6b所示。
如图6a所示,在本实施方式中,所述投射模块530包括:
一信息投射子模块531,用于投射所述用户相关信息;
一参数调整子模块532,用于调整所述投射位置与所述用户的眼睛之间光路的至少一投射成像参数,直至所述用户相关信息在所述用户的眼底清晰成像。
在一种实施方式中,所述参数调整子模块532包括:
至少一可调透镜器件,其自身焦距可调和/或在所述投射位置与所述用户的眼睛之间光路上的位置可调。
如图6b所示,在一种实施方式中,所述投射模块530包括:
一曲面分光器件533,用于分别对应所述眼睛光轴方向不同时瞳孔的位置,将所述用户相关信息向所述用户的眼底传递。
在一种实施方式中,所述投射模块530包括:
一反变形处理子模块534,用于对所述用户相关信息进行与所述眼睛光轴方向不同时瞳孔的位置对应的反变形处理,使得眼底接收到需要呈现的所述用户相关信息。
在一种实施方式中,所述投射模块530包括:
一对齐调整子模块535,用于将所述投射的用户相关信息与所述用户看到的图像在所述用户的眼底对齐。
在一种实施方式中,所述装置还包括:
一位置检测模块540,用于检测所述用户的注视点相对于所述用户的位置;
所述对齐调整子模块535,用于根据所述用户注视点相对于所述用户的所述位置将所述投射的用户相关信息与所述用户看到的图像在所述用户的眼底对齐。
上述投射模块的各子模块的功能参见上面方法实施例中对应步骤的描述,并且在下面图7a-7d,图8和图9中所示的实施例中也会给出实例。
本发明实施例中,所述位置检测模块540可以有多种实现方式,例如方法实施例的i)-iii)种所述方法对应的装置。本发明实施例通过图7a-图7d、图8以及图9对应的实施方式来进一步说明第iii)种方法对应的位置检测模块:
如图7a所示,在本发明实施例的一种可能的实施方式中,所述位置检测模块700包括:
一眼底图像采集子模块710,用于采集一所述用户眼底的图像;
一可调成像子模块720,用于进行所述眼底图像采集位置与所述用户眼睛之间光路的至少一成像参数的调节直至采集到一最清晰的图像;
一图像处理子模块730,用于对采集到的所述眼底的图像进行分析,得到与所述最清晰的图像对应的所述眼底图像采集位置与所述眼睛之间光路的所述成像参数以及所述眼睛的至少一光学参数,并计算所述用户当前的注视点相对于所述用户的位置。
本位置检测模块700通过对眼睛眼底的图像进行分析处理,得到所述眼底图像采集子模块获得最清晰图像时眼睛的光学参数,就可以计算得到眼睛当前的注视点位置。
这里的“眼底”呈现的图像主要为在视网膜上呈现的图像,其可以为眼底自身的图像,或者可以为投射到眼底的其它物体的图像。这里的眼睛可以为人眼,也可以为其它动物的眼睛。
如图7b所示,本发明实施例的一种可能的实施方式中,所述眼底图像采集子模块710为微型摄像头,在本发明实施例的另一种可能的实施方式中,所述眼底图像采集子模块710还可以直接使用感光成像器件,如CCD或CMOS等器件。
在本发明实施例的一种可能的实施方式中,所述可调成像子模块720包括:可调透镜器件721,位于眼睛与所述眼底图像采集子模块710之间的光路上,自身焦距可调和/或在光路中的位置可调。通过该可调透镜器件721,使得从眼睛到所述眼底图像采集子模块710之间的系统等效焦距可调,通过可调透镜器件721的调节,使得所述眼底图像采集子模块710在可调透镜器件721的某一个位置或状态时获得眼底最清晰的图像。在本实施方式中,所述可调透镜器件721在检测过程中连续实时的调节。
优选地,在本发明实施例的一种可能的实施方式中,所述可调透镜器件721为:焦距可调透镜,用于通过调节自身的折射率和/或形状完成自身焦距的调整。具体为:1)通过调节焦距可调透镜的至少一面的曲率来调节焦距,例如在双层透明层构成的空腔中增加或减少液体介质来调节焦距可调透镜的曲率;2)通过改变焦距可调透镜的折射率来调节焦距,例如焦距可调透镜中填充有特定液晶介质,通过调节液晶介质对应电极的电压来调整液晶介质的排列方式,从而改变焦距可调透镜的折射率。
在本发明实施例的另一种可能的实施方式中,所述可调透镜器件721包括:多片透镜构成的透镜组,用于调节透镜组中透镜之间的相对位置完成透镜组自身焦距的调整。所述透镜组中也可以包括自身焦距等成像参数可调的透镜。
除了上述两种通过调节可调透镜器件721自身的特性来改变系统的光路参数以外,还可以通过调节所述可调透镜器件721在光路上的位置来改变系统的光路参数。
优选地,在本发明实施例的一种可能的实施方式中,为了不影响用户对观察对象的观看体验,并且为了使得系统可以便携应用在穿戴式设备上,所述可调成像子模块720还包括:分光单元722,用于形成眼睛和观察对象之间、以及眼睛和眼底图像采集子模块710之间的光传递路径。这样可以对光路进行折叠,减小系统的体积,同时尽可能不影响用户的其它视觉体验。
优选地,在本实施方式中,所述分光单元包括:第一分光单元,位于眼睛和观察对象之间,用于透射观察对象到眼睛的光,传递眼睛到眼底图像采集子模块的光。
所述第一分光单元可以为分光镜、分光光波导(包括光纤)或其它适合的分光设备。
在本发明实施例的一种可能的实施方式中,所述系统的图像处理子模块730包括光路校准单元,用于对系统的光路进行校准,例如进行光路光轴的对齐校准等,以保证测量的精度。
在本发明实施例的一种可能的实施方式中,所述图像处理子模块730包括:
图像分析单元731,用于对所述眼底图像采集子模块得到的图像进行分析,找到最清晰的图像;
参数计算单元732,用于根据所述最清晰的图像、以及得到所述最清晰图像时系统已知的成像参数计算眼睛的光学参数。
在本实施方式中,通过可调成像子模块720使得所述眼底图像采集子模块710可以得到最清晰的图像,但是需要通过所述图像分析单元731来找到该最清晰的图像,此时根据所述最清晰的图像以及系统已知的光路参数就可以通过计算得到眼睛的光学参数。这里眼睛的光学参数可以包括眼睛的光轴方向。
在本发明实施例的一种可能的实施方式中,优选地,所述系统还包括:投射子模块740,用于向眼底投射光斑。在一个可能的实施方式中,可以通过微型投影仪来视线该投射子模块的功能。
这里投射的光斑可以没有特定图案仅用于照亮眼底。
在在本发明实施例优选的一种实施方式中,所述投射的光斑包括特征丰富的图案。图案的特征丰富可以便于检测,提高检测精度。如图4a所示为一个光斑图案P的示例图,该图案可以由光斑图案生成器形成,例如毛玻璃;图4b所示为在有光斑图案P投射时拍摄到的眼底的图像。
为了不影响眼睛的正常观看,优选的,所述光斑为眼睛不可见的红外光斑。
此时,为了减小其它光谱的干扰:
所述投射子模块的出射面可以设置有眼睛不可见光透射滤镜。
所述眼底图像采集子模块的入射面设置有眼睛不可见光透射滤镜。
优选地,在本发明实施例的一种可能的实施方式中,所述图像处理子模块730还包括:
投射控制单元734,用于根据图像分析单元731得到的结果,控制所述投射子模块740的投射光斑亮度。
例如所述投射控制单元734可以根据眼底图像采集子模块710得到的图像的特性自适应调整亮度。这里图像的特性包括图像特征的反差以及纹理特征等。
这里,控制所述投射子模块740的投射光斑亮度的一种特殊的情况为打开或关闭投射子模块740,例如用户持续注视一点时可以周期性关闭所述投射子模块740;用户眼底足够明亮时可以关闭发光源只利用眼底信息来检测眼睛当前视线注视点到眼睛的距离。
此外,所述投射控制单元734还可以根据环境光来控制投射子模块740的投射光斑亮度。
优选地,在本发明实施例的一种可能的实施方式中,所述图像处理子模块730还包括:图像校准单元733,用于进行眼底图像的校准,获得至少一个与眼底呈现的图像对应的基准图像。
所述图像分析单元731将眼底图像采集子模块730得到的图像与所述基准图像进行对比计算,获得所述最清晰的图像。这里,所述最清晰的图像可以为获得的与所述基准图像差异最小的图像。在本实施方式中,通过现有的图像处理算法计算当前获得的图像与基准图像的差异,例如使用经典的相位差值自动对焦算法。
优选地,在本发明实施例的一种可能的实施方式中,所述参数计算单元732包括:
眼睛光轴方向确定子单元7321,用于根据得到所述最清晰图像时眼睛的特征得到眼睛光轴方向。
这里眼睛的特征可以是从所述最清晰图像上获取的,或者也可以是另外获取的。根据眼睛光轴方向可以得到用户眼睛视线注视的方向。
优选地,在本发明实施例的一种可能的实施方式中,所述眼睛光轴方向确定子单元7321包括:第一确定子单元,用于根据得到所述最清晰图像时眼底的特征得到眼睛光轴方向。与通过瞳孔和眼球表面的特征得到眼睛光轴方向相比,通过眼底的特征来确定眼睛光轴方向精确度更高。
在向眼底投射光斑图案时,光斑图案的大小有可能大于眼底可视区域或小于眼底可视区域,其中:
当光斑图案的面积小于等于眼底可视区域时,可以利用经典特征点匹配算法(例如尺度不变特征转换(Scale Invariant FeatureTransform,SIFT)算法)通过检测图像上的光斑图案相对于眼底位置来确定眼睛光轴方向;
当光斑图案的面积大于等于眼底可视区域时,可以通过得到的图像上的光斑图案相对于原光斑图案(通过图像校准单元获得)的位置来确定眼睛光轴方向确定用户视线方向。
在本发明实施例的另一种可能的实施方式中,所述眼睛光轴方向确定子单元7321包括:第二确定子单元,用于根据得到所述最清晰图像时眼睛瞳孔的特征得到眼睛光轴方向。这里眼睛瞳孔的特征可以是从所述最清晰图像上获取的,也可以是另外获取的。通过眼睛瞳孔特征得到眼睛光轴方向为已有技术,此处不再赘述。
优选地,在本发明实施例的一种可能的实施方式中,所述图像处理子模块730还包括:眼睛光轴方向校准单元735,用于进行眼睛光轴方向的校准,以便更精确的进行上述眼睛光轴方向的确定。
在本实施方式中,所述系统已知的成像参数包括固定的成像参数和实时成像参数,其中实时成像参数为获取最清晰图像时所述可调透镜器件的参数信息,该参数信息可以在获取所述最清晰图像时实时记录得到。
下面再计算得到眼睛注视点到眼睛的距离,具体为:
图7c所示为眼睛成像示意图,结合经典光学理论中的透镜成像公式,由图7c可以得到公式(1):
1 d o + 1 d e = 1 f e - - - ( 1 )
其中和分别为眼睛当前观察对象7010和视网膜上的实像7020到眼睛等效透镜7030的距离,为眼睛等效透镜7030的等效焦距,X为眼睛的视线方向(可以由所述眼睛的光轴方向得到)。
图7d所示为根据系统已知光学参数和眼睛的光学参数得到眼睛注视点到眼睛的距离的示意图,图7d中光斑7040通过可调透镜器件721会成一个虚像(图7d中未示出),假设该虚像距离透镜距离为(图7d中未示出),结合公式(1)可以得到如下方程组:
1 d p - 1 x = 1 f p 1 d i + x + 1 d e = 1 f e - - - ( 2 )
其中为光斑7040到可调透镜器件721的光学等效距离,为可调透镜器件721到眼睛等效透镜7030的光学等效距离,为可调透镜器件721的焦距值,为所述眼睛等效透镜7030到可调透镜器件721的距离。
由(1)和(2)可以得出当前观察对象7010(眼睛注视点)到眼睛等效透镜7030的距离如公式(3)所示:
d o = d i + d p · f p f p - d p - - - ( 3 )
根据上述计算得到的观察对象7010到眼睛的距离,又由于之前的记载可以得到眼睛光轴方向,则可以轻易得到眼睛的注视点位置,为后续与眼睛相关的进一步交互提供了基础。
如图8所示为本发明实施例的一种可能的实施方式的位置检测模块800应用在眼镜G上的实施例,其包括图7b所示实施方式的记载的内容,具体为:由图8可以看出,在本实施方式中,在眼镜G右侧(不局限于此)集成了本实施方式的模块800,其包括:
微型摄像头810,其作用与图7b实施方式中记载的眼底图像采集子模块相同,为了不影响用户正常观看对象的视线,其被设置于眼镜G右外侧;
第一分光镜820,其作用与图7b实施方式中记载的第一分光单元相同,以一定倾角设置于眼睛A注视方向和摄像头810入射方向的交点处,透射观察对象进入眼睛A的光以及反射眼睛到摄像头810的光;
焦距可调透镜830,其作用与图7b实施方式中记载的焦距可调透镜相同,位于所述第一分光镜820和摄像头810之间,实时进行焦距值的调整,使得在某个焦距值时,所述摄像头810能够拍到眼底最清晰的图像。
在本实施方式中,所述图像处理子模块在图8中未表示出,其功能与图7b所示的图像处理子模块相同。
由于一般情况下,眼底的亮度不够,因此,最好对眼底进行照明,在本实施方式中,通过一个发光源840来对眼底进行照明。为了不影响用户的体验,这里优选的发光源840为眼睛不可见光,优选对眼睛A影响不大并且摄像头810又比较敏感的近红外光发光源。
在本实施方式中,所述发光源840位于右侧的眼镜架外侧,因此需要通过一个第二分光镜850与所述第一分光镜820一起完成所述发光源840发出的光到眼底的传递。本实施方式中,所述第二分光镜850又位于摄像头810的入射面之前,因此其还需要透射眼底到第二分光镜850的光。
可以看出,在本实施方式中,为了提高用户体验和提高摄像头810的采集清晰度,所述第一分光镜820优选地可以具有对红外反射率高、对可见光透射率高的特性。例如可以在第一分光镜820朝向眼睛A的一侧设置红外反射膜实现上述特性。
由图8可以看出,由于在本实施方式中,所述位置检测模块800位于眼镜G的镜片远离眼睛A的一侧,因此进行眼睛光学参数进行计算时,可以将镜片也看成是眼睛A的一部分,此时不需要知道镜片的光学特性。
在本发明实施例的其它实施方式中,所述位置检测模块800可能位于眼镜G的镜片靠近眼睛A的一侧,此时,需要预先得到镜片的光学特性参数,并在计算注视点距离时,考虑镜片的影响因素。
本实施例中发光源840发出的光通过第二分光镜850的反射、焦距可调透镜830的投射、以及第一分光镜820的反射后再透过眼镜G的镜片进入用户眼睛,并最终到达眼底的视网膜上;摄像头810经过所述第一分光镜820、焦距可调透镜830以及第二分光镜850构成的光路透过眼睛A的瞳孔拍摄到眼底的图像。
在一种可能的实施方式中,本发明实施例的装置的其它部分也实现在所述眼镜G上,并且,由于所述位置检测模块和所述投射模块有可能同时包括:具有投射功能的设备(如上面所述的投射模块的信息投射子模块,以及所述位置检测模块的投射子模块);以及成像参数可调的成像设备(如上面所述的投射模块的参数调整子模块,以及所述位置检测模块的可调成像子模块)等,因此在本发明实施例的一种可能的实施方式中,所述位置检测模块和所述投射模块的功能由同一设备实现。
如图8所示,在本发明实施例的一种可能的实施方式中,所述发光源840除了可以用于所述位置检测模块的照明外,还可以作为所述投射模块的信息投射子模块的光源辅助投射所述用户相关信息。在一种可能的实施方式中,所述发光源840可以同时分别投射一个不可见的光用于所述位置检测模块的照明;以及一个可见光,用于辅助投射所述用户相关信息;在另一种可能的实施方式中,所述发光源840还可以分时地切换投射所述不可见光与所述可见光;在又一种可能的实施方式中,所述位置检测模块可以使用所述用户相关信息来完成照亮眼底的功能。
在本发明实施例的一种可能的实施方式中,所述第一分光镜820、第二分光镜850以及所述焦距可调透镜830除了可以作为所述的投射模块的参数调整子模块外,还可以作为所述位置检测模块的可调成像子模块。这里,所述的焦距可调透镜830在一种可能的实施方式中,其焦距可以分区域的调节,不同的区域分别对应于所述位置检测模块和所述投射模块,焦距也可能会不同。或者,所述焦距可调透镜830的焦距是整体调节的,但是所述位置检测模块的微型摄像头810的感光单元(如CCD等)的前端还设置有其它光学器件,用于实现所述位置检测模块的成像参数辅助调节。此外,在另一种可能的实施方式中,可以配置使得从所述发光源840的发光面(即用户相关信息投出位置)到眼睛的光程与所述眼睛到所述微型摄像头810的光程相同,则所述焦距可调透镜830调节至所述微型摄像头810接收到最清晰的眼底图像时,所述发光源840投射的用户相关信息正好在眼底清晰地成像。
由上述可以看出,本发明实施例用户信息获取装置的位置检测模块与投射模块的功能可以由一套设备实现,使得整个系统结构简单、体积小、更加便于携带。
如图9所示为本发明实施例的另一种实施方式位置检测模块900的结构示意图。由图9可以看出,本实施方式与图8所示的实施方式相似,包括微型摄像头910、第二分光镜920、焦距可调透镜930,不同之处在于,在本实施方式中的投射子模块940为投射光斑图案的投射子模块940,并且通过一个曲面分光镜950作为曲面分光器件取代了图8实施方式中的第一分光镜。
这里采用了曲面分光镜950分别对应眼睛光轴方向不同时瞳孔的位置,将眼底呈现的图像传递到眼底图像采集子模块。这样摄像头可以拍摄到眼球各个角度混合叠加的成像,但由于只有通过瞳孔的眼底部分能够在摄像头上清晰成像,其它部分会失焦而无法清晰成像,因而不会对眼底部分的成像构成严重干扰,眼底部分的特征仍然可以检测出来。因此,与图8所示的实施方式相比,本实施方式可以在眼睛注视不同方向时都能很好的得到眼底的图像,使得本实施方式的位置检测模块适用范围更广,检测精度更高。
在本发明实施例的一种可能的实施方式中,本发明实施例的用户信息获取装置的其它部分也实现在所述眼镜G上。在本实施方式中,所述位置检测模块和所述投射模块也可以复用。与图8所示的实施例类似地,此时所述投射子模块940可以同时或者分时切换地投射光斑图案以及所述用户相关信息;或者所述位置检测模块将投射的用户相关信息作为所述光斑图案进行检测。与图8所示的实施例类似地,在本发明实施例的一种可能的实施方式中,所述第一分光镜920、第二分光镜950以及所述焦距可调透镜930除了可以作为所述的投射模块的参数调整子模块外,还可以作为所述位置检测模块的可调成像子模块。
此时,所述第二分光镜950还用于分别对应眼睛光轴方向不同时瞳孔的位置,进行所述投射模块与眼底之间的光路传递。由于所述投射子模块940投射的用户相关信息经过所述曲面的第二分光镜950之后会发生变形,因此在本实施方式中,所述投射模块包括:
反变形处理模块(图9中未示出),用于对所述用户相关信息进行与所述曲面分光器件对应的反变形处理,使得眼底接收到需要呈现的用户相关信息。
在一种实施方式中,所述投射模块用于将所述用户相关信息立体地向所述用户的眼底投射。
所述用户相关信息包括分别与所述用户的两眼对应的立体信息,所述投射模块,分别向所述用户的两眼投射对应的用户相关信息。
如图10所示,在需要进行立体显示的情况下,所述用户信息获取装置1000需要分别与用户的两只眼睛对应的设置两套投射模块,包括:
与用户的左眼对应的第一投射模块;以及
与用户的右眼对应的第二投射模块。
其中,所述第二投射模块的结构与图10的实施例中记载的复合有位置检测模块功能的结构类似,也为可以同时实现位置检测模块功能以及投射模块功能的结构,包括与所述图10所示实施例功能相同的微型摄像头1021、第二分光镜1022、第二焦距可调透镜1023,第一分光镜1024(所述位置检测模块的图像处理子模块在图10中未示出),不同之处在于,在本实施方式中的投射子模块为可以投射右眼对应的用户相关信息的第二投射子模块1025。其同时可以用于检测用户眼睛的注视点位置,并且把与右眼对应的用户相关信息清晰投射至右眼眼底。
所述第一投射模块的结构与所述第二投射模块1020的结构类似,但是其不具有微型摄像头,并且没有复合位置检测模块的功能。如图10所示,所述第一投射模块包括:
第一投射子模块1011,用于将与左眼对应的用户相关信息向左眼眼底投射;
第一焦距可调透镜1013,用于对所述第一投射子模块1011与眼底之间的成像参数进行调节,使得对应的用户相关信息可以清晰地呈现在左眼眼底并且使得用户可以看到呈现在所述图像上的所述用户相关信息;
第三分光镜1012,用于在所述第一投射子模块1011与所述第一焦距可调透镜1013之间进行光路传递;
第四分光镜1014,用于在所述第一焦距可调透镜1013与所述左眼眼底之间进行光路传递。
通过本实施例,使得用户看到的用户相关信息具有适合的立体显示效果,带来更好的用户体验。此外,在对用户输入的用户相关信息中含有三维空间信息时,通过上述的立体投射,使得用户可以看到所述三维空间信息。例如:当需要用户在三维空间中特定的位置做特定的手势才能正确输入所述用户相关信息时,通过本发明实施例的上述方法使得用户看到立体的用户相关信息,获知所述特定的位置和特定的手势,进而使得用户可以在所述特定位置做所述用户相关信息提示的手势,此时其它人即使看到用户进行的手势动作,但是由于无法获知所述空间信息,使得所述用户相关信息的保密效果更好。
图11为本发明实施例提供的又一种用户信息获取装置1100的结构示意图,本发明具体实施例并不对用户信息获取装置1100的具体实现做限定。如图11所示,该用户信息获取装置1100可以包括:
处理器(processor)1110、通信接口(Communications Interface)1120、存储器(memory)1130、以及通信总线1140。其中:
处理器1110、通信接口1120、以及存储器1130通过通信总线1140完成相互间的通信。
通信接口1120,用于与比如客户端等的网元通信。
处理器1110,用于执行程序1132,具体可以执行上述方法实施例中的相关步骤。
具体地,程序1132可以包括程序代码,所述程序代码包括计算机操作指令。
处理器1110可能是一个中央处理器CPU,或者是特定集成电路ASIC(Application Specific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。
存储器1130,用于存放程序1132。存储器1130可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。程序1132具体可以用于使得所述用户信息获取装置1100执行以下步骤:
获取一包含至少一数字水印的图像;
获取所述图像中所述数字水印包含的与当前用户对应的至少一用户相关信息,所述用户相关信息包括一用于启动一对应应用的应用启动信息;
将所述用户相关信息向所述用户的眼底投射。
程序1132中各步骤的具体实现可以参见上述实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
如图12所示,本发明实施例还提供了一种可穿戴设备1200,包含上面所述实施例中记载的所述的用户信息获取装置1210。
优选地,所述可穿戴设备为一眼镜。在一些实施方式中,该眼镜例如可以为图8-图10的结构。
如图13所示,本发明实施例提供了一种用户信息交互方法,包括:
S1310水印嵌入步骤,在一图像中嵌入至少一数字水印,所述数字水印中包含与至少一用户对应的至少一用户相关信息;所述用户相关信息包括一用于启动一对应应用的应用启动信息。
其中,所述数字水印可以按照对称性分为对称式和非对称式水印两种。传统的对称水印嵌入和检测的密钥相同,这样一旦公开了检测的方法和密钥,水印就会很容易从数字载体中移除。而非对称水印技术通过使用私钥来嵌入水印,使用公钥来提取和验证水印,这样攻击者就很难通过公钥来破坏或者移除利用私钥嵌入的水印。因此,本发明实施例中,优选地,使用所述非对称式数字水印。
优选地,在本发明实施例的一种可能的实施方式中,所述图像包括一设备显示的一用户环境的登录界面;
所述应用启动信息,用于在所述登录界面直接启动与所述用户对应的所述用户环境中的至少一个应用。
在本发明实施例中,所述需要包含在水印中被嵌入的用户相关信息可以是用户根据自己的个性化需求预先设定的,也可以是系统主动为用户配置的。
优选地,在本发明实施例的一种可能的实施方式中,所述用户相关信息还包括:所述用户用于登录所述用户环境的一用户鉴权信息。
上述各步骤的实现参见图1至图3所示的方法实施例中对应的描述,此处不再赘述。
优选地,在本发明实施例的一种可能的实施方式中,所述方法还包括:
接收输入的所述应用启动信息;
根据接收的所述应用启动信息启动对应的应用。
在本发明实施例中,用户根据上述图1至图12所述的实施例中的方法或装置获取了所述应用启动信息后,根据需要输入对应的应用启动信息,使得本发明实施例的方法接收到所述输入的应用启动信息,本发明实施例的方法再根据接收的所述应用启动信息启动对应的应用。
例如,在图3所示的实施例中,用户看到了图3所示的图像中的应用启动信息,以用户需要使用浏览器功能为例,此时,用户在显示所述图像的一设备上画一个“e”形轨迹,本发明实施例的方法接收到该“e”形轨迹后,直接启动所述浏览器应用。
通过本发明实施例的方法,使得用户可以方便的直接快捷启动需要的应用,提高了用户体验。
如图14所示,本发明还提供了一种用户信息交互装置1400,包括:
水印嵌入模块1410,用于在一图像中嵌入至少一数字水印,所述数字水印中包含与至少一用户对应的至少一用户相关信息;所述用户相关信息包括一用于启动一对应应用的应用启动信息。
优选地,在本发明实施例的一种可能的实施方式中,所述装置1400还包括:
一显示模块1420,用于显示一用户环境的登录界面,所述图像包括所述登录界面;
所述应用启动信息,用于在所述登录界面直接启动对应用户环境中的至少一个应用。
优选地,在本发明实施例的一种可能的实施方式中,所述用户相关信息还包括:所述用户用于登录所述用户环境的一用户鉴权信息;
所述装置还包括一用户鉴权信息输入模块1430,用于输入所述用户鉴权信息。
优选地,在本发明实施例的一种可能的实施方式中,所述装置还包括:
启动信息输入模块1440,用于接收输入的所述应用启动信息;
应用启动模块1450,用于根据接收的所述应用启动信息启动对应的应用。
本实施例各模块功能的实现参见图1至图13所示的实施例中对应的描述,此处不再赘述。
如图15所示,本发明实施例还提供了一种电子终端1500,包括上述的用户信息交互装置1510。
在本发明实施例的一种可能的实施方式中,所示电子终端1500为手机、平板电脑、电脑、电子门禁等电子设备。
图16为本发明实施例提供的又一种用户信息交互装置1600的结构示意图,本发明具体实施例并不对用户信息交互装置1600的具体实现做限定。如图16所示,该用户信息交互装置1600可以包括:
处理器(processor)1610、通信接口(Communications Interface)1620、存储器(memory)1630、以及通信总线1640。其中:
处理器1610、通信接口1620、以及存储器1630通过通信总线1640完成相互间的通信。
通信接口1620,用于与比如客户端等的网元通信。
处理器1610,用于执行程序1632,具体可以执行图13所示方法实施例中的相关步骤。
具体地,程序1632可以包括程序代码,所述程序代码包括计算机操作指令。
处理器1610可能是一个中央处理器CPU,或者是特定集成电路ASIC(Application Specific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。
存储器1630,用于存放程序1632。存储器1630可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。程序1632具体可以用于使得所述用户信息交互装置1600执行以下步骤:
在一图像中嵌入至少一数字水印,所述数字水印中包含与至少一用户对应的至少一用户相关信息;所述用户相关信息包括一用于启动一对应应用的应用启动信息。
程序1632中各步骤的具体实现可以参见上述实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。

Claims (35)

1.一种用户信息获取方法,其特征在于,包括:
图像获取步骤,获取一包含至少一数字水印的图像;
信息获取步骤,获取所述图像中所述数字水印包含的与当前用户对应的至少一用户相关信息,所述用户相关信息包括一用于启动一对应应用的应用启动信息;
投射步骤,将所述用户相关信息向所述用户的眼底投射。
2.如权利要求1所述的方法,其特征在于,所述图像包括一设备显示的一用户环境的登录界面;
所述应用启动信息,用于在所述登录界面直接启动与所述当前用户对应的所述用户环境中的至少一个对应应用。
3.如权利要求2所述的方法,其特征在于,所述用户相关信息还包括:所述当前用户用于登录所述用户环境的一用户鉴权信息。
4.如权利要求1所述的方法,其特征在于,在所述信息获取步骤之前还包括:认证当前用户的步骤。
5.如权利要求1所述的方法,其特征在于,所述图像获取步骤包括:
通过拍摄的方式获取所述图像。
6.如权利要求1所述的方法,其特征在于,所述图像获取步骤包括:
通过接收的方式获取所述图像。
7.如权利要求1所述的方法,其特征在于,所述信息获取步骤包括:
从所述图像中提取所述用户相关信息。
8.如权利要求1所述的方法,其特征在于,所述信息获取步骤包括:
将所述图像向外部发送;
从外部接收所述图像中的所述用户相关信息。
9.如权利要求1所述的方法,其特征在于,所述投射步骤包括:
信息投射步骤,投射所述用户相关信息;
参数调整步骤,调整投射位置与所述用户的眼睛之间光路的至少一投射成像参数,直至所述用户相关信息在所述用户的眼底清晰成像。
10.如权利要求1所述的方法,其特征在于,所述投射步骤还包括:
对齐调整步骤,将所述投射的用户相关信息与所述用户看到的图像在所述用户的眼底对齐。
11.如权利要求10所述的方法,其特征在于,所述方法还包括:
位置检测步骤,检测所述用户的注视点相对于所述用户的位置;
所述对齐调整步骤,根据所述用户注视点相对于所述用户的所述位置将所述投射的用户相关信息与所述用户看到的图像在所述用户的眼底对齐。
12.如权利要求1所述的方法,其特征在于,所述投射步骤包括:
将所述用户相关信息立体地向所述用户的眼底投射。
13.如权利要求12所述的方法,其特征在于,
所述用户相关信息包括分别与所述用户的两眼对应的立体信息;
所述投射步骤中,分别向所述用户的两眼投射对应的用户相关信息。
14.一种用户信息交互方法,其特征在于,包括:
水印嵌入步骤,在一图像中嵌入至少一数字水印,所述数字水印中包含与至少一用户对应的至少一用户相关信息;所述用户相关信息包括一用于启动一对应应用的应用启动信息。
15.如权利要求14所述的方法,其特征在于,所述图像包括一设备显示的一用户环境的登录界面;
所述应用启动信息,用于在所述登录界面直接启动与所述用户对应的所述用户环境中的至少一个应用。
16.如权利要求15所述的方法,其特征在于,所述用户相关信息还包括:所述用户用于登录所述用户环境的一用户鉴权信息。
17.如权利要求14所述的方法,其特征在于,所述方法还包括:
接收输入的所述应用启动信息;
根据接收的所述应用启动信息启动对应的应用。
18.一种用户信息获取装置,其特征在于,包括:
图像获取模块,用于获取一包含至少一数字水印的图像;
信息获取模块,用于获取所述图像中所述数字水印包含的与当前用户对应的至少一用户相关信息,所述用户相关信息包括一用于启动一对应应用的应用启动信息;
投射模块,用于将所述用户相关信息向所述用户的眼底投射。
19.如权利要求18所述的装置,其特征在于,所述装置还包括:用户认证模块,用于认证当前用户。
20.如权利要求18所述的装置,其特征在于,所述图像获取模块包括:
一拍摄子模块,用于拍摄所述图像。
21.如权利要求18所述的装置,其特征在于,所述图像获取模块包括:
一第一通信子模块,用于接收所述图像。
22.如权利要求18所述的装置,其特征在于,所述信息获取模块包括:
一信息提取子模块,用于从所述图像中提取所述用户相关信息。
23.如权利要求18所述的装置,其特征在于,所述信息获取模块包括:
一第二通信子模块,用于:
将所述图像向外部发送;
从外部接收所述图像中的所述用户相关信息。
24.如权利要求18所述的装置,其特征在于,所述投射模块包括:
一信息投射子模块,用于投射所述用户相关信息;
一参数调整子模块,用于调整所述投射位置与所述用户的眼睛之间光路的至少一投射成像参数,直至所述用户相关信息在所述用户的眼底清晰成像。
25.如权利要求18所述的装置,其特征在于,所述投射模块还包括:
一对齐调整子模块,用于将所述投射的用户相关信息与所述用户看到的图像在所述用户的眼底对齐。
26.如权利要求25所述的装置,其特征在于,所述装置还包括:
一位置检测模块,用于检测所述用户的注视点相对于所述用户的位置;
所述对齐调整子模块,用于根据所述用户注视点相对于所述用户的所述位置将所述投射的用户相关信息与所述用户看到的图像在所述用户的眼底对齐。
27.如权利要求18所述的装置,其特征在于,所述投射模块用于:
将所述用户相关信息立体地向所述用户的眼底投射。
28.如权利要求27所述的装置,其特征在于,
所述用户相关信息包括分别与所述用户的两眼对应的立体信息;
所述投射模块,用于分别向所述用户的两眼投射对应的用户相关信息。
29.一种可穿戴设备,其特征在于,包含所述权利要求18至28中任一项所述的用户信息获取装置。
30.如权利要求29所示,其特征在于,所述可穿戴设备为一眼镜。
31.一种用户信息交互装置,其特征在于,包括:
水印嵌入模块,用于在一图像中嵌入至少一数字水印,所述数字水印中包含与至少一用户对应的至少一用户相关信息;所述用户相关信息包括一用于启动一对应应用的应用启动信息。
32.如权利要求31所述的装置,其特征在于,所述装置还包括:
一显示模块,用于显示一用户环境的登录界面,所述图像包括所述登录界面;
所述应用启动信息,用于在所述登录界面直接启动对应用户环境中的至少一个应用。
33.如权利要求32所述的装置,其特征在于,所述用户相关信息还包括:所述用户用于登录所述用户环境的一用户鉴权信息;
所述装置还包括一用户鉴权信息输入模块,用于输入所述用户鉴权信息。
34.如权利要求31所述的装置,其特征在于,所述装置还包括:
启动信息输入模块,用于接收输入的所述应用启动信息;
应用启动模块,用于根据接收的所述应用启动信息启动对应的应用。
35.一种电子终端,其特征在于,包括权利要求31至34中任一项所述的用户信息交互装置。
CN201310572154.3A 2013-11-15 2013-11-15 用户信息获取方法及用户信息获取装置 Active CN103616998B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201310572154.3A CN103616998B (zh) 2013-11-15 2013-11-15 用户信息获取方法及用户信息获取装置
US14/888,204 US9838588B2 (en) 2013-11-15 2014-01-22 User information acquisition method and user information acquisition apparatus
PCT/CN2014/071141 WO2015070536A1 (zh) 2013-11-15 2014-01-22 用户信息获取方法及用户信息获取装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310572154.3A CN103616998B (zh) 2013-11-15 2013-11-15 用户信息获取方法及用户信息获取装置

Publications (2)

Publication Number Publication Date
CN103616998A true CN103616998A (zh) 2014-03-05
CN103616998B CN103616998B (zh) 2018-04-06

Family

ID=50167701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310572154.3A Active CN103616998B (zh) 2013-11-15 2013-11-15 用户信息获取方法及用户信息获取装置

Country Status (3)

Country Link
US (1) US9838588B2 (zh)
CN (1) CN103616998B (zh)
WO (1) WO2015070536A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015070623A1 (en) * 2013-11-15 2015-05-21 Beijing Zhigu Rui Tuo Tech Co., Ltd Information interaction
CN106484481A (zh) * 2016-10-10 2017-03-08 广东欧珀移动通信有限公司 一种多开应用的配置方法、装置及终端
CN111026986A (zh) * 2018-10-10 2020-04-17 阿里巴巴集团控股有限公司 一种网页水印渲染方法及装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102396685B1 (ko) * 2015-10-08 2022-05-11 삼성전자 주식회사 전자 장치의 모니터링 방법 및 장치
US10674143B2 (en) * 2017-05-12 2020-06-02 Qualcomm Incorporated System for eye tracking

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070174620A1 (en) * 2006-01-21 2007-07-26 Hon Hai Precision Industry Co., Ltd. System and method for loading digital watermarks automatically
CN101207485A (zh) * 2007-08-15 2008-06-25 深圳市同洲电子股份有限公司 对用户进行统一身份安全认证的系统及其方法
CN102970307A (zh) * 2012-12-21 2013-03-13 网秦无限(北京)科技有限公司 密码安全系统和密码安全方法
CN103018914A (zh) * 2012-11-22 2013-04-03 唐葵源 一种眼镜式3d显示头戴电脑
CN103116717A (zh) * 2013-01-25 2013-05-22 东莞宇龙通信科技有限公司 一种用户登录方法及系统
CN103150013A (zh) * 2012-12-20 2013-06-12 天津三星光电子有限公司 一种移动终端

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8332478B2 (en) * 1998-10-01 2012-12-11 Digimarc Corporation Context sensitive connected content
US6580815B1 (en) * 1999-07-19 2003-06-17 Mandylion Research Labs, Llc Page back intrusion detection device
US8091025B2 (en) * 2000-03-24 2012-01-03 Digimarc Corporation Systems and methods for processing content objects
US6948068B2 (en) * 2000-08-15 2005-09-20 Spectra Systems Corporation Method and apparatus for reading digital watermarks with a hand-held reader device
US8965460B1 (en) * 2004-01-30 2015-02-24 Ip Holdings, Inc. Image and augmented reality based networks using mobile devices and intelligent electronic glasses
US20100114344A1 (en) * 2008-10-31 2010-05-06 France Telecom Communication system incorporating ambient sound pattern detection and method of operation thereof
US20100226526A1 (en) * 2008-12-31 2010-09-09 Modro Sierra K Mobile media, devices, and signaling
JP5413061B2 (ja) 2009-08-31 2014-02-12 株式会社リコー 画像形成システム及び画像形成方法
WO2011121927A1 (ja) * 2010-03-31 2011-10-06 日本電気株式会社 デジタルコンテンツ管理システム、装置、プログラムおよび方法
US20110283241A1 (en) 2010-05-14 2011-11-17 Google Inc. Touch Gesture Actions From A Device's Lock Screen
US20130021374A1 (en) * 2011-07-20 2013-01-24 Google Inc. Manipulating And Displaying An Image On A Wearable Computing System
US8235529B1 (en) * 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US9372531B2 (en) * 2013-03-12 2016-06-21 Gracenote, Inc. Detecting an event within interactive media including spatialized multi-channel audio content
CN103310142B (zh) 2013-05-22 2015-10-07 复旦大学 基于可穿戴设备的人机融合安全认证方法
KR102039427B1 (ko) * 2013-07-01 2019-11-27 엘지전자 주식회사 스마트 글라스
US9727753B2 (en) * 2013-08-26 2017-08-08 Nbcuniversal Media, Llc Watermark access/control system and method
US9331856B1 (en) * 2014-02-10 2016-05-03 Symantec Corporation Systems and methods for validating digital signatures

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070174620A1 (en) * 2006-01-21 2007-07-26 Hon Hai Precision Industry Co., Ltd. System and method for loading digital watermarks automatically
CN101207485A (zh) * 2007-08-15 2008-06-25 深圳市同洲电子股份有限公司 对用户进行统一身份安全认证的系统及其方法
CN103018914A (zh) * 2012-11-22 2013-04-03 唐葵源 一种眼镜式3d显示头戴电脑
CN103150013A (zh) * 2012-12-20 2013-06-12 天津三星光电子有限公司 一种移动终端
CN102970307A (zh) * 2012-12-21 2013-03-13 网秦无限(北京)科技有限公司 密码安全系统和密码安全方法
CN103116717A (zh) * 2013-01-25 2013-05-22 东莞宇龙通信科技有限公司 一种用户登录方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015070623A1 (en) * 2013-11-15 2015-05-21 Beijing Zhigu Rui Tuo Tech Co., Ltd Information interaction
CN106484481A (zh) * 2016-10-10 2017-03-08 广东欧珀移动通信有限公司 一种多开应用的配置方法、装置及终端
CN111026986A (zh) * 2018-10-10 2020-04-17 阿里巴巴集团控股有限公司 一种网页水印渲染方法及装置
CN111026986B (zh) * 2018-10-10 2023-07-04 阿里巴巴集团控股有限公司 一种网页水印渲染方法及装置

Also Published As

Publication number Publication date
CN103616998B (zh) 2018-04-06
WO2015070536A1 (zh) 2015-05-21
US9838588B2 (en) 2017-12-05
US20160073002A1 (en) 2016-03-10

Similar Documents

Publication Publication Date Title
CA2983749C (en) Devices, methods and systems for biometric user recognition utilizing neural networks
CN103475893B (zh) 三维显示中对象的拾取装置及三维显示中对象的拾取方法
CN103558909A (zh) 交互投射显示方法及交互投射显示系统
CN103678971A (zh) 用户信息提取方法及用户信息提取装置
CN103630116B (zh) 图像采集定位方法及图像采集定位装置
CN104036169B (zh) 生物认证方法及生物认证装置
CN103557859A (zh) 图像采集定位方法及图像采集定位系统
CN103616998B (zh) 用户信息获取方法及用户信息获取装置
WO2020020022A1 (zh) 视觉识别方法及其系统
WO2019139758A1 (en) Unguided passive biometric enrollment
CN103631503A (zh) 信息交互方法及信息交互装置
CN103604412A (zh) 定位方法及定位装置
CN103294992A (zh) 脸部认证传感器
WO2015078182A1 (en) Anti-counterfeiting for determination of authenticity
JP7282884B2 (ja) 3次元認証装置、3次元認証システム、携帯型情報端末および3次元認証方法
CN103761653B (zh) 防伪方法及防伪装置
CN103677631A (zh) 信息交互方法及信息交互装置
CN103761652A (zh) 防伪方法及防伪装置
CN103745434B (zh) 信息交互方法及信息交互系统
CN105786430B (zh) 信息处理方法及电子设备
US9836857B2 (en) System, device, and method for information exchange
CN103729824A (zh) 信息交互方法及信息交互系统
NZ736574B2 (en) Methods for biometric user recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant