CN105808015A - 防窥用户交互装置及方法 - Google Patents

防窥用户交互装置及方法 Download PDF

Info

Publication number
CN105808015A
CN105808015A CN201610378216.0A CN201610378216A CN105808015A CN 105808015 A CN105808015 A CN 105808015A CN 201610378216 A CN201610378216 A CN 201610378216A CN 105808015 A CN105808015 A CN 105808015A
Authority
CN
China
Prior art keywords
dimensional
control operation
touch control
display
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610378216.0A
Other languages
English (en)
Other versions
CN105808015B (zh
Inventor
钟杰兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201610378216.0A priority Critical patent/CN105808015B/zh
Publication of CN105808015A publication Critical patent/CN105808015A/zh
Priority to PCT/CN2017/071502 priority patent/WO2017202043A1/en
Priority to US15/542,047 priority patent/US10198599B2/en
Priority to EP17733729.2A priority patent/EP3465398B1/en
Application granted granted Critical
Publication of CN105808015B publication Critical patent/CN105808015B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/03Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
    • G06F2221/032Protect output to user by software means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

本发明提供了一种防窥用户交互装置,包括:立体显示器,其被配置为在处理器的控制下显示立体视觉图像,所述立体视觉图像对于位于立体呈现区域的观察者呈现立体图像,对于位于平面呈现区域的观察者呈现平面图像,其中,所述立体图像为三维键盘,所述三维键盘包括至少两层深度;三维位置感测器,其被配置为检测用户在立体显示器上的触控操作,并将所述触控操作的信息传输给处理器;以及处理器,其与所述立体显示器和三维位置感测器电连接,并被配置为根据所述触控操作的信息执行相应操作。

Description

防窥用户交互装置及方法
技术领域
本发明的实施例涉及用户交互安全领域,具体涉及一种防窥用户交互装置及方法,以及包括所述装置的电子设备。
背景技术
当前的移动设备(例如手机)除了基本的通讯功能,还有商务与娱乐功能。更重要的是随著电子钱包的发展,手机也成为了金库钥匙,因此个人隐私(如帐号、密码等)极为重要。目前虽有利用指纹代替密码的趋势,但传统的密码输入仍是基本的设置,所以防止隐私泄漏仍是个重要课题。
图1示出了传统的移动设备上的密码输入的方式。在这种输入方式中,用户在显示器上显示的键盘中直接输入密码,这种输入方式容易遭到旁边的人的窥视;即便是使用随机排列方式的键盘,仍有被拍摄后破解的可能。
防窥视技术目前较多利用降低显示器的可视角度的方式,使得在侧边观看时呈现低对比或低亮度或显示固定的干扰图案,以达到防止窥视效果。例如在显示器上贴上防窥片,或在LCD背板上设置控制电极,当需要防窥视时提供信号,使干涉图案区域在大视角时色偏而呈现出干涉图案。
传统的贴防窥片的防窥方式的缺点在于,当无防窥需求时,因为可视角的限制无法分享屏幕给多人欣赏,并且会增加屏整体的厚度。而设置控制电极的防窥方式,因为以色偏方式干涉图案对比不佳,防窥效果大打折扣。
可见,本领域中需要一种能够克服上述现有技术的缺点的改进的防窥用户交互解决方案。
发明内容
在本发明的一个方面,提供了一种防窥用户交互装置,包括:立体显示器,其被配置为在处理器的控制下显示立体视觉图像,所述立体视觉图像对于位于立体呈现区域的观察者呈现立体图像,对于位于平面呈现区域的观察者呈现平面图像,其中,所述立体图像为三维键盘,所述三维键盘包括至少两层深度;三维位置感测器,其被配置为检测用户在立体显示器上的触控操作,并将所述触控操作的信息传输给处理器;以及处理器,其与所述立体显示器和三维位置感测器电连接,并被配置为根据所述触控操作的信息执行相应操作。
在本发明的另一个方面,提供了一种防窥用户交互方法,包括:
显示立体视觉图像,所述立体视觉图像对于位于立体呈现区域的观察者呈现立体图像,对于位于平面呈现区域的观察者呈现平面图像,其中,所述立体图像为三维键盘,所述三维键盘包括至少两层深度;检测用户在立体显示器上的触控操作;根据所述触控操作的信息执行相应操作。
在本发明的另一个方面,提供了一种电子设备,包括根据本发明的实施例的防窥用户交互装置。
根据本发明的实施例的技术方案可以有效防止用户使用移动设备时输入信息时旁边人的窥视,也不易经由手势位置判断出输入内容,提高了安全性,同时不会影响移动设备正常使用时的显示视角。
附图说明
图1示出了传统的移动设备上的密码输入的方式;
图2示出了根据本发明的实施例的一种防窥用户交互装置;
图3示意性地示出了根据本发明的实施例的立体显示器的不同呈现区域;
图4示意性地示出了根据本发明的实施例的立体显示器在立体呈现区域所呈现的立体图像示例;
图5示意性地示出了根据本发明的实施例的立体显示器在平面呈现区域所呈现的平面图像示例;
图6示意性地示出了根据本发明的一示例性实施例的所述立体键盘中的键被选择时发出的该键被选择的信号;以及
图7示出了根据本发明的实施例的一种防窥用户交互方法。
具体实施方式
为使本领域的技术人员更好地理解本发明的解决方案,下面结合附图和具体实施方式对本发明的实施例所提供的防窥用户交互装置及方法、以及包括所述装置的电子设备作进一步详细描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
现参照图2,其示出了根据本发明的实施例的一种防窥用户交互装置200。如图2中所示,该防窥用户交互装置.200可包括:立体显示器201,三维位置感测器202以及处理器203。
该防窥用户交互装置200例如可以与移动设备集成在一起,相应地,所述立体显示器201、三维位置感测器202和处理器203可以分别为该移动设备上的立体显示器、三维位置感测器和处理器。
所述立体显示器201可被配置为在处理器203的控制下显示立体视觉图像,所述立体视觉图像对于位于立体呈现区域的观察者呈现立体图像,对于位于平面呈现区域的观察者呈现平面图像,其中,所述立体图像可以为三维键盘,所述三维键盘可以包括至少两层深度。
例如,所述处理器203可以在系统启动时控制所述立体显示器201显示所述立体视觉图像。或者,所述处理器203也可以在接收到用户通过按压指定虚拟或实体键而发出的命令时控制所述立体显示器201显示所述立体视觉图像。或者,所述处理器203在启动或执行某个应用程序的过程中需要输入帐户、密码或其他敏感信息时控制所述立体显示器201显示所述立体视觉图像。
图3示意性地示出了根据本发明的一示例性实施例的所述立体显示器201的不同呈现区域。如图3中所示,该立体显示器201的呈现区域包括立体呈现区域301和平面呈现区域302。所述立体呈现区域301位于立体显示器201的正前方的一定角度范围内,该角度范围之内为立体呈现区域301,该角度范围之外为平面呈现区域302。也就是说,对于该立体显示器201的显示平面上的任意一点,通过该点做显示平面的法线,由通过该点并与该法线成所述一定角度的所有射线围成的圆锥形空间为所述立体呈现区域301,而该圆锥形空间外部的区域为所述平面呈现区域302。
图4示意性地示出了根据本发明的一示例性实施例的所述立体显示器201在所述立体呈现区域301所呈现的立体图像示例。如图4中所示,所呈现的立体图像示例为一个三维键盘401,例如一个三维数字键盘,该三维数字键盘包括4层深度,每一层深度上呈现10个数字键以及符号“*”和“#”键中的3个。当然,在本发明的其他实施例中,所述三维数字键盘也可以包括4层以外的其他多层深度,且每层深度可以其他数量的数字键和/或符号键和/或功能键(例如,确认键、完成键等)。而且,在本发明的另一些实施例中,所呈现的立体图像也可以为三维字母数字键盘,该字母数字键盘可包括多层深度,每一层深度上可呈现若干字母和/或数字键和/或功能键。
图5示意性地示出了根据本发明的一示例性实施例的所述立体显示器201在所述平面呈现区域302所呈现的平面图像501示例。如图5中所示,所呈现的平面图像501示例实际上是所述三维数字键盘的各层深度上的数字键被叠加在一个平面上,这样就使得各数字键变得不可辨识,从而起到防止用户输入被旁边的人或设备窥视的作用。
如图4和图5中进一步所示,根据本发明的一示例性实施例,所述三维键盘401的所述至少两层深度在深度方向上的投影至少部分重叠。这样,就使得所述三维键盘401在平面呈现区域302所呈现的平面图像501中各键叠加在一起,从而变得更为不可辨识。
此外,根据本发明的一示例性实施例,所述三维键盘401的每层深度上包括背景图案。这样,可以进一步使得所述三维键盘401在平面呈现区域302所呈现的平面图像501中的各键更为不可辨识。
如图4和图5中所示,根据本发明的一示例性实施例,所述立体显示器201所显示的立体视觉图像可以占据该立体显示器201的显示屏表面的一部分,例如位于显示屏表面的下部。这样,该立体显示器201的显示屏表面的其他部分可用于其他普通显示。或者,该立体显示器201本身可以仅占据显示屏表面的一部分,而显示屏表面的其他部分为普通的显示器。
此外,尽管在图4中示出所述三维键盘401呈现为突出于显示屏表面之上,在本发明的其他实施例中,所述三维键盘401可呈现为凹入于显示屏表面之下。
如本领域的技术人员所知的,所述立体显示器201可以借助于本领域中已知的立体显示技术来实现。所述立体显示技术通过分别向观察者的左眼和右眼呈现相互略微偏移的两个图像而在观察者的头脑中产生深度视觉。另如本领域的技术人员所知的,所述立体视觉图像可以是由处理器203在相应的立体显示程序的指导下根据该立体视觉图像的数据控制所述立体显示器201进行显示的,所述立体显示程序以及该立体视觉图像的数据例如可以存储在与所述处理器201相连的存储器(未示出)内。
现返回图2,所述三维位置感测器202可被配置为检测用户在立体显示器201上的触控操作,并将所述触控操作的信息传输给处理器203;以及所述处理器203与所述立体显示器201和三维位置感测器202电连接,并被配置为根据所述触控操作的信息执行相应操作。
根据本发明的一示例性实施例,所述处理器203被配置为根据所述触控操作的信息执行相应操作包括:所述处理器203被配置为从所述触控操作的信息获得所述触控操作的三维位置,并控制所述立体显示器201在所呈现的立体图像中的相应三维位置显示指示器。
也就是说,所述三维位置感测器202可以检测用户在立体显示器201上的触控操作所对应的三维位置,并将包括该三维位置的信息传输给处理器,以便由处理器203获取该三维位置,并控制所述立体显示器201在所呈现的立体图像中的相应三维位置显示指示器。例如,当用户的手指在立体显示器201上的某个位置进行触摸时,可在呈现的立体图像的相应位置显示一手指图像;当用户手指移动时,该手指图像也相应地移动。这样,可以使用户获得在立体视觉图像上进行操作的直观视觉感受。
所述三维位置感测器202可以有多种实现方式。根据本发明的一示例性实施例,所述三维位置感测器202包括触控感应器(例如,电容式触控感应器)和力感应器,所述触控感应器被配置为检测触控操作在立体显示器201的显示屏表面上的平面坐标,所述力感应器被配置为检测触控操作的压力;并且,所述处理器203被配置为从所述触控操作的信息获得所述触控操作的三维位置包括:所述处理器203被配置为根据触控操作在立体显示器的显示屏表面上的平面坐标获得所述三维位置的平面坐标,且根据所述触控操作的压力的大小获得所述三维位置的深度坐标。
所述根据触控操作的压力的大小获得所述三维位置的深度坐标例如可以通过以下方式来实现:事先指定关于压力大小与深度坐标之间的对应关系,并将其存储在与处理器203相连的存储器中。例如,无压力可对应于深度坐标的最下面一层,轻压可对应于第二层,中压可对应于第三层,重压可对应于最上面一层。这样,处理器203就可以根据所接收的触控操作的压力大小以及所存储的对应关系获得相应的深度坐标。
根据本发明的实施例,所述处理器203被配置为根据所述触控操作的信息执行相应操作还包括:所述处理器203被配置为当所述触控操作的三维位置位于所述三维键盘中的键附近时,发出所述键被选择的信号。
例如,当所述触控操作的三维位置(从而所述指示器)位于所述三维键盘中的某个键附近(例如,位于该键上或该键的指定距离以内)时,所述处理器203可控制立体显示器201对该键或对所述指示器或对背景进行显示上的变化(例如改变字体、颜色、背景或高亮显示等),或者由其他部件发出其他信号,例如由移动设备发出声音或震动等,以表示所述键已被选择。
图6示意性地示出了根据本发明的一示例性实施例的所述立体键盘中的键被选择时发出的该键被选择的信号。如图6中所示,当用户的手指(指示器)位于键“5”附近从而键“5”被选择时,该键的边框变粗,从而向用户指示该已键被选择。
根据本发明的实施例,所述处理器203被配置为根据所述触控操作的信息执行相应操作还包括:所述处理器203被配置为响应于接收到所述三维键盘中的键被输入的信号,执行输入所述键的处理。
例如,所述三维键盘中的键被输入的信号可以包括以下各项中的任何一个:用户的手指(从而所述指示器)在该键附近停留超过预定时间,双击该键,三维位置感测器202在立体显示器201的其他特定位置检测到点击,移动设备上的特定虚拟键或实体键被按压等等。
所述处理器203执行输入所述键的处理可包括本领域中所知的输入键时由处理器执行的任何处理,例如:将该键的信息存储在存储器中,以便在密码(或账号等)的所有键输入完成后进行后续处理,例如通过与存储的密码进行比较来进行验证;以及在立体显示器的密码输入显示框中加密显示所输入的键;等等。
当用户在立体键盘上依次输入密码等的各个键后,可以通知处理器203输入完成。当处理器203接收到输入完成的通知时,可以关闭所述立体键盘。用户可以多种方式通知处理器203输入完成,例如可以通过输入立体键盘上的一完成键、点击立体显示器201上的一虚拟或实体键等,来通知处理器203输入完成。
以上参照附图描述了根据本发明的实施例的防窥用户交互装置,应指出的是,以上描述仅为示例,而不是对本发明的限制。在本发明的其他实施例中,该防窥用户交互装置可具有更多、更少或不同的部件,且各部件之间的包含、连接及功能等关系可以与所描述和图示的不同。例如,以上各示例性实施例中包含的特征通常可以以本领域技术人员可知的多种方式相互组合,从而形成新的实施例。
在本发明的另一个方面,还提供了一种电子设备,其包括上述根据本发明的实施例的防窥用户交互装置。
根据本发明的一示例性实施例,所述电子设备为移动电子设备,例如智能手机。
现参照图7,其示出了根据本发明的实施例的一种防窥用户交互方法。该防窥用户交互方法可由上述根据本发明的实施例的防窥用户交互装置来执行,因此,该防窥用户交互方法的各步骤可对应于所述防窥用户交互装置的部件执行的相应操作。具体地,该防窥用户交互方法的各步骤可对应于所述防窥用户交互装置的处理器执行的相应操作,或者该处理器借助于所述防窥用户交互装置的其他部分执行的相应操作。为简明起见,在以下描述中省略了与以上描述重复的部分细节,因此,可参见以上描述获得对该防窥用户交互方法的更详细的了解。
如图7中所示,该方法包括以下步骤:
在步骤701,显示立体视觉图像,所述立体视觉图像对于位于立体呈现区域的观察者呈现立体图像,对于位于平面呈现区域的观察者呈现平面图像,其中,所述立体图像为三维键盘,所述三维键盘包括至少两层深度;
在步骤702,检测用户在立体显示器上的触控操作;
在步骤703,根据所述触控操作的信息执行相应操作。
根据本发明的一示例性实施例,所述根据所述触控操作的信息执行相应操作包括:从所述触控操作的信息获得三维位置,并在所呈现的立体图像中的相应三维位置显示指示器。
根据本发明的一示例性实施例,所述根据所述触控操作的信息执行相应操作还包括:当所述触控操作的三维位置位于所述三维键盘中的键附近时,发出所述键被选择的信号。
根据本发明的一示例性实施例,根据所述触控操作的信息执行相应操作还包括:响应于接收到所述三维键盘中的键被输入的信号,执行输入所述键的处理。
根据本发明的一示例性实施例,所述三维键盘的所述至少两层深度在深度方向上的投影至少部分重叠。
根据本发明的一示例性实施例,所述三维键盘的每层深度上包括背景图案。
根据本发明的一示例性实施例,所述通过三维位置感测器检测用户在立体显示器上的触控操作包括:
检测触控操作在立体显示器上的平面坐标,以及
检测触控操作的压力,
且其中,从所述触控操作的信息获得三维位置包括:
根据触控操作在立体显示器上的平面坐标获得所述三维位置的平面坐标,以及
根据所述触控操作的压力的大小获得所述三维位置的深度坐标。
以上参照附图描述了根据本发明的实施例的防窥用户交互方法,应指出的是,以上描述仅为示例,而不是对本发明的限制。在本发明的其他实施例中,所述方法可具有更多、更少或不同的步骤,且各步骤之间的顺序、包含及功能等关系可以与所描述和图示的不同。例如,通常多个步骤也可以被视为一个更大的步骤,一个步骤中包含的多个子步骤也可被视为多个单独的步骤。再例如,通常各步骤在以上描述和图示中的顺序并不构成对本发明的方法的限制,各步骤可以以本领域技术人员可知的任何顺序执行或同时执行。又例如,以上各示例性实施例中包含的特征通常可以以本领域技术人员可知的多种适当方式相互组合,从而形成新的实施例。
可以理解的是,本发明的以上各实施例仅仅是为了说明本发明的原理而采用的示例性实施例,本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为处于本发明的保护范围之内。本发明的保护范围仅由所附权利要求书的语言表述的含义及其等同含义所限定。

Claims (17)

1.一种防窥用户交互装置,包括:
立体显示器,其被配置为在处理器的控制下显示立体视觉图像,所述立体视觉图像对于位于立体呈现区域的观察者呈现立体图像,对于位于平面呈现区域的观察者呈现平面图像,其中,所述立体图像为三维键盘,所述三维键盘包括至少两层深度;
三维位置感测器,其被配置为检测用户在立体显示器上的触控操作,并将所述触控操作的信息传输给处理器;以及
处理器,其与所述立体显示器和三维位置感测器电连接,并被配置为根据所述触控操作的信息执行相应操作。
2.根据权利要求1的防窥用户交互装置,其中,所述处理器被配置为根据所述触控操作的信息执行相应操作包括:
所述处理器被配置为从所述触控操作的信息获得所述触控操作的三维位置,并控制所述立体显示器在所呈现的立体图像中的相应三维位置显示指示器。
3.根据权利要求2的装置,其中,所述处理器被配置为根据所述触控操作的信息执行相应操作还包括:
所述处理器被配置为当所述触控操作的三维位置位于所述三维键盘中的键附近时,发出所述键被选择的信号。
4.根据权利要求2的装置,其中,所述处理器被配置为根据所述触控操作的信息执行相应操作还包括:
所述处理器被配置为响应于接收到所述三维键盘中的键被输入的信号,执行输入所述键的处理。
5.根据权利要求1的装置,其中,
所述三维键盘为四层深度的数字键盘。
6.根据权利要求1的装置,其中,所述三维键盘的所述至少两层深度在深度方向上的投影至少部分重叠。
7.根据权利要求1的装置,其中,所述三维键盘的各层深度上包括背景图案。
8.根据权利要求2的装置,其中,所述三维位置感测器包括触控感应器和力感应器,所述触控感应器被配置为检测触控操作在立体显示器的显示屏表面上的平面坐标,所述力感应器被配置为检测触控操作的压力,
且其中,所述处理器被配置为从所述触控操作的信息获得所述触控操作的三维位置包括:
所述处理器被配置为根据触控操作在立体显示器的显示屏表面上的平面坐标获得所述三维位置的平面坐标,且根据所述触控操作的压力的大小获得所述三维位置的深度坐标。
9.一种防窥用户交互方法,包括:
显示立体视觉图像,所述立体视觉图像对于位于立体呈现区域的观察者呈现立体图像,对于位于平面呈现区域的观察者呈现平面图像,其中,所述立体图像为三维键盘,所述三维键盘包括至少两层深度;
检测用户在立体显示器上的触控操作;
根据所述触控操作的信息执行相应操作。
10.根据权利要求9的方法,其中,根据所述触控操作的信息执行相应操作包括:
从所述触控操作的信息获得三维位置,并在所呈现的立体图像中的相应三维位置显示指示器。
11.根据权利要求10的方法,其中,根据所述触控操作的信息执行相应操作还包括:
当所述触控操作的三维位置位于所述三维键盘中的键附近时,发出所述键被选择的信号。
12.根据权利要求10的方法,其中,根据所述触控操作的信息执行相应操作还包括:
响应于接收到所述三维键盘中的键被输入的信号,执行输入所述键的处理。
13.根据权利要求9的方法,其中,所述三维键盘的所述至少两层深度在深度方向上的投影至少部分重叠。
14.根据权利要求9的方法,其中,所述三维键盘的各层深度上包括背景图案。
15.根据权利要求10的方法,其中,
所述检测用户在立体显示器上的触控操作包括:
检测触控操作在立体显示器上的平面坐标,以及
检测触控操作的压力,且其中,
从所述触控操作的信息获得三维位置包括:
根据触控操作在立体显示器上的平面坐标获得所述三维位置的平面坐标,以及
根据所述触控操作的压力的大小获得所述三维位置的深度坐标。
16.一种电子设备,包括根据权利要求1-9中任何一个所述的防窥用户交互装置。
17.根据权利要求16所述的电子设备,其中,所述电子设备为移动电子设备。
CN201610378216.0A 2016-05-27 2016-05-27 防窥用户交互装置及方法 Active CN105808015B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201610378216.0A CN105808015B (zh) 2016-05-27 2016-05-27 防窥用户交互装置及方法
PCT/CN2017/071502 WO2017202043A1 (en) 2016-05-27 2017-01-18 Privacy user interactive apparatus, electronic apparatus having the same, and user interactive method for protecting privacy
US15/542,047 US10198599B2 (en) 2016-05-27 2017-01-18 Privacy user interactive apparatus, electronic apparatus having the same, and user interactive method for protecting privacy
EP17733729.2A EP3465398B1 (en) 2016-05-27 2017-01-18 Privacy user interactive apparatus, electronic apparatus having the same, and user interactive method for protecting privacy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610378216.0A CN105808015B (zh) 2016-05-27 2016-05-27 防窥用户交互装置及方法

Publications (2)

Publication Number Publication Date
CN105808015A true CN105808015A (zh) 2016-07-27
CN105808015B CN105808015B (zh) 2018-10-12

Family

ID=56428133

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610378216.0A Active CN105808015B (zh) 2016-05-27 2016-05-27 防窥用户交互装置及方法

Country Status (4)

Country Link
US (1) US10198599B2 (zh)
EP (1) EP3465398B1 (zh)
CN (1) CN105808015B (zh)
WO (1) WO2017202043A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017202043A1 (en) * 2016-05-27 2017-11-30 Boe Technology Group Co., Ltd. Privacy user interactive apparatus, electronic apparatus having the same, and user interactive method for protecting privacy
WO2018028003A1 (zh) * 2016-08-10 2018-02-15 北京英梅吉科技有限公司 用于三维空间中的阵列式输入方法及系统
CN110120102A (zh) * 2018-02-06 2019-08-13 富士施乐株式会社 信息处理装置以及非暂时性的计算机可读介质
CN111312073A (zh) * 2020-02-25 2020-06-19 深圳市隆利科技股份有限公司 防窥显示屏及电子设备
CN112723064A (zh) * 2020-12-31 2021-04-30 广东伟邦科技股份有限公司 一种电梯用空中成像设备及空中成像设备的操作方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11538214B2 (en) * 2020-11-09 2022-12-27 Meta Platforms Technologies, Llc Systems and methods for displaying stereoscopic rendered image data captured from multiple perspectives

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1702517A (zh) * 2004-04-20 2005-11-30 夏普株式会社 显示器
US20080074347A1 (en) * 2006-09-26 2008-03-27 Nec Lcd Technologies Ltd. Display device
CN102446382A (zh) * 2011-11-08 2012-05-09 北京新岸线网络技术有限公司 一种三维操作的自助服务终端
US20120262448A1 (en) * 2011-04-12 2012-10-18 Lg Electronics Inc. Mobile terminal and control method thereof
KR20130084879A (ko) * 2012-01-18 2013-07-26 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
CN103748627A (zh) * 2011-10-28 2014-04-23 夏普株式会社 处理图像数据以用于在包括多原色图像显示面板的显示设备上显示的方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003528377A (ja) * 2000-03-17 2003-09-24 ビジブル. コム インコーポレーティッド 三次元空間ユーザ・インタフェース
US20050204306A1 (en) 2003-09-15 2005-09-15 Hideya Kawahara Enhancements for manipulating two-dimensional windows within a three-dimensional display model
US7620915B2 (en) * 2004-02-13 2009-11-17 Ludwig Lester F Electronic document editing employing multiple cursors
GB2428344A (en) 2005-07-08 2007-01-24 Sharp Kk Multiple view directional display
US10133928B2 (en) * 2006-05-02 2018-11-20 Digitalglobe, Inc. Advanced semi-automated vector editing in two and three dimensions
JP5317530B2 (ja) * 2007-06-05 2013-10-16 オセ−テクノロジーズ・ベー・ヴエー プリンタ用ユーザインタフェース
GB201009182D0 (en) * 2010-06-01 2010-07-14 Treadway Oliver Method,apparatus and system for a graphical user interface
US8514225B2 (en) * 2011-01-07 2013-08-20 Sony Computer Entertainment America Llc Scaling pixel depth values of user-controlled virtual object in three-dimensional scene
KR101789683B1 (ko) * 2011-06-13 2017-11-20 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치
CN102510504B (zh) 2011-09-27 2015-04-15 深圳超多维光电子有限公司 裸眼立体显示系统的显示范围确定及显示方法及装置
US8570329B1 (en) * 2012-10-31 2013-10-29 Google Inc. Subtle camera motions to indicate imagery type in a mapping system
CN105117055B (zh) * 2015-08-14 2018-09-28 宸鸿科技(厦门)有限公司 触压式三维信号输入装置及使用方法及多功能触控面板
CN105608779A (zh) 2016-03-02 2016-05-25 广西师范大学 一种电子密码锁系统
CN105808015B (zh) 2016-05-27 2018-10-12 京东方科技集团股份有限公司 防窥用户交互装置及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1702517A (zh) * 2004-04-20 2005-11-30 夏普株式会社 显示器
US20080074347A1 (en) * 2006-09-26 2008-03-27 Nec Lcd Technologies Ltd. Display device
US20120262448A1 (en) * 2011-04-12 2012-10-18 Lg Electronics Inc. Mobile terminal and control method thereof
CN103748627A (zh) * 2011-10-28 2014-04-23 夏普株式会社 处理图像数据以用于在包括多原色图像显示面板的显示设备上显示的方法
CN102446382A (zh) * 2011-11-08 2012-05-09 北京新岸线网络技术有限公司 一种三维操作的自助服务终端
KR20130084879A (ko) * 2012-01-18 2013-07-26 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017202043A1 (en) * 2016-05-27 2017-11-30 Boe Technology Group Co., Ltd. Privacy user interactive apparatus, electronic apparatus having the same, and user interactive method for protecting privacy
US10198599B2 (en) 2016-05-27 2019-02-05 Boe Technology Co., Ltd. Privacy user interactive apparatus, electronic apparatus having the same, and user interactive method for protecting privacy
WO2018028003A1 (zh) * 2016-08-10 2018-02-15 北京英梅吉科技有限公司 用于三维空间中的阵列式输入方法及系统
CN110120102A (zh) * 2018-02-06 2019-08-13 富士施乐株式会社 信息处理装置以及非暂时性的计算机可读介质
CN110120102B (zh) * 2018-02-06 2024-05-28 富士胶片商业创新有限公司 信息处理装置以及非暂时性的计算机可读介质
CN111312073A (zh) * 2020-02-25 2020-06-19 深圳市隆利科技股份有限公司 防窥显示屏及电子设备
CN111312073B (zh) * 2020-02-25 2022-08-12 深圳市隆利科技股份有限公司 防窥显示屏及电子设备
CN112723064A (zh) * 2020-12-31 2021-04-30 广东伟邦科技股份有限公司 一种电梯用空中成像设备及空中成像设备的操作方法
CN112723064B (zh) * 2020-12-31 2023-03-14 广东伟邦科技股份有限公司 一种空中成像设备的操作方法

Also Published As

Publication number Publication date
US10198599B2 (en) 2019-02-05
US20180218178A1 (en) 2018-08-02
CN105808015B (zh) 2018-10-12
EP3465398A1 (en) 2019-04-10
WO2017202043A1 (en) 2017-11-30
EP3465398A4 (en) 2019-12-04
EP3465398B1 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
EP3179290B1 (en) Mobile terminal and method for controlling the same
EP2923232B1 (en) Head mount display and method for controlling the same
CN105808015A (zh) 防窥用户交互装置及方法
EP2413225B1 (en) Mobile terminal with 3D display and method of controlling operation of the mobile terminal
US10013138B2 (en) Method and apparatus for secure data entry using a virtual interface
WO2015099725A1 (en) Secure transactions using a personal device
US11301056B2 (en) Systems and methods for obfuscating user selections
US10382128B2 (en) Mobile terminal
US11526273B2 (en) Systems and methods of selection acknowledgement for interfaces promoting obfuscation of user operations
WO2020231563A1 (en) Systems and methods for identifying user-operated features of input interfaces obfuscating user navigation
US11209979B2 (en) Systems and methods for input interfaces promoting obfuscation of user navigation and selections
JP2005316790A (ja) 情報入力方法および情報入出力装置並びにプログラム
US11086514B2 (en) Systems and methods for obfuscating user navigation and selections directed by free-form input
US20200356263A1 (en) Systems and methods for obscuring touch inputs to interfaces promoting obfuscation of user selections
Bianchi et al. Open sesame: Design guidelines for invisible passwords
US20150074795A1 (en) One-time password generation apparatus and method using virtual input means
KR101393164B1 (ko) 화상 조합을 이용한 사용자 인증 방법
KR101193310B1 (ko) 3차원 디스플레이를 이용한 사용자 인증 방법 및 사용자 인증 기기
CN104123005A (zh) 触控显示系统及其显示可触控操作界面的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant