CN109313291A - 智能镜件 - Google Patents
智能镜件 Download PDFInfo
- Publication number
- CN109313291A CN109313291A CN201680086383.6A CN201680086383A CN109313291A CN 109313291 A CN109313291 A CN 109313291A CN 201680086383 A CN201680086383 A CN 201680086383A CN 109313291 A CN109313291 A CN 109313291A
- Authority
- CN
- China
- Prior art keywords
- user
- mirror part
- smart mirror
- display
- smart
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/08—Mirrors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/14—Beam splitting or combining systems operating by reflection only
- G02B27/144—Beam splitting or combining systems operating by reflection only using partially transparent surfaces without spectral selectivity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Abstract
在一个示例中,一种智能镜件。所述智能镜件包括:与半镜件的一侧相邻的显示器;传感器,其用于获取面对半镜件的相对侧的用户的生物计量信息;以及耦合到所述传感器和显示器的控制器。所述控制器根据生物计量信息来确定用户的焦距。如果所述焦距对应于显示器,则控制器以高度可见的方式在智能镜件上呈现用户接口并且以不太可见的方式呈现用户的映像。如果所述焦距对应于用户的映像,则控制器以不太可见的方式在智能镜件上呈现用户接口并且以高度可见的方式呈现用户的映像。
Description
背景技术
“智能镜件(mirror)”是一种集成了计算机、显示器和半镜件表面的设备。半镜件表面允许智能镜件的用户看到他或她的映像,而同时集成的显示器是输出设备,其使得智能镜件能够向智能镜件的用户呈现用户接口(UI)。作为使得用户能够与UI交互的用户输入机制,在许多情况中,智能镜件使用触摸屏。当用户在镜件表面附近或其上触摸的时候,用户触摸的定位和/或其它特性可以被智能镜件检测到并且被用于控制其操作。
附图说明
图1是根据本公开内容的示例的智能镜件的示意性表示。
图2是根据本公开内容的示例的智能镜件的前视图的示意性表示。
图3是根据本公开内容的示例的智能镜件的用户的焦距确定的示意性表示。
图4A-4B是根据本公开内容的示例的智能镜件分别在镜件模式中以及在用户接口模式中的操作的示意性表示。
图5A-5B是根据本公开内容的示例的智能镜件对于面对智能镜件的用户的眼睛焦距的响应的示意性表示。
图6是根据本公开内容的示例的关于特定用户的用户接口在智能镜件上的位置的示意性表示。
图7是根据本公开内容的示例的关于用户距智能镜件的特定距离而在智能镜件上的用户接口的大小的示意性表示。
图8是根据本公开内容的示例的可在图1直到图7的智能镜件的情况下使用的控制器的示意性表示。
图9是根据本公开内容的示例的图8的控制器的固件和/或软件实现方式的示意性表示。
图10是用于操作智能镜件的方法的、根据本公开内容的示例的流程图。
图11是用于操作智能镜件的另一方法的、根据本公开内容的示例的流程图。
具体实施方式
使用触摸屏作为用于智能镜件的用户输入机制可强加关于用户的某些不合期望的约束。用户在他们想要使用触摸屏的时候可能他们的手是被占用或脏的。例如,用户可使智能镜件被安装在浴室中,并且在早上为了工作而着装的时候可能希望与它交互以便检查他们的电子邮件,弄清那天将是什么天气,或得到昨晚运动赛事的得分。然而,如果用户在他们希望与计算机交互的同时正在洗漱、剃须、着装、刷牙、握持着物品等等,则触摸屏访问可能是不便利或不可能的。当使用触摸屏的时候,用户手上的肥皂、剃须膏、手霜等等可弄脏镜件表面。另外,以固定的定位和/或以固定的大小被显示在镜件上的用户接口(UI)对于用户与之交互而言可能是不便利或困难的。例如,UI可能在镜件上被定位得太低以致不能用于高大用户的便利操作,或对于较矮的用户在镜件上太高。当用户站得靠近于镜件的时候大小定得便利的UI在用户站得往后更远的时候可能在外观上太小。而且,用户可以站得距镜件往后多远并且仍能够操作触摸屏受用户伸手能够到的长度所限制。
现在参考附图,图示有智能镜件的示例,所述智能镜件具有用户接口,所述用户接口使用眼睛焦距作为输入机制来用于用户控制智能镜件的操作。智能镜件检测或确定用户在面对智能镜件的时候的焦距。用户的眼睛焦距确定用户的映像或智能镜件的UI对于用户而言是否更显著可见,这由智能镜件自动进行。而且,当用户的眼睛焦距是这样的使得智能镜件的UI更显著可见的时候,用户可以通过注视UI所呈现的特定内容项而与UI交互。注视特定内容项可以使得与该项相关联的动作将由智能镜件作为响应地执行。
眼睛焦距是可以由智能镜件获取并且使用的一种类型的生物计量信息。在用户与智能镜件的交互中,智能镜件还可以获取和使用其它类型的生物计量信息。例如,用户相对于智能镜件平面的定位,和/或用户距智能镜件的距离可以用于自动地确定智能镜件上在该处呈现UI的位置,以及智能镜件上UI的大小。使用这些类型的生物计量信息用于与智能镜件的用户交互可以显著改善镜件的效用性和可用性。当用户聚焦于镜件中他或她的映像的时候,所述映像在镜件中到处可见,具有最小限度的UI遮掩或没有任何UI遮掩。当用户聚焦于UI上的时候,UI可见,具有最小限度的被用户映像分心,或没有任何被用户映像分心。经由UI而对智能镜件的免用手操作允许用户用他或她的手执行其它任务,而同时与智能镜件交互。并且智能镜件上UI的大小和位置为特定用户而被优化,使得与UI的交互更便利并且符合人体工学。
如在本文中并且在所附权利要求中所定义的,“焦距”可以被宽泛地理解成意指用户前方空间中的一点,在该点处,用户左眼和右眼的视觉注视相会聚。同样如本文中并且在所附权利要求中所定义的,“生物计量信息”可以被宽泛地理解成意指与用户的人体特性有关的、可以标识或描述个体的信息。这可以包括生理特性:与体形有关的那些;例如面部特征、身体几何结构(例如身体部分与彼此、诸如头和肩部的关系),以及眼睛的视网膜和虹膜。另一类型的生物计量信息是行为性的:有关于人的行为。这可以包括人眼正观看并且聚焦在该处的定位,以及该人如何定位,包括相对于另一对象的定位。
现在考虑智能镜件,并且参考图1,一个示例智能镜件100包括半镜件(halfmirror)(或单向镜件)110、显示器120、多个传感器130、以及控制器140。
半镜件110包括基底112和反射层114。虽然反射层114被图示在半镜件110的前缘处,但是在其它示例中,它可以在基底112内或其后方。基底112可以是玻璃或另一物质。反射层114是薄的、通常金属的、并且部分透明的。在一些示例中,反射层114可以被稀疏地施加到基底112,其具有对于使得镜件不透明将会需要的反射材料的大约一半。当光到达反射层的时候,大约一半的光将被透射,并且其余的被反射。作为结果,半镜件110部分反射并且部分透明。当用户10正面对的半镜件110侧比半镜件110的相对侧显著更亮的时候,用户10主要看到他的映像。相反,当用户10正面对的半镜件110侧比半镜件110的相对侧显著更暗的时候,用户10主要穿过半镜件110看到另一侧而不是他的映像。在一个示例中,基底112包括聚合物分散的液晶(PDLC)膜,其可操作以控制基底112的透明度。
显示器120被布置成相邻于半镜件110的一侧。显示器120将智能镜件100的用户接口显示给用户10。在各种示例中,显示器用于将用户接口呈现为图形用户接口(GUI),尽管在其它示例中,UI可以是基于文本的或为另一类型的。显示器120的亮度是可控制的,用以使得它比在用户10正面对的半镜件110侧上撞击半镜件110的环境光照更亮或更暗。通过鉴于环境光照来适当地控制显示器120的亮度,智能镜件110可以确定用户10通过半镜件110是更显著地看到用户接口,还是来自半镜件110反射层114的用户映像。在一个示例中,显示器120是OLED(有机发光二极管)显示器。OLED显示器对于智能镜件100而言可以是有利的,因为它可以是薄的、轻量的、不昂贵的和/或抗碎的。由于OLED显示器不使用背光,所以它可以允许智能镜件110在暗光环境中以主要反射的方式运作。
传感器130获取正面对与显示器120相对的半镜件110侧的用户10的生物计量信息。传感器130还可以获取关于用户环境的信息。智能镜件100可以包括不同类型的传感器,和/或相同类型的多个传感器。
控制器140被通信地耦合到传感器130和显示器120。控制器140还可以通信地耦合到在智能镜件110外部的通信网络(未被示出),诸如例如因特网。控制器140被配置成根据生物计量信息来确定用户10的焦距。控制器140此外被配置成如果用户的焦距对应于显示器120,则通过使用显示器120而以高度可见的方式在智能镜件100上呈现用户接口,并且以不太可见的方式呈现用户10的映像。控制器140此外被配置成如果所述焦距对应于用户10的映像,则以不太可见的方式在智能镜件100上呈现用户接口,并且以高度可见的方式呈现用户10的映像。如果焦距在用户距智能镜件半镜件的距离的预定义容差内,则焦距被认为是“对应于”用户接口的。如果焦距在用户距智能镜件半镜件的距离的两倍的预定义容差内,则焦距被认为是“对应于”用户映像。
在一些示例中,用户可以附加地或可替换地经由触摸、语音、手势、或以另一方式与智能镜件100交互。
现在考虑智能镜件的前视图,并且参考图2,一个示例智能镜件200包括半镜件210。在一些示例中,框架200绕半镜件的周界被布置。智能镜件200包括各种传感器:左眼和右眼传感器230A、230B,图像传感器(例如相机)240,环境光传感器250,邻近传感器260,以及音频传感器(例如麦克风)270。
智能镜件200可以具有任何大小,并且具有水平或垂直定向。可以依据X和Y坐标来指定智能镜件的平面上的给定定位。在一些示例中,智能镜件200具有小于一英寸的厚度。智能镜件200可以被装配或悬挂在结构性表面、诸如例如墙壁上。智能镜件200可以可替换地是自立式的。
左眼和右眼传感器230A、230B感测面对智能镜件200的用户的眼睛的一个或多个特性。每个传感器230A、230B感测不同眼睛的特性。眼睛传感器230A、230B,在一些情况中结合智能镜件200的控制器,可操作以感测或确定用户视觉的焦距。虽然将左眼和右眼传感器230A、230B图示为被间隔开的分离的传感器,但是在其它示例中,眼睛传感器230A、230B可以被组合成单个传感器。各种眼睛传感器230A、230B可以是视网膜焦点传感器、视网膜移动传感器、和/或视网膜追踪传感器。眼睛传感器230A、230B共同形成双眼(或立体)眼睛传感器(也被称为双眼式眼睛追踪器),其允许两个眼睛的特性、诸如定位或聚散度(在聚焦期间眼睛瞳孔朝向或远离彼此的同时移动)被相互关联。
一个示例类型的眼睛传感器230A、230B使用红外二极管来照射用户眼睛,使得在眼角膜上生成反射图案。所述反射图案,在一些情况中连同与用户相关的其它视觉或空间数据,被传感器针对每只眼睛而收集。这些图案和数据然后被处理以计算每只眼睛的三维定位,以及用户正看向的注视方向或具有与传感器230A、230B的已知关系的平面上的二维注视点。使用该信息来确定焦距随后参考图3被更详细地讨论。
图像传感器240可控地捕获在智能镜件200前方并且在其视场内的内容的图像。图像数据可以被处理以确定是否存在用户站立在镜件200前方。如果在镜件200前方存在用户,则图像数据可以被处理以尝试标识用户,诸如例如通过将面部识别技术应用到图像数据,并且对照已知用户的数据库来比较它。在一些示例中,面部识别从所获取的图像中提取面部特征,诸如眼睛、鼻子、颧骨、颚骨等等的相对定位、大小和/或形状,并且通过使用算法、以几何或其它方式来将它们与预存储的图像的那些进行比较,所述算法诸如主分量分析、线性判别分析和/或其它技术。
图像数据还可以被处理以确定用户相对于镜件前表面的平面的定位(即相对于镜件的用户的x-y定位)。图像数据此外可以被处理以确定用户距镜件200的前面的距离(即相对于镜件的用户的z定位)。
环境光传感器250检测镜件200在其环境中在它前面上或与它前面相邻处的光照的大小。在一些示例中,传感器250还可以检测光照的其它特性,诸如例如颜色温度或其它特性。该信息可以用于为显示器设置适当的亮度水平。例如,来自传感器250的数据可以用于确定被用来以高度可见、或容易可察觉的方式在显示器上呈现UI的显示器第一亮度水平。来自传感器250的该数据此外可以用于确定被用来以不太可见、或模糊的方式在显示器上呈现UI的、比第一亮度水平更暗的第二亮度水平。
它还可以用于帮助确定用户是否仍在使用镜件200(例如,如果灯是开着的,则可以认为用户仍在使用浴室镜件,尽管用户已暂时从镜件走开)。
邻近传感器260在没有对象与传感器的任何物理接触的情况下检测何时对象进入镜件200的某个距离内,和/或检测对象保持在所述某个距离内。一些邻近传感器发射电磁场、电磁辐射射束或声波,并且寻找场中的改变或返回信号。传感器260可以有助于确定用户距镜件200前面的距离。传感器260还可以有助于确定不再处于镜件前方的用户是否仍在镜件另一方向的某个距离内。以这些和其它方式,传感器260可以确定或有助于确定是要开启还是关断智能镜件200。
音频传感器270捕获在智能镜件200附近可听到的声音。传感器270可以有助于确定不再处于镜件前方的用户是否仍在使用镜件。例如,正在淋浴的用户可能不再处于镜件前方或甚至不再处于它邻域内,但是流水的声音可以用于确定用户仍在使用浴室和镜件。
不同传感器中的各种传感器可以共同用于确定用户的特定特性。尽管各种传感器230-270在图2中被图示为布置在框架220中、半镜件220的区域外部,但是在其它示例中,传感器230-270中的一些或全部被布置在半镜件210的区域内,并且框架220可以被省略。
现在考虑智能镜件的用户的焦距确定,并且参考图3,图示了具有左眼305A和右眼305B的用户300的自顶向下视图。还图示了智能镜件的具有反射层314、以及显示器320的半镜件310的自定向下视图。UI被显示在显示器320的显示屏322上。通过间隔S 316分离反射层314与显示屏322。用户300——并且更具体地眼睛305A、305B——位于反射层314前方的距离Z 330处。
在智能镜件的操作期间,用户300可以选择在某些时候聚焦于屏幕322上所显示的UI上。用户300对屏幕322的焦距等于Z+S。在一些情况中,S比Z小得多,并且焦距可以近似为Z。
用户300还可以选择在某些时候聚焦于他或她在智能镜件中的映像上。所反射的图像出现在反射层314后方、与用户300在反射层314前方的相同距离处。因此,用户300对映像的焦距等于Z+Z,或2Z。
为了使用户300将他或她的眼睛305A、305B聚焦于它们前方的特定距离处,眼睛305A、305B的注视方向改变。为了聚焦于显示屏322上以便查看UI,眼睛305A、305B的注视转成更向内、分别在注视方向332A、332B上。为了聚焦于用户的映像,眼睛305A、305B的注视转成更向外、分别在注视方向334A、334B上。注视中的这些改变可以被检测到,并且用户的焦距被确定,其通过使用左眼和右眼传感器230A、230B(图2)。
在一个示例中,通过检测用户300的左眼305A和右眼305B的注视方向而确定用户300的焦距。可以确定从用户300到反射层314(或智能镜件的另一平面)的距离Z。然后,空间中注视方向重合在该处的点被计算,在一些示例中通过使用三角测量。例如,如果用户正聚焦于UI上,则注视方向将重合在点342处,而如果用户正聚焦于他或她的映像,则注视方向将重合在点344处。如果空间中的该点在某个容差内对应于显示屏上的点(例如点342),那么确定了用户正聚焦于UI上。如果空间中的该点在某个容差内对应于用户到反射层314的距离Z的两倍的空间点(例如点344),那么确定了用户正聚焦于他或她在智能镜件中的映像上。示例容差范围352内的焦距被确定为指示用户正聚焦于UI上,而示例容差范围354内的焦距被确定为指示用户正聚焦于镜件中的映像上。在范围352-354之间的距离中的间隙提供了迟滞现象来避免在如果焦距落在靠近范围352、354边界处的情况下在显著显示UI或显著显示映像之间的显示的不合期望的频繁切换。当焦距落在范围352、354外部的时候,将不发生任何这样的切换。在可替换示例中,如果焦距在容差范围352外,并且不使用容差范围354,则确定了用户正聚焦于他或她在智能镜件中的映像上。在一些示例中,容差范围352、354可以取决于距离Z,和/或可以具有与距离Z的逆关系。
在另一示例中,通过检测用户300的左眼305A和右眼305B的注视方向而确定用户300的焦距。然后,确定智能镜件的平面上、左眼和右眼注视方向相交在该处的定位。所述定位可以在反射层314上、显示屏322上或另一平面上。例如,假定平面是反射层314。如果用户正聚焦于UI上,则注视方向在定位362A、362B处与反射层314相交。如果用户正聚焦于映像上,则注视方向在定位364A、364B处与反射层314相交。如果平面(例如反射层314)上在该处眼睛305A、305B的注视方向与平面相交的定位相距小于第一预确定的距离,那么确定用户的焦距对应于UI。如果平面(例如反射层314)上在该处眼睛305A、305B的注视方向与平面相交的定位相距大于或等于第二预确定的距离,那么确定用户的焦距对应于他或她的映像。在一些示例中,第一和第二距离可以是相等的。在其它示例中,第二距离大于第二距离以在显示切换中提供迟滞现象。在另外的示例中,如果平面(例如反射层314)上在该处眼睛305A、305B的注视方向与平面相交的定位相距大于或等于第二预确定的距离并且相距小于更大的第三距离,那么确定用户的焦距对应于他或她的映像。在一些示例中,第一、第二和第三距离可以取决于距离Z,和/或可以具有与距离Z的逆关系。
现在考虑智能镜件用于向用户呈现容易可察觉(或高度可见)成像、或模糊(或不太可见)成像的示例操作,并且参考图4A-4B,智能镜件400被用于具有环境光照的环境中。环境光照可以具有特定水平的亮度、均匀度、颜色、颜色范围和/或其它特性。环境光传感器260(图2)可以感测镜件400附近的环境光的特性。智能镜件400包括半镜件和显示器420,所述半镜件在基底412上或其中具有反射层414,所述显示器420具有与镜件400的背侧相邻的显示屏。用户查看镜件400的相对前侧。
图4A示意性地图示了智能镜件400在镜件模式中的操作,并且图4B在用户接口模式中。在图4A的镜件模式中,以比环境光405A的亮度水平显著更小的亮度水平来操作显示器420。射线430A表示从显示器420发射的较低亮度光,作为显示器420上所呈现的UI的部分。射线430A通过半镜件,包括部分透射的反射层414,并且作为射线435A、以减弱的形式浮现。射线440A表示从智能镜件400的前侧撞击反射层414的较高亮度光。相对于所反射的射线445A的较高亮度,射线435A的较低亮度使得UI看起来不太可见、较暗或模糊,而同时用户被反射的图像看起来高度可见、较亮或容易可察觉。此外,在UI外部的显示器420区中的亮度水平被维持在黑点处或黑点附近。作为结果,几乎没有任何来自显示器420的光在那些区中通过反射层414,并且因而用户被反射的图像看起来与对于标准(即非半)镜件将会有的大体上相同。
相反,在图4B的UI模式中,以比环境光405B的亮度水平显著更大的亮度水平来操作显示器420。射线430B表示从显示器420发射的较高亮度光,作为显示器420上所呈现的UI的部分。射线430B通过半镜件并且作为射线435A而浮现。射线440B表示从智能镜件400的前侧撞击反射层414的较低亮度光。相对于所反射的射线445B的较低亮度,射线435B的较高亮度使得UI看起来高度可见、较亮或容易可察觉,而同时用户被反射的图像看起来不太可见、较暗或模糊。此外,在UI外部的显示器420区中的亮度水平被维持在比从智能镜件400前侧撞击反射层414的较低亮度光更高的亮度水平处。这些较亮的显示区可以呈现灰色或白色的均匀广阔区域。由于这些区比较低亮度前侧光更亮,所以来自显示器420的显著量的光通过镜件到前侧并且冲淡,或在显著程度上使用户映像中的对比度降低,使得非UI区域中所反射的图像也看起来不太可见、较暗或模糊。
现在考虑智能镜件对于面对智能镜件的用户的眼睛焦距的响应的示意性表示,并且参考图5A-5B,图5A图示了当用户正聚焦于他或她在智能镜件中的映像上的时候智能镜件的外观,而图5B图示了当用户正聚焦于智能镜件所呈现的UI上的时候智能镜件的外观。双眼式眼睛传感器510以与此前已经针对左眼和右眼传感器230A、230B(图2)所描述的相同或类似的方式来感测用户左眼和右眼的特性。
在图5A中,用户505正将他或她的眼睛520A聚焦于智能镜件500中的映像上。镜件500检测如对应于所述映像的用户焦距。作为响应,镜件500以模糊、不太可见或较暗的方式显示用户接口530A,并且以容易可察觉、高度可见或较亮的方式显示映像540A。
在图5B中,用户505正将他或她的眼睛520B聚焦于智能镜件500中的映像上。镜件500检测如对应于用户接口的用户焦距。作为响应,镜件500以容易可察觉或高度可见的方式显示用户接口530B,并且以模糊或不太可见的方式显示映像540B。
在一个示例中,通过控制所反射的图像的亮度和/或对比度来改变映像540A、540B的可察觉度或可见度。映像540A更亮和/或具有更高对比度,而映像540B更暗和/或具有较低对比度。
在一个示例中,通过控制所反射的图像的亮度和/或对比度来改变用户接口530A、530B的可察觉度或可见度。在另一示例中,通过增大或减小UI 530A、530B的大小、诸如例如通过使各种UI内容项最小化或最大化来改变用户接口530A、530B的可察觉度或可见度。在仍另一示例中,通过以轮廓形式530A或以填充形式530B呈现各种UI内容项来改变用户接口530A、530B的可察觉度或可见度。
在一些示例中,针对在其中显示用户接口530A、530B的智能镜件550的给定x-y区550,用户接口和用户映像二者同时可见。在区550A中,映像540A比UI 530A更显著可见,而在区550B中,UI 530B比映像540B更显著可见。然而,UI 530和映像540二者都在区550中可见,无论用户是聚焦于映像(图5A)还是UI(图5B)上。换言之,映像和用户接口二者在该区中同时可见,尽管一个将比另一个更显著可见(或容易可察觉)。
现在考虑相对于特定用户的用户接口在智能镜件上的位置,并且参考图6,用户接口610A-610C以如下x-y定位被显示在智能镜件600上,所述x-y定位根据用户相对于智能镜件平面的x-y定位而被确定。
例如,不同高度的三个用户620A-620C正站立在智能镜件600前方。用户接口610A-610C各自被显示在智能镜件600上不同的位置处。可以基于由智能镜件600的一个或多个传感器所获取的信息来确定位置,所述信息诸如例如用户的身高、用户视平线、用户是在镜件前方居中还是站在左侧或右侧,或用户的其它特性。智能镜件上的x-y位置可以被选为针对该特定用户、从人体工学或可用性视角的最优定位。在其中智能镜件识别了特定用户的身份的情况中,可以利用为该用户所预存储的x-y定位。预存储的信息和所感测的信息二者的组合可以用于确定用户接口的x-y位置。
现在考虑相对于用户距智能镜件的特定距离而在智能镜件上的用户接口的大小,并且参考图7,以根据用户距智能镜件700的距离所确定的大小而将用户接口710A-710B显示在智能镜件700上。
例如,用户720A比用户720B站立得更靠近于智能镜件700,并且用户接口710A-710B的大小是不同的。在一个示例中,用户接口710的大小具有与用户720距智能镜件700的距离的逆关系,其允许站立得更远离智能镜件700的用户720B看到比站立的更靠近于智能镜件700的用户720A所看到的用户接口710A更大的用户接口710B。可以基于由智能镜件700的一个或多个传感器所获取的信息来确定用户距智能镜件700的距离。
智能镜件上的用户接口的大小可以被选为针对在该特定距离处的用户、从人体工学或可用性视角的最优大小。在其中智能镜件识别了特定用户的身份的情况中,可以利用为该用户所预存储的大小(或大小-距离因子)。预存储的信息和所感测的信息二者的组合可以用于确定用户接口710的大小。
现在更详细地考虑智能镜件的控制器,并且参考图8,智能镜件800包括控制器810。控制器对接到传感器890和显示器895的布置。在一些示例中,控制器800可以是控制器140(图1);传感器890可以是传感器130(图1)和/或传感器230-270(图2);并且显示器895可以是显示器120(图1)、显示器320(图3)和/或显示器420(图4)。控制器810从传感器890获取信息,并且控制在显示器895上所呈现的信息以及用来呈现它的方式。图8可以被视为控制器810的逻辑结构,控制器810内的操作和/或数据流的流程图,或控制器810中所实现的方法。为了以下描述的清楚,术语“模块”将被用于指代结构、流程图和方法。
控制器810包括用户检测和标识模块820以及用户交互模块830。用户检测和标识模块820检测对象是否在智能镜件800的邻域内,确定该对象是否是人(用户),以及如果对象是人,则尝试确定该人的身份。用户检测和标识模块820可以将与用户相关的生物计量信息提供给用户交互模块830。如果用户是所标识的人,则用户检测和标识模块820可以获得与用户相关联的预存储的信息并且将其提供给用户交互830。预存储的信息可以包括与该用户相关联的偏好信息,和/或与该用户相关联的UI内容。
用户交互模块830确定如何控制显示器895以及将被呈现在显示器895上的信息。用户交互模块830还可以获取与用户相关的生物计量信息以及与镜件相关的环境信息。用户交互模块830包括若干子模块。传感器获取模块840从智能镜件800的传感器的布置获取信息或数据,并且将此提供给眼睛注视点和焦距模块850、用户接口模块860和显示控制模块870。眼睛注视点和焦距模块850确定用户的焦距是对应于智能镜件800的UI,还是对应于智能镜件中的映像。而且,当用户聚焦于UI上的时候,眼睛注视点和焦距850还确定镜件的、被用户注视的x-y定位。眼睛注视点和焦距模块850将该信息中的一些或全部提供给显示控制模块870和/或用户接口模块860。
用户接口模块860包括内容子模块862、位置和大小子模块864以及动作处理子模块866。位置和大小子模块864使用与用户相关的定位和距离信息来确定在用户接口的显示器上的大小和位置。内容子模块862从用户检测和标识模块820接收任何用户UI偏好和内容信息,并且确定将被显示在UI上的内容。动作处理子模块866接收UI内用户的x-y注视定位,并且可以接收和/或获取与用户注视在该定位处或该定位近旁的持久性相关的信息。如果用户持久地注视与UI的动作图标或元素相对应的点,则动作处理子模块866执行对应的动作,其可以包括修正将被显示在UI上的内容。
显示控制模块870从用户接口模块860接收将针对UI被显示的UI内容,以及UI的大小和定位。显示控制模块870还从眼睛注视和聚焦模块850接收关于用户是聚焦于UI还是映像上的确定。显示控制模块870然后以所指定的大小和位置来显示内容,并且控制智能镜件800的半镜件的反射性,以便以高度可见或容易可察觉的方式显示UI或映像中之一,并且以不太可见或模糊的方式显示UI或映像中的另一个。
控制器810可以用硬件、或用硬件与固件和/或软件的组合来被实现。在一个硬件实现方式中,可以通过使用至少一个ASIC、门阵列、有限状态机和/或其它这样的组件来实现控制器810。现在考虑用硬件与固件和/或软件的组合而对控制器810的另一实现方式,并且参考图9,控制器910包括处理器920,所述处理器920通信地耦合到存储器930。存储器930是已经在其中存储了智能镜件控制器固件和/或软件指令940的计算机可读存储介质,所述智能镜件控制器固件和/或软件指令940可由处理器920执行以实现功能并且执行已经在此前针对控制器810所描述的操作。
现在考虑用于操作智能镜件的一个示例方法,并且参考图10,方法1000可以可替换地被认为是智能镜件的控制器的操作流程图。在一些示例中,智能镜件可以是智能镜件100(图1)、200(图2)和/或400(图4),并且控制器可以是控制器140(图1)和/或800(图8)。方法1000开始,1010,通过检测正大体上面对智能镜件的用户的光学焦距(OFD)。在1020处,确定光学焦距是否在第一预确定容差内对应于用户距智能镜件半镜件表面的距离。如果光学焦距确实这样对应(1020的“是”分支),那么在1030处,所述方法以容易可察觉、高度可见和/或相对更亮的方式在智能镜件上显示用户接口,并且以模糊、不太可见和/或相对更暗的方式显示用户的映像。
如果光学焦距在第一预确定容差内不对应于用户距半镜件表面的距离,那么如果光学焦距对应于不同的距离范围,则所述方法以模糊、不太可见和/或相对更暗的方式在智能镜件上显示用户接口,并且以容易可察觉、高度可见和/或相对更亮的方式显示用户的映像。可以用各种方式实现不同的距离范围。
更特别地,如果在1020处,光学焦距在第一预确定容差内不对应于用户距半镜件表面的距离,那么在一个示例中(1020的实线“否(1)”分支),在1040处确定光学焦距是否在第二预确定容差内对应于用户距半镜件表面的距离的两倍。如果光学焦距确实这样对应(1040的“是”分支),那么在1050处,所述方法以模糊、不太可见和/或相对更暗的方式在智能镜件上显示用户接口,并且以容易可察觉、高度可见和/或相对更亮的方式显示用户的映像。如果光学焦距不这样对应(1040的“否”分支),那么在1060处,所述方法维持显示用户接口和用户映像的当前方式。换言之,如果OFD距离在框1020、1040中任一个处都不匹配,则对智能镜件的显示方式不做任何改变。通过限定第一和第二容差使得在距离范围之间存在间隙,所述间隙设置特殊的显示方式(例如在图3的距离范围352、354之间的间隙),可以提供迟滞现象以在OFD落在靠近距离范围边界的情况下避免显示方式的不合期望的频繁切换。
可替换地,如果在1020处,光学焦距在第一预确定容差内不对应于用户距半镜件表面的距离,那么在另一示例中(1020的虚线“否(2)”分支),所述方法分支到框1050。
现在考虑用于操作智能镜件的另一示例方法,并且参考图11,方法1100可以可替换地被认为是智能镜件的控制器的操作流程图。在一些示例中,智能镜件可以是智能镜件100(图1)、200(图2)和/或400(图4),并且控制器可以是控制器140(图1)和/或800(图8)。方法1100开始,在1105处,通过将智能镜件设置在初始状态中,并且等待对象进入智能镜件的邻域内。在一些示例中,所述初始状态是功率节省空闲模式,其中镜件的显示器被关停,使得智能镜件作为普通镜件而起作用。邻近于智能镜件可以被预确定为距智能镜件的指定距离。在一些示例中,所述距离可以取决于对象是大体上在镜件前方,还是离开到镜件的侧边。在一些示例中,对象具有最小的大小。在一些示例中,对象是可移动对象,或不总是在智能镜件的邻域内的对象,诸如在与智能镜件的相同房间中具有固定定位的对象。
在1110处,满足针对对象邻近的预定义准则的对象的存在通过智能镜件来被检测,并且确定对象是否是人。如果不是(1110的“否”分支),则方法返回到1105。如果对象被确定为是人(1110的“是”分支),那么在1115处,智能镜件尝试确定该人的身份。在一些示例中,通过使用生物计量信息、诸如面部识别来确定用户的身份。如果可以通过智能镜件标识该人(1115的“是”分支),那么在1120处,为该人定制的用户接口内容被选择用于显示。智能镜件的其它方面,诸如用户接口亮度,其在一些情况中可以相对于环境亮度,还可以为用户而定制或由用户定制。如果该人没有被标识(1115的“否”分支),那么在1125处,针对用户接口的一般内容被选择用于显示。在一个示例中,用于显示的一般内容可以包括时间、天气微件、一些即时新闻等等。在1130处,检测用户距智能镜件的距离,并且以根据所述距离而被确定的大小将用户接口显示在智能镜件上。在1135处,检测用户相对于镜件x-y平面的定位,并且以根据所述定位而被确定的位置将用户接口显示在智能镜件上。
在1140处,基于人的光学焦距而在智能镜件上视觉地强调用户接口或人的映像。在一个示例中,步骤1140包括方法1000(图10)。
在1145处,当用户接口正被视觉地强调(例如以容易可察觉、更可见、或更亮的方式被显示)的时候,检测用户在智能镜件的半镜件表面上的注视定位。如果注视定位对应于在用户接口上所显示的特定内容项(114的“是”分支),那么在1150处,执行与该特定内容项相关联的动作。在一个示例中,所述动作包括在大小上放大和/或更详细地显示用户正注视的特定内容项。在另一示例中,内容项可以表示功能图标(例如应用、“主页”按钮、“返回”按钮、“OK”按钮等等),并且所述动作包括执行对应的动作,其可以包括改变在用户接口上所显示的(多个)内容项。在一些示例中,如果用户已在预定义长度的时间内注视着与特定内容项对应的位置并且在这之后,执行动作。
在1155处,确定用户是否结束使用智能镜件。这可以用各种方式来被确定。作为一个示例,用户可移出镜件的邻域,在一些情况中,移出了预定量的时间,使得允许用户临时走开,并且仍保持镜件运作。作为另一示例,环境光水平可显著降低,诸如如果用户已经关了灯则将会发生的,其意味着用户结束了使用镜件。如果用户结束了使用镜件(1155的“是”分支),那么所述方法分支到1105,以将镜件重置到其初始状态,并且等待另一对象的邻近。然而,如果用户没有结束使用镜件(1155的“否”分支),那么方法分支到1130。这样做允许镜件调节改变用户距镜件的距离、相对于镜件平面的位置、和/或光学焦距、和/或将执行的另一动作的选择。
在一些示例中,用户可以创建用户简档,其包含个性化的内容项以及镜件运作特性。这些可以通过如下来被设置:经由注视和聚焦而与智能镜件的交互,如已经描述的,和/或通过使用被包括在智能镜件中的触摸屏。这些还可以通过能通信地耦合到智能镜件的计算机、平板设备、智能电话等等上的智能镜件应用来被设置。
在一些示例中,本文中讨论的至少一个块或步骤被自动化。换言之,装置、系统和方法自动发生。如本文中和所附权利要求中所定义的,术语“自动化”或“自动地”(及其相似的变型)可以宽泛地被理解成意指通过使用计算机和/或机械/电气设备、在无需人为干预、观测、努力和/或决策的情况下对装置、系统和/或过程的受控操作。
从前述中将领会到通过本公开的智能镜件、方法和介质代表了本领域中的显著进步。尽管已经描述和图示了若干特定示例,但是本公开内容不限于如此描述和图示的特定方法、形式或零件布置。例如,本公开内容的示例不限于智能镜件,而是可以用于其它智能表面。本描述应当被理解成包括本文中所述的元素的所有组合,并且可以在本申请或稍后的申请中向这些元素的任何组合呈递权利要求。前述示例是说明性的,并且在可以在本申请或稍后的申请中要求保护的各种组合中可以包括不同特征或元素。除非另行指定,否则方法权利要求的操作不需要以所指定的次序被执行。类似地,图解中的框或数字(诸如(1)、(2)等等)不应当被解释为以特定次序进行的操作。附加的框/操作可以被添加,一些框/操作被移除,或框/操作的次序被变更并且仍在所公开的示例的范围内。此外,在不同的图内讨论的方法或操作可以被添加到其它图或与其它图中的方法或操作交换。还另外地,特定的数值数据值(诸如特定量、数目、类别等等)或其它特定信息应当被解释为是说明性的供讨论示例。这样的特定信息不被提供来限制示例。本公开内容不限于上述实现方式,而是代替地由所附权利要求、鉴于其等同物的全范围来被限定。在其中权利要求记载了“一”或“第一”元素或其等同物的情况下,这样的权利要求应当被理解成包括至少一个这样的元素的并入,既不要求也不排除两个或更多这样的元素。在其中权利要求记载了“具有”的情况下,该术语应当被理解成意指“包括”。
Claims (15)
1.一种智能镜件,包括:
与半镜件的一侧相邻的显示器;
传感器,其用于获取面对半镜件的相对侧的用户的生物计量信息;
耦合到所述传感器和显示器的控制器,用于:
根据生物计量信息来确定用户的焦距,
如果所述焦距对应于显示器,则以高度可见的方式在智能镜件上呈现用户接口,并且以不太可见的方式呈现用户的映像,以及
如果所述焦距对应于用户的映像,则以不太可见的方式在智能镜件上呈现用户接口,并且以高度可见的方式呈现用户的映像。
2.根据权利要求1所述的镜件,其中所述传感器包括双眼式眼睛传感器。
3.根据权利要求1所述的镜件,其中所述显示器包括OLED显示器,其具有对靠着观看屏幕的一侧所布置的屏幕。
4.根据权利要求1所述的镜件,其中所述传感器包括相机,并且其中所述控制器此外用于:
根据生物计量信息来确定用户的身份,以及
基于所述身份来定制用户接口的内容。
5.根据权利要求1所述的镜件,其中所述控制器此外用于:
根据生物计量信息来确定用户距镜件的距离,以及
以根据所述距离而确定的大小来将用户接口呈现在显示器上。
6.根据权利要求4所述的镜件,其中所述控制器此外用于:
根据生物计量信息来确定用户相对于镜件的定位,以及
以根据所述定位而确定的x-y位置来将用户接口呈现在显示器上。
7.根据权利要求1所述的镜件,包括:
用于获取与镜件的环境相关的环境信息的附加传感器;并且其中所述控制器此外用于:
确定用于以高度可见的方式在显示器上呈现用户接口的第一亮度水平,以及
确定用于以不太可见的方式在显示器上呈现用户接口的、比第一亮度水平更暗的第二亮度水平。
8.一种用于操作智能镜件的方法,包括:
检测大体上面对智能镜件的用户的光学焦距;
如果所述光学焦距在预确定的容差内对应于用户距智能镜件的半镜件表面的距离,则以容易可察觉的方式在智能镜件上显示用户接口,并且以模糊的方式显示用户的映像;以及
如果所述光学焦距对应于不同的距离范围,则以模糊的方式在智能镜件上显示用户接口,并且以容易可察觉的方式显示用户的映像。
9.根据权利要求8所述的方法,其中镜件的一区对应于映像和用户接口二者,并且映像和用户接口二者同时在该区中可见。
10.根据权利要求8所述的方法,包括:
检测用户距智能镜件的距离;以及
以根据所述距离而确定的大小来将用户接口显示在智能镜件上。
11.根据权利要求8所述的方法,包括:
检测用户相对于镜件平面的定位,以及
以根据所述定位而确定的位置来将用户接口显示在智能镜件上。
12.根据权利要求8所述的方法,包括:
当以容易可察觉的方式显示用户接口的时候,
检测用户在智能镜件的半镜件表面上的注视定位在预确定时间内对应于在用户接口上所显示的特定内容项,以及
执行与所述内容项相关联的动作。
13.根据权利要求8所述的方法,包括:
检测在距智能镜件的预定义距离内对象的存在;
确定所检测到的对象是否是人;
如果所检测到的对象是人,则尝试标识该人;
如果该人被标识,则在用户接口上显示为所标识的人定制的内容;以及
如果该人没有被标识,则在用户接口上显示一般内容。
14.一种具有被存储在其上的可执行程序的非暂时性计算机可读存储介质,其中所述程序指示处理器:
通过使用传感器来获取与面对智能镜件的用户相关的生物计量信息;
通过使用所述生物计量信息来确定用户到智能镜件的光学焦距;
当所述光学焦距在预确定的容差内对应于用户距半镜件的距离的时候,控制显示器来以高度可见的方式在相邻的半镜件处呈现用户接口,并且以不太看见的方式呈现用户的映像;以及
否则,控制显示器来以不太可见的方式在半镜件处呈现用户接口,并且以高度可见的方式呈现用户的映像。
15.根据权利要求14所述的介质,其中所述程序此外指示处理器:
检测用户距半镜件的距离;
检测用户相对于半镜件平面的定位;
控制显示器来以根据所述距离和定位而确定的大小和位置在智能镜件上呈现用户接口。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2016/040478 WO2018004615A1 (en) | 2016-06-30 | 2016-06-30 | Smart mirror |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109313291A true CN109313291A (zh) | 2019-02-05 |
Family
ID=60787524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680086383.6A Pending CN109313291A (zh) | 2016-06-30 | 2016-06-30 | 智能镜件 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10845511B2 (zh) |
EP (1) | EP3436855A4 (zh) |
CN (1) | CN109313291A (zh) |
WO (1) | WO2018004615A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110109553A (zh) * | 2019-05-24 | 2019-08-09 | 京东方科技集团股份有限公司 | 一种智能镜子和显示方法 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109313291A (zh) * | 2016-06-30 | 2019-02-05 | 惠普发展公司,有限责任合伙企业 | 智能镜件 |
US20210274912A1 (en) * | 2016-09-27 | 2021-09-09 | Koninklijke Philips N.V. | Apparatus and method for supporting at least one user in performing a personal care activity |
KR20180058363A (ko) | 2016-11-24 | 2018-06-01 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US11216974B2 (en) * | 2017-12-14 | 2022-01-04 | Samsung Electronics Co., Ltd. | Staring distance determination method and device |
WO2019135202A2 (en) * | 2018-01-06 | 2019-07-11 | Kaertech | Smart mirror system and methods of use thereof |
CN108257091B (zh) * | 2018-01-16 | 2022-08-05 | 北京小米移动软件有限公司 | 用于智能镜子的成像处理方法和智能镜子 |
US20190250781A1 (en) * | 2018-02-15 | 2019-08-15 | Alexander Savitski | Smart Mirror System |
WO2019222639A1 (en) * | 2018-05-18 | 2019-11-21 | NEUGARTEN, Paige | Mirror-based information interface and exchange |
EP3637423A1 (en) | 2018-10-10 | 2020-04-15 | Koninklijke Philips N.V. | Identifying a user of a display unit |
US11131117B2 (en) | 2019-03-12 | 2021-09-28 | Magna Closures Inc. | Electromagnetic-based sensor with cold mirror cover |
EP3965611A1 (en) | 2019-05-06 | 2022-03-16 | CareOS | Smart mirror system and methods of use thereof |
US10996499B2 (en) * | 2019-08-09 | 2021-05-04 | Keith Rosenblum | Variably reflective display systems and methods |
US11447073B2 (en) * | 2019-10-17 | 2022-09-20 | Gulfstream Aerospace Corporation | Smart mirror and hidden compartment assembly for a vehicle |
US20210386198A1 (en) * | 2020-06-11 | 2021-12-16 | Kohler Co. | Temperature tracking mirror |
AU2021349382B2 (en) * | 2020-09-25 | 2023-06-29 | Apple Inc. | Methods for adjusting and/or controlling immersion associated with user interfaces |
US11798201B2 (en) | 2021-03-16 | 2023-10-24 | Snap Inc. | Mirroring device with whole-body outfits |
US11809633B2 (en) | 2021-03-16 | 2023-11-07 | Snap Inc. | Mirroring device with pointing based navigation |
US11908243B2 (en) | 2021-03-16 | 2024-02-20 | Snap Inc. | Menu hierarchy navigation on electronic mirroring devices |
US11734959B2 (en) * | 2021-03-16 | 2023-08-22 | Snap Inc. | Activating hands-free mode on mirroring device |
KR20220129769A (ko) * | 2021-03-17 | 2022-09-26 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
CN113531822B (zh) * | 2021-06-24 | 2023-01-13 | 青岛海尔空调器有限总公司 | 用于空调器的控制方法、装置、空调器及存储介质 |
EP4328664A1 (de) * | 2022-08-25 | 2024-02-28 | Jan Heimburg | Verfahren und vorrichtung zur optionalen wiedergabe eines spiegelbildes oder einer bildlichen darstellung |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101523896A (zh) * | 2006-10-02 | 2009-09-02 | 索尼爱立信移动通讯有限公司 | 图像中的对焦区域 |
JP2010266918A (ja) * | 2009-05-12 | 2010-11-25 | Panasonic Electric Works Co Ltd | ミラーシステム |
KR20120074499A (ko) * | 2010-12-28 | 2012-07-06 | 엘지디스플레이 주식회사 | 거울-디스플레이 겸용 장치 및 그 구동방법 |
WO2013118205A1 (ja) * | 2012-02-09 | 2013-08-15 | パナソニック株式会社 | ミラーディスプレイシステム、及び、その画像表示方法 |
CN104199542A (zh) * | 2014-08-20 | 2014-12-10 | 百度在线网络技术(北京)有限公司 | 一种智能镜实现方法、装置和智能镜 |
CN104223858A (zh) * | 2014-09-28 | 2014-12-24 | 广州视睿电子科技有限公司 | 一种自识别智能镜子 |
CN204764620U (zh) * | 2015-06-17 | 2015-11-18 | 张冉岳 | 一种智能显示镜 |
CN105183151A (zh) * | 2015-08-25 | 2015-12-23 | 广州视源电子科技股份有限公司 | 调整显示内容位置的方法和装置 |
CN204931075U (zh) * | 2015-07-20 | 2016-01-06 | 华南师范大学 | 智能镜子 |
US20160019868A1 (en) * | 2014-07-18 | 2016-01-21 | Samsung Electronics Co., Ltd. | Method for focus control and electronic device thereof |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6560027B2 (en) | 2000-12-21 | 2003-05-06 | Hewlett-Packard Development Company | System and method for displaying information on a mirror |
WO2004081649A2 (en) * | 2003-03-06 | 2004-09-23 | Digimarc Corporation | Camera and digital watermarking systems and methods |
KR20060091310A (ko) | 2003-09-30 | 2006-08-18 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐 |
US9269157B2 (en) | 2005-03-01 | 2016-02-23 | Eyesmatch Ltd | Methods for extracting objects from digital images and for performing color change on the object |
JP2006338236A (ja) * | 2005-06-01 | 2006-12-14 | Matsushita Electric Ind Co Ltd | 眼画像撮影装置およびそれを用いた認証装置 |
US20080107309A1 (en) * | 2006-11-03 | 2008-05-08 | Cerni Consulting, Llc | Method and apparatus for biometric identification |
US9767591B2 (en) * | 2009-08-28 | 2017-09-19 | Samsung Electronics Co., Ltd | Method and apparatus for providing biometric information |
US9274553B2 (en) | 2009-10-30 | 2016-03-01 | Synaptics Incorporated | Fingerprint sensor and integratable electronic display |
RU2623795C2 (ru) * | 2011-08-22 | 2017-06-29 | АЙЛОК ЭлЭлСи | Системы и способы для захвата безартефактных изображений |
WO2013109282A1 (en) | 2012-01-20 | 2013-07-25 | Empire Technology Development Llc | Mirror array display system |
SG195431A1 (en) | 2012-05-28 | 2013-12-30 | Trinax Private Ltd | Intelligent mirror cum display solution |
FR3042893B1 (fr) * | 2015-10-27 | 2017-11-03 | Morpho | Procede de detection de fraude par projection d'image pre-enregistree |
CN109313291A (zh) * | 2016-06-30 | 2019-02-05 | 惠普发展公司,有限责任合伙企业 | 智能镜件 |
WO2018187337A1 (en) * | 2017-04-04 | 2018-10-11 | Princeton Identity, Inc. | Z-dimension user feedback biometric system |
-
2016
- 2016-06-30 CN CN201680086383.6A patent/CN109313291A/zh active Pending
- 2016-06-30 US US16/098,119 patent/US10845511B2/en active Active
- 2016-06-30 EP EP16907569.4A patent/EP3436855A4/en not_active Withdrawn
- 2016-06-30 WO PCT/US2016/040478 patent/WO2018004615A1/en active Application Filing
-
2020
- 2020-10-07 US US17/065,272 patent/US20210033760A1/en not_active Abandoned
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101523896A (zh) * | 2006-10-02 | 2009-09-02 | 索尼爱立信移动通讯有限公司 | 图像中的对焦区域 |
JP2010266918A (ja) * | 2009-05-12 | 2010-11-25 | Panasonic Electric Works Co Ltd | ミラーシステム |
KR20120074499A (ko) * | 2010-12-28 | 2012-07-06 | 엘지디스플레이 주식회사 | 거울-디스플레이 겸용 장치 및 그 구동방법 |
WO2013118205A1 (ja) * | 2012-02-09 | 2013-08-15 | パナソニック株式会社 | ミラーディスプレイシステム、及び、その画像表示方法 |
US20160019868A1 (en) * | 2014-07-18 | 2016-01-21 | Samsung Electronics Co., Ltd. | Method for focus control and electronic device thereof |
CN104199542A (zh) * | 2014-08-20 | 2014-12-10 | 百度在线网络技术(北京)有限公司 | 一种智能镜实现方法、装置和智能镜 |
CN104223858A (zh) * | 2014-09-28 | 2014-12-24 | 广州视睿电子科技有限公司 | 一种自识别智能镜子 |
CN204764620U (zh) * | 2015-06-17 | 2015-11-18 | 张冉岳 | 一种智能显示镜 |
CN204931075U (zh) * | 2015-07-20 | 2016-01-06 | 华南师范大学 | 智能镜子 |
CN105183151A (zh) * | 2015-08-25 | 2015-12-23 | 广州视源电子科技股份有限公司 | 调整显示内容位置的方法和装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110109553A (zh) * | 2019-05-24 | 2019-08-09 | 京东方科技集团股份有限公司 | 一种智能镜子和显示方法 |
US11803236B2 (en) | 2019-05-24 | 2023-10-31 | Boe Technology Group Co., Ltd. | Mirror and display method |
Also Published As
Publication number | Publication date |
---|---|
US20190146128A1 (en) | 2019-05-16 |
WO2018004615A1 (en) | 2018-01-04 |
EP3436855A4 (en) | 2019-12-11 |
US20210033760A1 (en) | 2021-02-04 |
EP3436855A1 (en) | 2019-02-06 |
US10845511B2 (en) | 2020-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109313291A (zh) | 智能镜件 | |
US11196917B2 (en) | Electronic system with eye protection | |
US10313587B2 (en) | Power management in an eye-tracking system | |
US10921896B2 (en) | Device interaction in augmented reality | |
US10372203B2 (en) | Gaze-controlled user interface with multimodal input | |
US9213405B2 (en) | Comprehension and intent-based content for augmented reality displays | |
US9128522B2 (en) | Wink gesture input for a head-mountable device | |
US8743051B1 (en) | Mirror detection-based device functionality | |
EP3230825B1 (en) | Device for and method of corneal imaging | |
KR100695053B1 (ko) | 표시 장치를 구비한 미러 장치 | |
JP5879562B2 (ja) | カメラ付きミラー装置、ミラー付き什器 | |
US20220245967A1 (en) | Display device and control method thereof | |
US20150124069A1 (en) | Information processing device and information processing method | |
JP7389270B2 (ja) | 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース | |
EP3807744A1 (en) | Positioning a virtual reality passthrough region at a known distance | |
US11036953B2 (en) | Image processing method, electronic device and storage medium | |
JP6062323B2 (ja) | 表示装置 | |
US11592667B2 (en) | Display system and display control method | |
KR20240030881A (ko) | 가상 컨텐츠 출력 방법 및 이를 지원하는 전자장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190205 |