CN110109553B - 一种智能镜子和显示方法 - Google Patents

一种智能镜子和显示方法 Download PDF

Info

Publication number
CN110109553B
CN110109553B CN201910440631.8A CN201910440631A CN110109553B CN 110109553 B CN110109553 B CN 110109553B CN 201910440631 A CN201910440631 A CN 201910440631A CN 110109553 B CN110109553 B CN 110109553B
Authority
CN
China
Prior art keywords
user
center
eye pupil
mirror
image stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910440631.8A
Other languages
English (en)
Other versions
CN110109553A (zh
Inventor
李佃蒙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201910440631.8A priority Critical patent/CN110109553B/zh
Publication of CN110109553A publication Critical patent/CN110109553A/zh
Priority to US17/043,469 priority patent/US11803236B2/en
Priority to PCT/CN2020/087731 priority patent/WO2020238544A1/zh
Application granted granted Critical
Publication of CN110109553B publication Critical patent/CN110109553B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G1/00Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
    • A47G1/02Mirrors used as equipment
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G1/00Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
    • A47G2001/002Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means comprising magnifying properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

本发明提供了一种智能镜子和显示方法,涉及显示技术领域。其中,智能镜子包括镜面、设置在镜面背面的显示模组、摄像测距模组、处理器;摄像测距模组用于获取第一用户图像流,检测人镜距离;处理器用于根据第一用户图像流和人镜距离,确定用户凝视的目标位置在预设坐标系中的坐标,以该坐标为中心,放大第一用户图像流,获得第二用户图像流;显示模组用于显示至少部分第二用户图像流的中心区域;中心区域以目标位置为中心。在本发明中,智能镜子可以确定用户凝视的位置,并放大包含该位置的图像流,进而显示以该位置为中心的图像流区域,从而用户无需靠近智能镜子,即可从智能镜子中观察到目标位置的放大细节,提高了用户照镜子时的便利性。

Description

一种智能镜子和显示方法
技术领域
本发明涉及显示技术领域,特别是涉及一种智能镜子和显示方法。
背景技术
如今,镜子是每个家庭中必不可少的物品之一,人们可以通过镜子查看自己的衣着、发型、妆容等,以便根据需求调整自己的形象。然而,在梳妆、穿衣搭配等场景下,用户常常希望看清局部细节,而使用普通镜子时,用户只能靠近镜子去看清较小的细节,对用户来说较为不便。
发明内容
本发明提供一种智能镜子和显示方法,以解决目前用户只能靠近镜子去看清较小的细节,对用户来说较为不便的问题。
为了解决上述问题,本发明公开了一种智能镜子,包括镜面,以及设置在所述镜面背面的显示模组、摄像测距模组和处理器;所述镜面包括半透半反区域,所述显示模组和所述摄像测距模组分立设置在所述半透半反区域;所述处理器分别与所述显示模组和所述摄像测距模组连接;
所述摄像测距模组,被配置为获取第一用户图像流,以及检测用户与所述镜面之间的人镜距离,将所述第一用户图像流和所述人镜距离输出至所述处理器;
所述处理器,被配置为根据所述第一用户图像流和所述人镜距离,确定所述用户凝视的目标位置在预设坐标系中的位置坐标,以所述位置坐标为中心,放大所述第一用户图像流,获得第二用户图像流,将所述第二用户图像流输出至所述显示模组;
所述显示模组,被配置为显示至少部分所述第二用户图像流的中心区域;所述中心区域以所述目标位置为中心。
可选地,所述半透半反区域包括层叠设置的第一半透半反膜层和第一透明衬底;其中,所述第一透明衬底远离所述第一半透半反膜层的表面为所述镜面的部分背面。
可选地,所述镜面还包括阻光区域,所述阻光区域包括层叠设置的第二半透半反膜层、第二透明衬底和阻光层;其中,所述阻光层远离所述第二透明衬底的表面为所述镜面的部分背面。
可选地,所述第一半透半反膜层的反射率大于或等于60%,且小于或等于80%;所述第二半透半反膜层的反射率大于或等于60%,且小于或等于80%。
可选地,所述智能镜子还包括手势识别模组,所述手势识别模组设置在所述镜面背面的半透半反区域;
所述手势识别模组,被配置为识别用户手势指令,将所述用户手势指令输出至所述处理器;
相应的,所述处理器,还被配置为以所述位置坐标为中心,根据所述用户手势指令放大或缩小所述第二用户图像流,将放大或缩小后的所述第二用户图像流输出至所述显示模组;
所述显示模组,还被配置为显示放大或缩小后的所述第二用户图像流。
可选地,所述智能镜子还包括语音识别模组;
所述语音识别模组,被配置为识别用户语音指令,将所述用户语音指令输出至所述处理器;
相应的,所述处理器,还被配置为以所述位置坐标为中心,根据所述用户语音指令放大或缩小所述第二用户图像流,将放大或缩小后的所述第二用户图像流输出至所述显示模组;
所述显示模组,还被配置为显示放大或缩小后的所述第二用户图像流。
可选地,所述处理器,具体被配置为从所述第一用户图像流中,提取出所述用户正视所述镜面的第一图像,以及所述用户凝视目标位置的第二图像,根据所述第一图像、所述第二图像,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置坐标。
可选地,所述摄像测距模组包括摄像头和测距模块;或者,所述摄像测距模组包括双目摄像头。
为了解决上述问题,本发明还公开了一种显示方法,应用于上述智能镜子,所述方法包括:
获取第一用户图像流,以及检测用户与所述镜面之间的人镜距离;
根据所述第一用户图像流和所述人镜距离,确定所述用户凝视的目标位置在预设坐标系中的位置坐标;
以所述位置坐标为中心,放大所述第一用户图像流,获得第二用户图像流;
显示至少部分所述第二用户图像流的中心区域;所述中心区域以所述目标位置为中心。
可选地,所述根据所述第一用户图像流和所述人镜距离,确定所述用户凝视的目标位置在预设坐标系中的位置坐标,包括:
从所述第一用户图像流中,提取出所述用户正视所述镜面的第一图像,以及所述用户凝视目标位置的第二图像;
根据所述第一图像、所述第二图像,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置坐标。
可选地,所述根据所述第一图像、所述第二图像,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置坐标,包括:
识别所述第一图像中的第一左眼瞳孔中心和第一右眼瞳孔中心;
识别所述第二图像中的第二左眼瞳孔中心或第二右眼瞳孔中心;
根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置横坐标;
根据第二角度和所述人镜距离,确定所述目标位置在所述预设坐标系中的位置纵坐标;
其中,所述预设坐标系的原点为所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的中心位置;
所述第一角度为所述预设水平方向上所述第一左眼瞳孔中心与所述第二左眼瞳孔中心之间的偏转角度,或者所述预设水平方向上所述第一右眼瞳孔中心与所述第二右眼瞳孔中心之间的偏转角度;
所述第二角度为预设竖直方向上所述第一左眼瞳孔中心与所述第二左眼瞳孔中心之间的偏转角度,或者所述预设竖直方向上所述第一右眼瞳孔中心与所述第二右眼瞳孔中心之间的偏转角度;
所述预设竖直方向与所述预设水平方向相互垂直。
可选地,所述第一角度为所述预设水平方向上所述第一左眼瞳孔中心与所述第二左眼瞳孔中心之间的偏转角度;
所述根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置横坐标,包括:
根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,通过下述公式(1)确定所述目标位置在预设坐标系中的位置横坐标;
x=2d·tanθ1-p/2 (1)
其中,所述x为所述位置横坐标,所述d为所述人镜距离,所述θ1为所述第一角度,所述p为所述预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离。
可选地,所述第一角度为所述预设水平方向上所述第一右眼瞳孔中心与所述第二右眼瞳孔中心之间的偏转角度;
所述根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置横坐标,包括:
根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,通过下述公式(2)确定所述目标位置在预设坐标系中的位置横坐标;
x=2d·tanθ2+p/2 (2)
其中,所述x为所述位置横坐标,所述d为所述人镜距离,所述θ2为所述第一角度,所述p为所述预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离。
可选地,所述根据第二角度和所述人镜距离,确定所述目标位置在所述预设坐标系中的位置纵坐标,包括:
根据第二角度和所述人镜距离,通过下述公式(3)确定所述目标位置在所述预设坐标系中的位置纵坐标;
y=2d·tanβ (3)
其中,所述y为所述位置纵坐标,所述d为所述人镜距离,所述β为所述第二角度。
可选地,所述以所述位置坐标为中心,放大所述第一用户图像流,获得第二用户图像流,包括:
根据所述人镜距离,确定放大倍数;
以所述位置坐标为中心,根据所述放大倍数放大所述第一用户图像流,获得第二用户图像流。
可选地,所述显示所述第二用户图像流的中心区域之后,还包括:
识别用户手势指令;
以所述位置坐标为中心,根据所述用户手势指令放大或缩小所述第二用户图像流;
显示放大或缩小后的所述第二用户图像流。
可选地,所述显示所述第二用户图像流的中心区域之后,还包括:
识别用户语音指令;
以所述位置坐标为中心,根据所述用户语音指令放大或缩小所述第二用户图像流;
显示放大或缩小后的所述第二用户图像流。
与现有技术相比,本发明包括以下优点:
在本发明实施例中,智能镜子可以通过设置在镜面半透半反区域的摄像测距模组,获取第一用户图像流,以及检测用户与镜面之间的人镜距离,然后可以通过设置在镜面背面,且与摄像测距模组连接的处理器,根据第一用户图像流和人镜距离,确定用户凝视的目标位置在预设坐标系中的位置坐标,进而以位置坐标为中心,放大第一用户图像流,获得第二用户图像流,之后智能镜子可以通过设置在镜面半透半反区域、且与处理器连接的显示模组,显示至少部分第二用户图像流的中心区域,其中,该中心区域以目标位置为中心。在本发明实施例中,智能镜子可以确定用户凝视的目标位置的位置坐标,并将包含目标位置的图像流进行放大,进而可以对以目标位置为中心的图像流区域进行显示,从而用户无需靠近智能镜子,即可从智能镜子中观察到放大后的目标位置,从而观察到目标位置的细节,如此,提高了用户照镜子时的便利性。
附图说明
图1示出了本发明实施例一的一种智能镜子的侧视图;
图2示出了本发明实施例一的一种半透半反区域的截面图;
图3示出了本发明实施例一的一种智能镜子的正面视图;
图4示出了本发明实施例一的另一种智能镜子的正面视图;
图5示出了本发明实施例一的一种阻光区域的截面图;
图6示出了本发明实施例一的另一种智能镜子的侧视图;
图7示出了本发明实施例二的一种显示方法的步骤流程图;
图8示出了本发明实施例二的一种用户正视镜面的示意图;
图9示出了本发明实施例二的一种确定目标位置的位置横坐标的示意图;
图10示出了本发明实施例二的一种确定目标位置的位置纵坐标的示意图。
附图标记说明:
10-镜面,20-显示模组,30-摄像测距模组,31-摄像头,32-测距模块,33-双目摄像头,33-双目摄像头,40-处理器,50-手势识别模组,60-语音识别模组,01-半透半反区域,011-第一半透半反膜层,012-第一透明衬底,013-第一保护层,02-阻光区域,021-第二半透半反膜层,022-第二透明衬底,023-阻光层,024-第二保护层。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
图1示出了本发明实施例一的一种智能镜子的侧视图,参照图1,该智能镜子包括镜面10,以及设置在镜面10背面的显示模组20、摄像测距模组30和处理器40。镜面10可以包括半透半反区域01,显示模组20和摄像测距模组30分立设置在半透半反区域01。处理器40分别与显示模组20和摄像测距模组30连接。
具体地,图2示出了本发明实施例一的一种半透半反区域的截面图,参照图2,半透半反区域01可以包括层叠设置的第一半透半反膜层011和第一透明衬底012,其中,第一透明衬底012远离第一半透半反膜层011的表面为镜面10的部分背面。也即是镜面10的半透半反区域01具有一定程度的透光性,从而显示模组20显示图像时,图像可以透过镜面10的半透半反区域01呈现,从而用户可以从镜面10的正面观察到显示模组20显示的图像。另外,摄像测距模组30也可以通过镜面10的半透半反区域01进行摄像和测距。在一种可选的实现方式中,半透半反区域01可以包括分立的至少两个半透半反子区域,显示模组20和摄像测距模组30可以分别设置在不同的半透半反子区域,本发明实施例对此不作具体限定。再者,由于半透半反区域01的第一半透半反膜层011还具有反射性能,因此,在显示模组20不显示图像时,半透半反区域01便可以对用户形象进行成像,从而实现普通镜子的成像功能。
可选地,第一半透半反膜层011的反射率可以大于或等于60%,且小于或等于80%。例如在具体应用时,第一半透半反膜层011的反射率可以为70%,透射率可以为30%,或者,第一半透半反膜层011的反射率可以为65%,透射率可以为35%,本发明实施例对此不作具体限定。
可选地,在实际应用中,第一半透半反膜层011的材料可以为铝材料,当然还可以为SiO2、TiO2等其他可用于制备半透半反膜的材料,本发明实施例对此不作具体限定。
另外,参照图2,在具体应用中,半透半反区域01还可以包括第一保护层013,第一保护层013可以设置在第一半透半反膜层011远离第一透明衬底012的表面,该第一保护层013可以用于保护镜面10正面的第一半透半反膜层011,以免第一半透半反膜层011被物体划伤,另外,还可以增强镜面10的强度,使镜面10更不易破裂。可选地,第一保护层013具体可以包括层叠设置的LiO2材料膜层和SiO2材料膜层,其中,LiO2材料膜层靠近第一半透半反膜层011设置,或者SiO2材料膜层靠近第一半透半反膜层011设置均可。
进一步地,图3示出了本发明实施例一的一种智能镜子的正面视图,图4示出了本发明实施例一的另一种智能镜子的正面视图,参照图3和图4,镜面10还包括阻光区域02。图5示出了本发明实施例一的一种阻光区域的截面图,参照图5,阻光区域02可以包括层叠设置的第二半透半反膜层021、第二透明衬底022和阻光层023,其中,阻光层023远离第二透明衬底022的表面为镜面10的部分背面。阻光层023可以阻挡镜面10的背面射出的光线,以避免用户从镜面10的正面观察到摄像测距模组30等器件,提高美观度。另外,由于阻光区域02包括具有反射性能的第二半透半反膜层021,因此,镜面10的阻光区域02可以对用户形象进行成像,从而实现普通镜子的成像功能。
可选地,第二半透半反膜层021的反射率可以大于或等于60%,且小于或等于80%。例如在具体应用时,第二半透半反膜层021的反射率可以为70%,透射率可以为30%,或者,第二半透半反膜层021的反射率可以为65%,透射率可以为35%,本发明实施例对此不作具体限定。
可选地,在实际应用中,第二半透半反膜层021的材料可以为铝材料,当然还可以为SiO2、TiO2等其他可用于制备半透半反膜的材料,本发明实施例对此不作具体限定。
可选地,阻光层023的材料可以为阻光油墨,阻光层023可以通过丝印等工艺形成,本发明实施例对此不作具体限定。
另外,参照图5,在具体应用中,阻光区域02还可以包括第二保护层024,第二保护层024可以设置在第二半透半反膜层021远离第二透明衬底022的表面,该第二保护层024可以用于保护镜面10正面的第二半透半反膜层021,以免第二半透半反膜层021被物体划伤,另外,还可以增强镜面10的强度,使镜面10更不易破裂。可选地,第二保护层024具体可以包括层叠设置的LiO2材料膜层和SiO2材料膜层,其中,LiO2材料膜层靠近第二半透半反膜层021设置,或者SiO2材料膜层靠近第二半透半反膜层021设置均可。
在实际应用中,第二半透半反膜层021和第一半透半反膜层011可以一体形成。第二保护层024和第一保护层013可以一体形成。另外,第二透明衬底022和第一透明衬底012可以一体形成。
进一步地,摄像测距模组30可以被配置为获取第一用户图像流,以及检测用户与镜面之间的人镜距离,将第一用户图像流和人镜距离输出至处理器40。具体地,在一种可选的实现方式中,参照图3,摄像测距模组30可以包括摄像头31和测距模块32,其中,摄像头31具体可以为单目摄像头,当然也可以为双目摄像头等摄像头,摄像头31可以被配置为获取第一用户图像流,测距模块32具体可以为红外测距模块,可以被配置为基于TOF(TimeofFlight,飞行时间)原理或角度测距原理检测用户与镜面之间的人镜距离,也即是可以通过摄像头31进行图像流的获取,通过测距模块32进行测距。进而摄像测距模组30可以将第一用户图像流和人镜距离输出至处理器40。
或者,在另一种可选的实现方式中,参照图4,摄像测距模组30可以包括双目摄像头33,其中,双目摄像头33既可以实现图像流的拍摄,又可以基于双目测距原理实现测距。其中,双目摄像头基于双目测距原理实现测距的过程可以参考相关技术,本发明实施例在此不做赘述。
处理器40可以被配置为根据第一用户图像流和人镜距离,确定用户凝视的目标位置在预设坐标系中的位置坐标,以位置坐标为中心,放大第一用户图像流,获得第二用户图像流,将第二用户图像流输出至显示模组20。在实际应用中,处理器40可以为SOC(Systemon Chip,系统级芯片,也称片上系统)板卡等具有处理功能的硬件模块,本发明实施例对此不作具体限定。
在具体应用时,处理器40具体可以被配置为从第一用户图像流中,提取出用户正视镜面的第一图像,以及用户凝视目标位置的第二图像,根据第一图像、第二图像,以及人镜距离,确定目标位置在预设坐标系中的位置坐标。也即是处理器40具体可以通过执行上述步骤确定用户凝视的目标位置在预设坐标系中的位置坐标。
处理器40在接收到摄像测距模组30输入的第一用户图像流和人镜距离时,可以对第一用户图像流中包含的各个用户图像进行识别,从而识别出用户在第一预设时长内正视镜面10的第一图像,以及用户在第二预设时长内凝视某个目标位置的第二图像,并将第一图像和第二图像提取出来。其中,当处理器40识别出用户在第一预设时长内持续正视镜面10时,可以从第一预设时长内的第一用户图像流中,提取出任意一个图像,作为第一图像。当处理器40识别出用户在第二预设时长内持续凝视目标位置时,可以从第二预设时长内的第一用户图像流中,提取出任意一个图像,作为第二图像。需要说明的是,本发明实施例所述的用户正视镜面的情况,是指在用户平行于镜面站立的条件下,用户的视线垂直于镜面的情况。
进而处理器40可以根据第一图像、第二图像,以及人镜距离,通过预设的公式换算得到目标位置在预设坐标系中的位置坐标。其中,该预设坐标系可以以用户双眼瞳孔中心的中心位置为原点,以预设水平方向为横轴,以预设竖直方向为纵轴。在实际应用中,预设竖直方向具体可以为用户从头到脚或从脚到头的方向,预设水平方向则为垂直于预设竖直方向的方向。然后处理器40可以以该位置坐标为中心,按照预设放大倍数,或者人镜距离或用户指令所对应的放大倍数,放大第一用户图像流,从而获得第二用户图像流,进而可以将第二用户图像流输出至显示模组20,以进行显示。
显示模组20可以被配置为显示至少部分第二用户图像流的中心区域,中心区域以目标位置为中心。具体地,显示模组20在接收到处理器40输入的第二用户图像流时,可以将至少部分第二用户图像流的中心区域进行显示。其中,至少部分中心区域的中心即为用户凝视的目标位置,从而用户可以在显示区域的中心观察到目标位置的放大图像流。
进一步地,在显示模组20显示放大的第二用户图像流之后,智能镜子还可以根据用户需求缩小或继续放大第二用户图像流,其中,智能镜子可以通过检测用户指令,以确定需要对第二用户图像流缩小还是继续放大,具体地,用户可以通过手势或语音对智能镜子下达指令。
在一种实现方式中,参照图6,智能镜子还可以包括手势识别模组50,手势识别模组50可以设置在镜面10背面的半透半反区域01。其中,手势识别模组50可以被配置为识别用户手势指令,将用户手势指令输出至处理器40。相应的,处理器40还可以被配置为以位置坐标为中心,根据用户手势指令放大或缩小第二用户图像流,将放大或缩小后的第二用户图像流输出至显示模组20。显示模组20还可以被配置为显示放大或缩小后的第二用户图像流。
也即是智能镜子可以通过手势识别模组50识别用户手势指令,然后通过处理器40以目标位置的位置坐标为中心,根据用户手势指令放大或缩小第二用户图像流,进而通过显示模组20对放大或缩小后的第二用户图像流进行显示。
在另一种实现方式中,参照图6,智能镜子还可以包括语音识别模组60,可选地,语音识别模组60可以设置在镜面10背面的阻光区域02。其中,语音识别模组60可以被配置为识别用户语音指令,将用户语音指令输出至处理器40。相应的,处理器40还可以被配置为以位置坐标为中心,根据用户语音指令放大或缩小第二用户图像流,将放大或缩小后的第二用户图像流输出至显示模组20。显示模组20还可以被配置为显示放大或缩小后的第二用户图像流。在实际应用中,语音识别模组60可以包括麦克风或麦克风阵列,从而可以通过麦克风或麦克风阵列获取到用户语音,进而识别出用户语音对应的用户语音指令。
也即是智能镜子可以通过语音识别模组60识别用户语音指令,然后通过处理器40以目标位置的位置坐标为中心,根据用户语音指令放大或缩小第二用户图像流,进而通过显示模组20对放大或缩小后的第二用户图像流进行显示。
进一步可选地,除显示面板之外,显示模组20还可以包括触控面板,从而用户可以直接通过触控面板下达放大或缩小第二用户图像流的指令,或者其他指令,例如当用户两个手指在触控面板上逐渐远离时,智能镜子可以放大第二用户图像流,当用户两个手指在触控面板上逐渐靠近时,智能镜子可以缩小第二用户图像流。
更进一步可选地,智能镜子还可以包括扬声器,从而智能镜子可以通过麦克风或麦克风阵列,以及扬声器与用户进行语音交互,以对用户进行图像流相关的说明或者进行使用指导。当然,在实际应用中,智能镜子还可以通过图示等方式对用户进行说明或指导,本发明实施例对此不作具体限定。
在本发明实施例中,智能镜子可以通过设置在镜面半透半反区域的摄像测距模组,获取第一用户图像流,以及检测用户与镜面之间的人镜距离,然后可以通过设置在镜面背面,且与摄像测距模组连接的处理器,根据第一用户图像流和人镜距离,确定用户凝视的目标位置在预设坐标系中的位置坐标,进而以位置坐标为中心,放大第一用户图像流,获得第二用户图像流,之后智能镜子可以通过设置在镜面半透半反区域、且与处理器连接的显示模组,显示至少部分第二用户图像流的中心区域,其中,该中心区域以目标位置为中心。在本发明实施例中,智能镜子可以确定用户凝视的目标位置的位置坐标,并将包含目标位置的图像流进行放大,进而可以对以目标位置为中心的图像流区域进行显示,从而用户无需靠近智能镜子,即可从智能镜子中观察到放大后的目标位置,从而观察到目标位置的细节,如此,提高了用户照镜子时的便利性。
实施例二
图7示出了本发明实施例二的一种显示方法的步骤流程图。该显示方法可以应用于上述智能镜子,参照图7,该显示方法可以包括以下步骤:
步骤701,获取第一用户图像流,以及检测用户与镜面之间的人镜距离。
在本发明实施例中,智能镜子可以作为用户的梳妆镜、穿衣镜等。智能镜子可以通过语音或图示等方式与用户进行互动,从而对用户进行说明或指导,例如可以指导用户垂直于地面设置智能镜子,以使镜面与地面垂直,另外,还可以指导用户平行于智能镜子的镜面站立、最好不要带墨镜等等,以便在智能镜子执行本发明实施例提供的显示方法的过程中,达到更好的检测效果和识别效果。
在一种可选的实现方式中,智能镜子可以通过摄像测距模组实时检测用户与镜面之间的人镜距离,当人镜距离小于或等于预设距离时,可以认为用户此时位于镜面前,需要通过智能镜子查看自身形象,此时,智能镜子可以通过摄像测距模组获取第一用户图像流,其中,第一用户图像流包含各个用户图像。当然,在实际应用中,智能镜子也可以通过摄像测距模组实时获取第一用户图像流,以及实时检测用户与镜面之间的人镜距离。或者还可以由用户通过触控指令或语音指令,触发智能镜子获取第一用户图像流,以及检测用户与镜面之间的人镜距离。本发明实施例对于智能镜子获取第一用户图像流及检测人镜距离的触发时机不作具体限定,并且对于获取第一用户图像流,以及检测用户与镜面之间的人镜距离的执行顺序不作具体限定。
步骤702,根据第一用户图像流和所述人镜距离,确定用户凝视的目标位置在预设坐标系中的位置坐标。
在本发明实施例中,本步骤具体可以通过下述方式实现,包括:从第一用户图像流中,提取出用户正视镜面的第一图像,以及用户凝视目标位置的第二图像;根据第一图像、第二图像,以及人镜距离,确定目标位置在预设坐标系中的位置坐标。
在本步骤中,智能镜子可以通过处理器,基于目标识别、特征点检测等计算机视觉技术,对第一用户图像流进行图像分析,从而识别出各个用户图像中用户双眼的瞳孔中心(或者虹膜中心也可,虹膜中心与瞳孔中心重合),以便于对用户的视线进行追踪。
具体地,智能镜子可以通过处理器,对第一用户图像流中包含的各个用户图像进行识别,从而识别出用户在第一预设时长内正视镜面的第一图像,以及用户在第二预设时长内凝视某个目标位置的第二图像,并将第一图像和第二图像提取出来。其中,当智能镜子识别出用户在第一预设时长内持续正视镜面时,可以从第一预设时长内的第一用户图像流中,提取出任意一个图像,作为第一图像。当智能镜子识别出用户在第二预设时长内持续凝视目标位置时,可以从第二预设时长内的第一用户图像流中,提取出任意一个图像,作为第二图像。需要说明的是,本发明实施例所述的用户正视镜面的情况,是指在用户平行于镜面站立的条件下,用户的视线垂直于镜面的情况。
进一步地,根据第一图像、第二图像,以及人镜距离,确定目标位置在预设坐标系中的位置坐标的步骤,具体可以通过下述子步骤实现,包括:
子步骤(一),识别第一图像中的第一左眼瞳孔中心和第一右眼瞳孔中心。
子步骤(二),识别第二图像中的第二左眼瞳孔中心或第二右眼瞳孔中心。
子步骤(三),根据第一角度、预设水平方向上第一左眼瞳孔中心与第一右眼瞳孔中心之间的距离,以及人镜距离,确定目标位置在预设坐标系中的位置横坐标。
子步骤(四),根据第二角度和人镜距离,确定目标位置在预设坐标系中的位置纵坐标。
其中,预设坐标系的原点为第一左眼瞳孔中心与第一右眼瞳孔中心之间的中心位置;第一角度为预设水平方向上第一左眼瞳孔中心与第二左眼瞳孔中心之间的偏转角度,或者预设水平方向上第一右眼瞳孔中心与第二右眼瞳孔中心之间的偏转角度;第二角度为预设竖直方向上第一左眼瞳孔中心与第二左眼瞳孔中心之间的偏转角度,或者预设竖直方向上第一右眼瞳孔中心与第二右眼瞳孔中心之间的偏转角度;预设竖直方向与预设水平方向相互垂直。
具体地,在一种可选的实现方式中,在第一角度为预设水平方向上第一左眼瞳孔中心与第二左眼瞳孔中心之间的偏转角度的情况下,上述子步骤7033具体可以包括:
根据第一角度、预设水平方向上第一左眼瞳孔中心与第一右眼瞳孔中心之间的距离,以及人镜距离,通过下述公式(1)确定目标位置在预设坐标系中的位置横坐标;
x=2d·tan θ1-p/2 (1)
其中,x为位置横坐标,d为人镜距离,θ1为第一角度,p为预设水平方向上第一左眼瞳孔中心与第一右眼瞳孔中心之间的距离。
图8示出了本发明实施例二的一种用户正视镜面的示意图,参照图8,第一左眼瞳孔中心与第一右眼瞳孔中心之间的中心位置为预设坐标系的原点,这里需要说明的是,由于在实际应用中,与人镜距离相比,人眼瞳孔中心与人眼眼球中心之间的距离很小,因此,第一左眼瞳孔中心与第一右眼瞳孔中心之间的中心位置也可以近似认为是双眼眼球中心之间的中心位置,可以理解的是,在图8以及后续有关人眼的图示中,为了体现确定位置坐标的原理,特将人眼的尺寸夸张化表示,而在实际应用中,人眼瞳孔中心与人眼眼球中心之间的距离其实是很小的。而基于上述理由,在图8以及后续有关人眼的图示中,可以将双眼眼球之间的中心位置作为预设坐标系的原点O1。相应的,原点O1与第一左眼瞳孔中心之间的距离,以及原点O1与第一右眼瞳孔中心之间的距离均可以近似认为是双眼瞳距p的一半,也即p/2。用户与镜面10之间的人镜距离,也即用户与镜面10正面之间的人镜距离为d。
图9示出了本发明实施例二的一种确定目标位置的位置横坐标的示意图,参照图9,用户凝视目标位置T时,双眼在预设水平方向X上的视线都会向着目标位置T的方向产生偏移,例如如图9所示,当目标位置T介于双眼之间,且偏向用户左眼时,用户左眼视线会向右侧偏移,而用户右眼视线会向左侧偏移,且用户左眼视线的偏移程度会小于用户右眼视线的偏移程度。此时,用户左眼瞳孔的中心即为第二左眼瞳孔中心,用户右眼瞳孔的中心即为第二右眼瞳孔中心。需要说明的是,在实际应用中,为了保证确定位置坐标的准确度,智能镜子可以通过语音等提示方式提示用户在凝视目标位置时,保持头部不动,仅眼球转动即可。
在本实现方式中,智能镜子可以基于第二左眼瞳孔中心,确定目标位置在预设坐标系中的位置横坐标。参照图9,在预设水平方向X上,此时用户左眼对应的第二左眼瞳孔中心相对于用户正视镜面10时左眼对应的第一左眼瞳孔中心偏转了第一角度θ1。需要说明的是,当第二左眼瞳孔中心相对于第一左眼瞳孔中心更靠近用户右眼时,第一角度θ1可以取正值,当第二左眼瞳孔中心相对于第一左眼瞳孔中心更远离用户右眼时,第一角度θ1可以取负值。
需要说明的是,在具体应用时,目标位置可以为用户身上的任一部位对应的镜像位置,相应的,参照图9,目标位置T与镜面10正面之间的像距可以为d。如图9所示,目标位置T在预设水平方向X上的正投影位置为M,因此,目标位置T、第一左眼瞳孔中心EL和正投影位置M可以构成一个直角三角形TELM,且∠ELTM等于第一角度θ1。因此,进而智能镜子可以基于三角函数,根据上述公式(1),确定出目标位置T在预设坐标系中的位置横坐标x。对于图9所示的目标位置T,该目标位置T在预设坐标系中的位置横坐标x为负值。
在另一种可选的实现方式中,在第一角度为预设水平方向上第一右眼瞳孔中心与第二右眼瞳孔中心之间的偏转角度的情况下,上述子步骤3033具体可以包括:
根据第一角度、预设水平方向上第一左眼瞳孔中心与第一右眼瞳孔中心之间的距离,以及人镜距离,通过下述公式(2)确定目标位置在预设坐标系中的位置横坐标;
x=2d·tanθ2+p/2 (2)
其中,x为位置横坐标,d为人镜距离,θ2为第一角度,p为预设水平方向上第一左眼瞳孔中心与第一右眼瞳孔中心之间的距离。
在本实现方式中,智能镜子可以基于第二右眼瞳孔中心,确定目标位置在预设坐标系中的位置横坐标。参照图9,在预设水平方向X上,此时用户右眼对应的第二右眼瞳孔中心相对于用户正视镜面10时右眼对应的第一右眼瞳孔中心偏转了第一角度θ2。需要说明的是,当第二右眼瞳孔中心相对于第一右眼瞳孔中心更远离用户左眼时,第一角度θ2可以取正值,当第二右眼瞳孔中心相对于第一右眼瞳孔中心更靠近用户左眼时,第一角度θ2可以取负值。
如图9所示,目标位置T在预设水平方向X上的正投影位置为M,因此,目标位置T、第一右眼瞳孔中心ER和正投影位置M可以构成一个直角三角形TERM,且∠ERTM等于第一角度θ2。因此,进而智能镜子可以基于三角函数,根据上述公式(2),确定出目标位置T在预设坐标系中的位置横坐标x。基于上述公式(1)和公式(2)确定出的位置横坐标x是相同的。
另外,上述子步骤3034具体可以包括:
根据第二角度和人镜距离,通过下述公式(3)确定目标位置在预设坐标系中的位置纵坐标;
y=2d·tanβ (3)
其中,y为位置纵坐标,d为人镜距离,β为第二角度。
图10示出了本发明实施例二的一种确定目标位置的位置纵坐标的示意图,参照图10,用户凝视目标位置T时,双眼在预设竖直方向Y上的视线都会向着目标位置T的方向产生偏移,例如如图10所示,当目标位置T介于双眼下方时,用户双眼视线会向下方偏移。
在本实现方式中,由于用户双眼平行于预设水平方向X,因此,智能镜子可以基于第二左眼瞳孔中心和第二右眼瞳孔中心中的任一者,确定目标位置在预设坐标系中的位置纵坐标。以图10所示的第二右眼瞳孔中心为例,参照图10,在预设竖直方向Y上,此时用户右眼对应的第二右眼瞳孔中心相对于用户正视镜面10时右眼对应的第一右眼瞳孔中心偏转了第二角度β。需要说明的是,当第二右眼瞳孔中心相对于第一右眼瞳孔中心更靠近用户脚部时,也即是第二右眼瞳孔中心向下方偏移时,第二角度β可以取正值,当第二右眼瞳孔中心相对于第一右眼瞳孔中心更远离用户脚部时,也即是第二右眼瞳孔中心向上方偏移时,第二角度β可以取负值。
需要说明的是,在具体应用时,目标位置可以为用户身上的任一部位对应的镜像位置,相应的,参照图10,目标位置T与镜面10正面之间的像距可以为d。如图10所示,目标位置T在预设竖直方向Y上的正投影位置为N,因此,目标位置T、第一右眼瞳孔中心ER和正投影位置N可以构成一个直角三角形TERN,且∠ERTN等于第二角度β。因此,进而智能镜子可以基于三角函数,根据上述公式(3),确定出目标位置T在预设坐标系中的位置纵坐标y。对于图10所示的目标位置T,该目标位置T在预设坐标系中的位置横坐标y为正值。
需要强调的是,上述描述中所涉及的上、下、左、右等方位词,均是基于图示中的上、下、左、右等方向而使用,随着智能镜子的移动,上述方向性指示也将随之改变。
步骤703,以位置坐标为中心,放大第一用户图像流,获得第二用户图像流。
在本发明实施例中,本步骤可以通过下述实现方式中的至少一种实现,包括:
第一种实现方式:根据人镜距离,确定放大倍数;以位置坐标为中心,根据该放大倍数放大第一用户图像流,获得第二用户图像流。
第二种实现方式:以位置坐标为中心,根据预设的放大倍数放大第一用户图像流,获得第二用户图像流。
第三种实现方式:获取用户指令;确定该用户指令对应的放大倍数;以位置坐标为中心,根据该放大倍数放大第一用户图像流,获得第二用户图像流。
其中,智能镜子可以根据人镜距离,确定所需的放大倍数,可选地,可以在智能镜子的处理器中存储一个人镜距离与放大倍数的对应表格,其中,人镜距离与放大倍数可以呈正比,也即是人镜距离越大,对应的放大倍数越大,本发明实施例对此不作具体限定。进而智能镜子可以以位置坐标为中心,根据人镜距离对应的放大倍数放大第一用户图像流,获得第二用户图像流。
或者,智能镜子的处理器中还可以预设一个放大倍数,例如1.5倍、2倍等,从而处理器可以按照预设的放大倍数放大第一用户图像流,获得第二用户图像流。
再或者,智能镜子还可以包括一些用户指令的获取模组,例如手势识别模组、语音识别模组等等,从而可以根据用户手势和/或用户语音确定对应的用户指令,然后确定该用户指令对应的放大倍数,进而智能镜子可以以位置坐标为中心,根据用户指令对应的放大倍数放大第一用户图像流,获得第二用户图像流。
步骤704,显示至少部分第二用户图像流的中心区域;该中心区域以目标位置为中心。
在本步骤中,智能镜子可以通过显示模组,显示至少部分第二用户图像流的中心区域,中心区域以用户凝视的目标位置为中心,从而用户可以在显示区域的中心观察到目标位置的放大图像流。
进一步地,在智能镜子显示放大的第二用户图像流之后,智能镜子还可以根据用户需求缩小或继续放大第二用户图像流,其中,智能镜子可以通过检测用户指令,以确定需要对第二用户图像流缩小还是继续放大,具体地,用户可以通过手势或语音对智能镜子下达指令。
相应的,在一种可选的实现方式中,步骤704之后还可以包括下述步骤:识别用户手势指令;以位置坐标为中心,根据用户手势指令放大或缩小第二用户图像流;显示放大或缩小后的第二用户图像流。
在具体应用时,智能镜子可以通过手势识别模组识别用户手势指令,然后通过处理器以目标位置的位置坐标为中心,根据用户手势指令放大或缩小第二用户图像流,进而通过显示模组对放大或缩小后的第二用户图像流进行显示。
在另一种可选的实现方式中,步骤704之后还可以包括下述步骤:识别用户语音指令;以位置坐标为中心,根据用户语音指令放大或缩小第二用户图像流;显示放大或缩小后的第二用户图像流。
在具体应用时,智能镜子可以通过语音识别模组识别用户语音指令,然后通过处理器以目标位置的位置坐标为中心,根据用户语音指令放大或缩小第二用户图像流,进而通过显示模组对放大或缩小后的第二用户图像流进行显示。
进一步可选地,除显示面板之外,显示模组还可以包括触控面板,从而用户可以直接通过触控面板下达放大或缩小第二用户图像流的指令,或者其他指令,例如当用户两个手指在触控面板上逐渐远离时,智能镜子可以放大第二用户图像流,当用户两个手指在触控面板上逐渐靠近时,智能镜子可以缩小第二用户图像流。
更进一步可选地,智能镜子还可以包括扬声器,从而智能镜子可以通过语音识别模块中的麦克风或麦克风阵列,以及扬声器与用户进行语音交互,以对用户进行图像流相关的说明或者进行使用指导。当然,在实际应用中,智能镜子还可以通过图示等方式对用户进行说明或指导,本发明实施例对此不作具体限定。
另外,智能镜子还可以根据摄像测距模块检测的人镜距离,调节摄像测距模块的焦距,以使用户人脸能够清晰成像,从而提高成像质量,进而能够提高确定目标位置的位置坐标的准确度。
再者,智能镜子还可以根据用户指令启动后视功能,从而在检测到用户背对镜面时,智能镜子可以对用户背面的形象进行录制或拍摄,进而用户可以对通过指令控制智能镜子回放背面形象的视频或照片,从而用户无需侧身或扭头,即可查看到自身背面的发型等信息,提高了用户照镜子时的便利性。
在本发明实施例中,智能镜子可以获取第一用户图像流,以及检测用户与镜面之间的人镜距离,然后可以根据第一用户图像流和人镜距离,确定用户凝视的目标位置在预设坐标系中的位置坐标,进而以位置坐标为中心,放大第一用户图像流,获得第二用户图像流,之后智能镜子可以显示至少部分第二用户图像流的中心区域,其中,该中心区域以目标位置为中心。在本发明实施例中,智能镜子可以确定用户凝视的目标位置的位置坐标,并将包含目标位置的图像流进行放大,进而可以对以目标位置为中心的图像流区域进行显示,从而用户无需靠近智能镜子,即可从智能镜子中观察到放大后的目标位置,从而观察到目标位置的细节,如此,提高了用户照镜子时的便利性。
对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种智能镜子和显示方法,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (17)

1.一种智能镜子,其特征在于,包括镜面,以及设置在所述镜面背面的显示模组、摄像测距模组和处理器;所述镜面包括半透半反区域,所述显示模组和所述摄像测距模组分立设置在所述半透半反区域;所述处理器分别与所述显示模组和所述摄像测距模组连接;
所述摄像测距模组,被配置为获取第一用户图像流,以及检测用户与所述镜面之间的人镜距离,将所述第一用户图像流和所述人镜距离输出至所述处理器;
所述处理器,被配置为根据所述第一用户图像流和所述人镜距离,确定所述用户凝视的目标位置在预设坐标系中的位置坐标,以所述位置坐标为中心,放大所述第一用户图像流,获得第二用户图像流,将所述第二用户图像流输出至所述显示模组;
所述显示模组,被配置为显示至少部分所述第二用户图像流的中心区域;所述中心区域以所述目标位置为中心;
所述处理器,具体被配置为从所述第一用户图像流中,提取出所述用户正视所述镜面的第一图像,以及所述用户凝视目标位置的第二图像,根据所述第一图像、所述第二图像,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置坐标;
其中,所述处理器,进一步被配置为:
识别所述第一图像中的第一左眼瞳孔中心和第一右眼瞳孔中心;
识别所述第二图像中的第二左眼瞳孔中心或第二右眼瞳孔中心;
根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置横坐标;
根据第二角度和所述人镜距离,确定所述目标位置在所述预设坐标系中的位置纵坐标;
其中,所述预设坐标系的原点为所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的中心位置;
所述第一角度为所述预设水平方向上所述第一左眼瞳孔中心与所述第二左眼瞳孔中心之间的偏转角度,或者所述预设水平方向上所述第一右眼瞳孔中心与所述第二右眼瞳孔中心之间的偏转角度;
所述第二角度为预设竖直方向上所述第一左眼瞳孔中心与所述第二左眼瞳孔中心之间的偏转角度,或者所述预设竖直方向上所述第一右眼瞳孔中心与所述第二右眼瞳孔中心之间的偏转角度。
2.根据权利要求1所述的智能镜子,其特征在于,所述半透半反区域包括层叠设置的第一半透半反膜层和第一透明衬底;其中,所述第一透明衬底远离所述第一半透半反膜层的表面为所述镜面的部分背面。
3.根据权利要求1所述的智能镜子,其特征在于,所述镜面还包括阻光区域,所述阻光区域包括层叠设置的第二半透半反膜层、第二透明衬底和阻光层;其中,所述阻光层远离所述第二透明衬底的表面为所述镜面的部分背面。
4.根据权利要求2所述的智能镜子,其特征在于,所述第一半透半反膜层的反射率大于或等于60%,且小于或等于80%。
5.根据权利要求3所述的智能镜子,其特征在于,所述第二半透半反膜层的反射率大于或等于60%,且小于或等于80%。
6.根据权利要求1所述的智能镜子,其特征在于,所述智能镜子还包括手势识别模组,所述手势识别模组设置在所述镜面背面的半透半反区域;
所述手势识别模组,被配置为识别用户手势指令,将所述用户手势指令输出至所述处理器;
相应的,所述处理器,还被配置为以所述位置坐标为中心,根据所述用户手势指令放大或缩小所述第二用户图像流,将放大或缩小后的所述第二用户图像流输出至所述显示模组;
所述显示模组,还被配置为显示放大或缩小后的所述第二用户图像流。
7.根据权利要求1所述的智能镜子,其特征在于,所述智能镜子还包括语音识别模组;
所述语音识别模组,被配置为识别用户语音指令,将所述用户语音指令输出至所述处理器;
相应的,所述处理器,还被配置为以所述位置坐标为中心,根据所述用户语音指令放大或缩小所述第二用户图像流,将放大或缩小后的所述第二用户图像流输出至所述显示模组;
所述显示模组,还被配置为显示放大或缩小后的所述第二用户图像流。
8.根据权利要求1所述的智能镜子,其特征在于,所述摄像测距模组包括摄像头和测距模块;或者,所述摄像测距模组包括双目摄像头。
9.一种显示方法,其特征在于,应用于权利要求1至8任一项所述的智能镜子,所述方法包括:
获取第一用户图像流,以及检测用户与所述镜面之间的人镜距离;
根据所述第一用户图像流和所述人镜距离,确定所述用户凝视的目标位置在预设坐标系中的位置坐标;
以所述位置坐标为中心,放大所述第一用户图像流,获得第二用户图像流;
显示至少部分所述第二用户图像流的中心区域;所述中心区域以所述目标位置为中心。
10.根据权利要求9所述的方法,其特征在于,所述根据所述第一用户图像流和所述人镜距离,确定所述用户凝视的目标位置在预设坐标系中的位置坐标,包括:
从所述第一用户图像流中,提取出所述用户正视所述镜面的第一图像,以及所述用户凝视目标位置的第二图像;
根据所述第一图像、所述第二图像,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置坐标。
11.根据权利要求10所述的方法,其特征在于,所述根据所述第一图像、所述第二图像,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置坐标,包括:
识别所述第一图像中的第一左眼瞳孔中心和第一右眼瞳孔中心;
识别所述第二图像中的第二左眼瞳孔中心或第二右眼瞳孔中心;
根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置横坐标;
根据第二角度和所述人镜距离,确定所述目标位置在所述预设坐标系中的位置纵坐标;
其中,所述预设坐标系的原点为所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的中心位置;
所述第一角度为所述预设水平方向上所述第一左眼瞳孔中心与所述第二左眼瞳孔中心之间的偏转角度,或者所述预设水平方向上所述第一右眼瞳孔中心与所述第二右眼瞳孔中心之间的偏转角度;
所述第二角度为预设竖直方向上所述第一左眼瞳孔中心与所述第二左眼瞳孔中心之间的偏转角度,或者所述预设竖直方向上所述第一右眼瞳孔中心与所述第二右眼瞳孔中心之间的偏转角度;
所述预设竖直方向与所述预设水平方向相互垂直。
12.根据权利要求11所述的方法,其特征在于,所述第一角度为所述预设水平方向上所述第一左眼瞳孔中心与所述第二左眼瞳孔中心之间的偏转角度;
所述根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置横坐标,包括:
根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,通过下述公式(1)确定所述目标位置在预设坐标系中的位置横坐标;
Figure 93243DEST_PATH_IMAGE001
(1)
其中,所述
Figure 10383DEST_PATH_IMAGE002
为所述位置横坐标,所述d为所述人镜距离,所述
Figure 226339DEST_PATH_IMAGE003
为所述第一角度,所述
Figure 621548DEST_PATH_IMAGE004
为所述预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离。
13.根据权利要求11所述的方法,其特征在于,所述第一角度为所述预设水平方向上所述第一右眼瞳孔中心与所述第二右眼瞳孔中心之间的偏转角度;
所述根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,确定所述目标位置在预设坐标系中的位置横坐标,包括:
根据第一角度、预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离,以及所述人镜距离,通过下述公式(2)确定所述目标位置在预设坐标系中的位置横坐标;
Figure 373603DEST_PATH_IMAGE005
(2)
其中,所述
Figure 196066DEST_PATH_IMAGE002
为所述位置横坐标,所述d为所述人镜距离,所述
Figure 463099DEST_PATH_IMAGE006
为所述第一角度,所述
Figure 599682DEST_PATH_IMAGE004
为所述预设水平方向上所述第一左眼瞳孔中心与所述第一右眼瞳孔中心之间的距离。
14.根据权利要求11所述的方法,其特征在于,所述根据第二角度和所述人镜距离,确定所述目标位置在所述预设坐标系中的位置纵坐标,包括:
根据第二角度和所述人镜距离,通过下述公式(3)确定所述目标位置在所述预设坐标系中的位置纵坐标;
Figure 268561DEST_PATH_IMAGE007
(3)
其中,所述y为所述位置纵坐标,所述d为所述人镜距离,所述
Figure 261925DEST_PATH_IMAGE008
为所述第二角度。
15.根据权利要求9所述的方法,其特征在于,所述以所述位置坐标为中心,放大所述第一用户图像流,获得第二用户图像流,包括:
根据所述人镜距离,确定放大倍数;
以所述位置坐标为中心,根据所述放大倍数放大所述第一用户图像流,获得第二用户图像流。
16.根据权利要求9所述的方法,其特征在于,所述显示所述第二用户图像流的中心区域之后,还包括:
识别用户手势指令;
以所述位置坐标为中心,根据所述用户手势指令放大或缩小所述第二用户图像流;
显示放大或缩小后的所述第二用户图像流。
17.根据权利要求9所述的方法,其特征在于,所述显示所述第二用户图像流的中心区域之后,还包括:
识别用户语音指令;
以所述位置坐标为中心,根据所述用户语音指令放大或缩小所述第二用户图像流;
显示放大或缩小后的所述第二用户图像流。
CN201910440631.8A 2019-05-24 2019-05-24 一种智能镜子和显示方法 Active CN110109553B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910440631.8A CN110109553B (zh) 2019-05-24 2019-05-24 一种智能镜子和显示方法
US17/043,469 US11803236B2 (en) 2019-05-24 2020-04-29 Mirror and display method
PCT/CN2020/087731 WO2020238544A1 (zh) 2019-05-24 2020-04-29 一种镜子和显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910440631.8A CN110109553B (zh) 2019-05-24 2019-05-24 一种智能镜子和显示方法

Publications (2)

Publication Number Publication Date
CN110109553A CN110109553A (zh) 2019-08-09
CN110109553B true CN110109553B (zh) 2021-10-22

Family

ID=67492110

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910440631.8A Active CN110109553B (zh) 2019-05-24 2019-05-24 一种智能镜子和显示方法

Country Status (3)

Country Link
US (1) US11803236B2 (zh)
CN (1) CN110109553B (zh)
WO (1) WO2020238544A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110109553B (zh) 2019-05-24 2021-10-22 京东方科技集团股份有限公司 一种智能镜子和显示方法
CN110806820A (zh) * 2019-10-30 2020-02-18 京东方科技集团股份有限公司 镜面显示装置及智能柜子
CN111012023B (zh) * 2019-12-17 2022-12-13 中山市大牌镜业有限公司 一种基于影像分析的智能美妆化妆镜
CN111109959A (zh) * 2019-12-25 2020-05-08 珠海格力电器股份有限公司 智能化妆镜及其控制方法和控制器、存储介质
CN111736725A (zh) * 2020-06-10 2020-10-02 京东方科技集团股份有限公司 智能镜子及智能镜子唤醒方法
CN111726580B (zh) * 2020-06-17 2022-04-15 京东方科技集团股份有限公司 智能护理镜、智能护理设备、图像显示方法及系统
CN113208373A (zh) * 2021-05-20 2021-08-06 厦门希烨科技有限公司 一种智能化妆镜的控制方法和智能化妆镜
CN117406887B (zh) * 2023-11-21 2024-04-09 东莞莱姆森科技建材有限公司 一种基于人体感应的智能镜柜控制方法及系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102197918A (zh) * 2010-03-26 2011-09-28 鸿富锦精密工业(深圳)有限公司 化妆镜调整系统、方法及具有该调整系统的化妆镜
JP2015084002A (ja) * 2012-02-09 2015-04-30 パナソニック株式会社 ミラーディスプレイシステム、及び、その映像表示方法
JP6027764B2 (ja) * 2012-04-25 2016-11-16 キヤノン株式会社 ミラーシステム、および、その制御方法
CN103873840B (zh) 2012-12-12 2018-08-31 联想(北京)有限公司 显示方法及显示设备
US9465488B2 (en) 2013-05-09 2016-10-11 Stephen Howard System and method for motion detection and interpretation
CN103516985A (zh) * 2013-09-18 2014-01-15 上海鼎为软件技术有限公司 移动终端及其获取图像的方法
WO2017108702A1 (en) * 2015-12-24 2017-06-29 Unilever Plc Augmented mirror
US10845511B2 (en) * 2016-06-30 2020-11-24 Hewlett-Packard Development Company, L.P. Smart mirror
CN108227163A (zh) * 2016-12-12 2018-06-29 重庆门里科技有限公司 一种增强镜面反射内容的方法
CN106896999A (zh) * 2017-01-06 2017-06-27 广东小天才科技有限公司 一种移动终端的镜子模拟方法及装置
CN107272904B (zh) * 2017-06-28 2021-05-18 联想(北京)有限公司 一种图像显示方法及电子设备
CN107797664B (zh) * 2017-10-27 2021-05-07 Oppo广东移动通信有限公司 内容显示方法、装置及电子装置
CN108257091B (zh) 2018-01-16 2022-08-05 北京小米移动软件有限公司 用于智能镜子的成像处理方法和智能镜子
TWI680439B (zh) * 2018-06-11 2019-12-21 視銳光科技股份有限公司 智慧安全警示系統的運作方法
CN110109553B (zh) * 2019-05-24 2021-10-22 京东方科技集团股份有限公司 一种智能镜子和显示方法

Also Published As

Publication number Publication date
CN110109553A (zh) 2019-08-09
US11803236B2 (en) 2023-10-31
US20220326765A1 (en) 2022-10-13
WO2020238544A1 (zh) 2020-12-03

Similar Documents

Publication Publication Date Title
CN110109553B (zh) 一种智能镜子和显示方法
JP5295714B2 (ja) 表示装置、画像処理方法、及びコンピュータプログラム
EP3106911B1 (en) Head mounted display apparatus
CN104765445B (zh) 显示器上的眼睛聚散检测
US10102676B2 (en) Information processing apparatus, display apparatus, information processing method, and program
US10762709B2 (en) Device and method for providing augmented reality for user styling
US10095030B2 (en) Shape recognition device, shape recognition program, and shape recognition method
US9442631B1 (en) Methods and systems for hands-free browsing in a wearable computing device
JP6454851B2 (ja) 3次元上の注視点の位置特定アルゴリズム
US20120092300A1 (en) Virtual touch system
Rekimoto The magnifying glass approach to augmented reality systems
JP6822472B2 (ja) 表示装置、プログラム、表示方法および制御装置
US9002074B2 (en) Facial validation sensor
GB2494907A (en) A Head-mountable display with gesture recognition
JP5857082B2 (ja) 表示装置及び電子機器
US20180130442A1 (en) Anti-spy electric device and adjustable focus glasses and anti-spy method for electric device
JP2005198743A (ja) 三次元視点計測装置
WO2016101861A1 (zh) 头戴式显示装置
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
CN110573934A (zh) 面镜装置
US10852767B2 (en) Handwriting support device
KR102366242B1 (ko) 미러 디스플레이 시스템에서 객체의 깊이를 제어하기 위한 방법
JP2012104070A (ja) 情報装置、情報処理方法、プログラム、及びコンピュータ読み取り可能な記録媒体
US20230254466A1 (en) Control device
US11699301B2 (en) Transparent display system, parallax correction method and image outputting method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant