CN113242709A - 镜组件 - Google Patents
镜组件 Download PDFInfo
- Publication number
- CN113242709A CN113242709A CN201980083212.1A CN201980083212A CN113242709A CN 113242709 A CN113242709 A CN 113242709A CN 201980083212 A CN201980083212 A CN 201980083212A CN 113242709 A CN113242709 A CN 113242709A
- Authority
- CN
- China
- Prior art keywords
- user
- mirror assembly
- blur
- display
- visual element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 109
- 230000000694 effects Effects 0.000 claims abstract description 98
- 238000000034 method Methods 0.000 claims description 33
- 210000001747 pupil Anatomy 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 10
- 210000003128 head Anatomy 0.000 claims description 8
- 230000006870 function Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004140 cleaning Methods 0.000 description 3
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001680 brushing effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000003370 grooming effect Effects 0.000 description 1
- 230000008821 health effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000037067 skin hydration Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D44/005—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47G—HOUSEHOLD OR TABLE EQUIPMENT
- A47G1/00—Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
- A47G1/02—Mirrors used as equipment
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/42—Photometry, e.g. photographic exposure meter using electric radiation detectors
- G01J1/4204—Photometry, e.g. photographic exposure meter using electric radiation detectors with determination of ambient light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D2044/007—Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Sustainable Development (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Lenses (AREA)
- Closed-Circuit Television Systems (AREA)
- Mirrors, Picture Frames, Photograph Stands, And Related Fastening Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
一种镜组件(100),包括:反射部分(110),被配置为反射入射光;显示单元(120),被布置为与反射部分重叠,其中显示单元被配置为显示视觉元素和模糊效果元素中的至少一种元素;以及控制单元(130)。控制单元(130)被配置为:接收显示视觉元素的指令或显示模糊效果元素的指令;基于所接收的指令,确定针对视觉元素的模糊区域或模糊效果元素的运动轨迹,其中模糊区域或模糊效果元素大于显示单元的显示分辨率;以及控制显示单元在用户的视场中显示具有所确定的模糊区域的视觉元素、或者显示所确定的运动轨迹中的模糊效果元素。
Description
技术领域
本公开涉及一种能够用于支持用户进行个人护理活动的镜组件,以及一种用于在镜组件的显示单元处显示视觉元素和模糊效果元素中的至少一种元素的方法。
背景技术
进行个人护理活动的用户经常可以从个人护理活动期间的辅助受益。例如,除了反射(或者表现场景,如果显示器被用于模拟镜),一些智能镜还提供了添加额外的视觉信息以进行显示的机会。这可以是有用的,因为人们经常在镜前进行各种个人护理活动。
例如,在镜前进行的个人护理活动可以包括个人保健活动(可对其进行监测以研究进行个人健康活动的用户的健康状况)、个人卫生活动(例如,诸如清洁、刷洗或用牙线清洁牙齿的牙齿护理活动,或诸如处理或清洁皮肤的皮肤护理活动)以及个人梳理活动(例如移除毛发,诸如切割或刮剃身体任何部分的毛发,或刷洗或拉直毛发)。因此,智能镜可以与多个不同的个人护理设备组合使用,诸如体重秤、电动剃刀、皮肤水合传感器、电动牙刷或皮肤清洁刷。由智能镜提供的视觉信息可以直接增强并且支持这些个人护理活动。具体地,由智能镜提供的用户接口能够提升相应的个人护理设备(例如电动牙刷或电动剃刀)的使用体验,从而改善个人护理设备的用户友好性。由智能镜提供的视觉信息通常直接显示在镜(反射)表面的后方或上面。
在智能镜使用期间,在镜表面上观察到的用户的面部的反射的位置是所感知到的位于镜后方相等距离处的面部的垂直投影,而在智能镜上显示的信息的位置通常直接位于镜表面的后方。因此,在这种情况下,观察反射图像的焦距大约是观察智能镜上显示的信息的焦距的两倍。焦距的差异以及相应的视场中的不同深度将触发用户的注视以在反射图像和显示信息之间重新聚焦,反射图像和显示信息均位于用户的视场中。用户的这种连续重新聚焦将导致不必要的眼睛疲劳,并且将潜在地使正在进行个人护理活动(例如刮剃)的用户分心。而且,由于焦点的转换是潜意识下发生的,所以需要用户付出实际努力来抑制它。因此,一些当前可用的智能镜系统被配置为远离对应于用户的反射图像的区域来显示信息,以避免触发用户重新聚焦。此外,一些当前可用的智能镜系统通过下述方式来避免该问题:在智能镜(显示焦距)处显示用户的面部的修改图像,从而完全将用户的注视从其反射图像吸引开。
应当注意的是,欧洲专利申请EP3301543A1公开了一种智能镜设备,包括具有可调节反射率的显示器,用于在镜表面上获得蒸汽的视觉效果。
发明内容
如上所述,目前可用的用于个人护理领域的镜组件存在许多缺点。例如,在一些目前可用的系统中,信息(通常以视觉元素的形式提供)不能显示在与用户的反射图像重叠或相邻的区域处。作为另一示例,一些目前可用的系统被配置为使得用户的反射图像被完全忽略,进而否定智能“镜”的本质。因此,提供一种能够通过以不触发用户重新聚焦其注视的方式显示(一个或多个)视觉元素和/或(一个或多个)模糊效果元素,直接解决这些缺点的改进镜组件,以及一种用于在镜组件的显示单元处显示视觉元素和模糊效果元素中的至少一种元素的方法,实现相同的效果,这将是有利的。
为了更好地解决前面提到的问题中的一个或多个问题,在第一方面,提供了一种镜组件。镜组件包括:反射部分,被配置为反射入射光;显示单元,被布置为与反射部分重叠,其中显示单元被配置为显示视觉元素和模糊效果元素中的至少一种元素;以及控制单元,被配置为:接收显示视觉元素的指令或显示模糊效果元素的指令;基于所接收的指令,确定针对视觉元素的模糊区域或模糊效果元素的运动轨迹,其中模糊区域或模糊效果元素大于显示单元的显示分辨率;以及控制显示单元在用户的视场中显示具有所确定的模糊区域的视觉元素、或者显示所确定的运动轨迹中的模糊效果元素。
在一些实施例中,控制单元还可以被配置为接收用户的瞳孔直径。在这些实施例中,确定针对视觉元素的模糊区域可以基于所接收的用户的瞳孔直径。
在一些实施例中,控制单元还可以被配置为接收用户与镜组件之间的距离。在这些实施例中,确定针对视觉元素的模糊区域可以基于所接收的用户与镜组件之间的距离。此外,在这些实施例中,确定针对视觉元素的模糊区域可以包括:基于所接收的用户与镜组件之间的距离,确定用户与用户的反射图像之间的焦距,反射图像在反射部分处;并且基于以下信息确定针对视觉元素的模糊区域:用户与用户的反射图像之间的焦距、以及所接收的用户与镜组件之间的距离。
在一些实施例中,镜组件还可以包括距离传感器单元,距离传感器单元被配置为检测用户与镜组件之间的距离。
在一些实施例中,控制单元还可以被配置为接收指示待突出显示的用户的反射图像的一部分的信息,并且基于所接收的指示待突出显示的用户的反射图像的一部分的信息,确定模糊效果元素的运动轨迹。
在一些实施例中,控制单元还可以被配置为基于环境照明条件,确定针对视觉元素的模糊区域。
在一些实施例中,控制单元还可以被配置为:确定视觉元素是否将被显示在显示单元处与用户的面部的反射图像相对应的区域处,反射图像在反射部分处;以及控制显示单元仅在确定视觉元素将被显示在与用户的面部的反射图像相对应的区域处时,显示具有模糊区域的视觉元素。
在一些实施例中,镜组件还可以包括位置传感器单元,位置传感器单元被配置为确定用户相对于镜组件的位置。在这些实施例中,控制单元还可以被配置为基于所确定的用户相对于镜组件的位置,确定在显示单元处与用户的面部的反射图像相对应的区域。
在一些实施例中,镜组件还可以包括取向传感器单元,取向传感器单元被配置为检测用户头部的取向。在这些实施例中,控制单元还可以被配置为基于用户头部的取向,确定与用户的面部的反射图像相对应的区域,该区域在显示单元处。
在第二方面,提供了一种用于在镜组件的显示单元处显示视觉元素和模糊效果元素中的至少一种元素的方法。该方法包括:接收显示视觉元素的指令或显示模糊效果元素的指令;基于所接收的指令,确定针对视觉元素的模糊区域或模糊效果元素的运动轨迹,其中模糊区域或模糊效果元素大于显示单元的显示分辨率;以及控制显示单元在用户的视场中显示具有所确定的模糊区域的视觉元素,或者显示所确定的运动轨迹中的模糊效果元素。
在一些实施例中,该方法还可以包括接收用户的瞳孔直径。在这些实施例中,确定针对视觉元素的模糊区域可以包括基于所接收的用户的瞳孔直径来确定模糊区域。
在一些实施例中,该方法还可以包括接收用户与镜组件之间的距离。在这些实施例中,确定针对视觉元素的模糊区域可以包括基于所接收的用户与镜组件之间的距离来确定模糊区域。
在一些实施例中,该方法还包括接收指示待突出显示的用户的反射图像的一部分的信息。在这些实施例中,确定模糊效果元素的运动轨迹可以包括基于所接收的指示待突出显示的用户的反射图像的一部分的信息来确定运动轨迹。
在第三方面,提供了一种计算机程序产品,包括计算机可读介质,计算机可读介质具有实施在其中的计算机可读代码,计算机可读代码被配置为当在合适的计算机或处理器上执行时,使得计算机或处理器执行如本文所述的方法。
根据上述方面和实施例,解决了现有技术的局限性。特别地,上述方面和实施例提供了一种镜组件,该镜组件能够无缝显示信息而没有任何尖锐轮廓,从而避免了显示信息与反射图像之间的用户焦点的不期望转换。以这种方式,上述方面和实施例通过减少用户的眼睛疲劳并且防止用户分心而实现更沉浸式且更方便的用户体验。因此,提供了一种改进的镜组件和用于在镜组件的显示单元处显示视觉元素和模糊效果元素中的至少一种元素的方法。参考下文描述的(一个或多个)实施例,本公开的这些和其它方面将变得明显并得以阐明。
附图说明
为了更好地理解实施例,并且为了更清楚地示出如何实现这些实施例,现在仅通过示例的方式参考附图,其中:
图1A是根据一个实施例的镜组件的框图;
图1B是图1A的镜组件的分解图;
图2示出用于在图1A和图1B的显示单元处显示视觉元素和模糊效果元素中的至少一种元素的方法;
图3是根据一个实施例的用户使用期间的镜组件的透视图;
图4A至图4D是图3的镜组件在使用期间的俯视示意图;
图5A和图5B示出用户与图3的镜组件之间的距离和用户与用户的反射图像之间的焦距之间的关系;
图5C是表示模糊圆的大小与距焦点的距离之间的关系的三维锥形图;
图6A和图6B分别以透视图和前视图示出在图3的镜组件的显示单元处显示的视觉元素;
图7A和图7B分别以透视图和前视图示出在图3的镜组件的显示单元处显示的模糊效果元素;
图8A至图8C示出根据一个实施例的模糊效果元素的运动轨迹,运动轨迹与镜组件的显示单元处的用户的反射图像重叠;
图8D示出用户感知到的通过图8A至图8C的模糊效果元素实现的显示覆盖;以及
图8E示出具有模糊区域的非移动显示覆盖。
具体实施方式
如上所述,提供了一种解决了现有问题的改进镜组件和用于在镜组件的显示单元处显示视觉元素和模糊效果元素中的至少一种元素的方法。
图1A是根据一个实施例的镜组件100的框图,并且图1B是镜组件100的分解图。镜组件100包括反射部分110、显示单元120、控制单元130和传感器单元140。反射部分110被配置为反射入射光,并且在一些实施例中可以是双向镜。显示单元120被布置为与反射部分110重叠,并且被配置为显示视觉元素和模糊效果元素中的至少一种元素。
在一些实施例中,显示单元120可以被布置为仅部分地与反射部分重叠。在一些情况下,视觉元素和/或模糊效果元素可以被显示在反射部分110与显示单元120的重叠区域处。例如,视觉元素可以是诸如窗口或图标的多种组件中的一种组件。在一些实施例中,视觉元素可以是覆盖面部轮廓,其被配置为当从用户的角度观察时,对应于用户的面部的反射图像。在一些实施例中,模糊效果元素例如可以是模糊点。
控制单元130被配置为接收显示视觉元素的指令或显示模糊效果元素的指令,并且基于所接收的指令,确定针对视觉元素的模糊区域或模糊效果元素的运动轨迹,其中模糊区域或模糊效果元素设计为大于显示单元120的显示分辨率。因为模糊区域或模糊效果元素有意地大于显示单元120的显示分辨率,由模糊区域或模糊效果元素导致的(即用户感知到的)模糊效果类似于散焦模糊。具体地,模糊效果是平滑的模糊,而没有任何显示像素化效果或伪像。控制单元130还被配置为控制显示单元120在用户的视场中显示具有所确定的模糊区域的视觉元素、或者显示所确定的运动轨迹中的模糊效果元素。
如下面将参考图5A和图5B更详细地解释的,用户与显示单元120的显示信息(包括(一个或多个)视觉元素和/或(一个或多个)模糊效果元素)之间的焦距远小于用户与自己的反射图像之间的焦距,其中在大多数典型情况下,前一距离约等于后一距离的一半。利用这些相对较短(通常小于2m)的不同相对焦距,眼睛的焦点存在可辨别的转换,以观察显示信息和反射图像。
更详细地,对于人类视觉系统,在至少2m或更远距离处的对象一般可以被感知为全对焦的。在小于该距离处,人类视觉系统具有有限的焦深,因此焦深范围之外的对象被感知为不清楚的。由于人类视觉系统倾向于寻找清晰的图像,所以也从视差(即左眼图像和右眼图像的水平视差异)导出其用于在相对短距离处聚焦的深度提示。
视差提示(parallax cue)在当前焦深周围最明显。为了进一步详细解释,用于适配焦点的提示从视差中获取,以主要围绕当前焦深进行聚焦或适配,例如适配1.1m至1.2m的焦距,而用于适配其它焦深范围内的焦点的提示,例如适配1.1m至0.5m的提示,主要从散焦模糊和眼睛焦点变化的影响获取而不是从视差获取。在这种情况下,在显示单元120处显示的(一个或多个)视觉元素远离反射图像的焦平面,使得模糊区域成为主导提示。此外,与在用户的焦平面之外显示的信息相关联的感知模糊是由人眼的实际焦点以及左眼图像和右眼图像未对准两者引起的。对于如本文所述的镜组件的配置,散焦模糊被认为是主要提示。
因此,在一些实施例中,控制单元130可以被配置为确定模糊区域或模糊效果元素,使得模糊区域或模糊效果元素的大小大于由焦距差引起的离焦模糊量,焦距差即用户与镜组件之间的距离和用户与用户的反射图像之间的距离之差。在这些实施例中,模糊区域或模糊元素的大小可以是大于离焦模糊量的数量级,以减少或抑制人类视觉寻求聚焦的倾向。当模糊区域或模糊元素的大小处于大于离焦模糊量的数量级时,由于锐度检测得到改善,人类视觉系统转换焦点的冲动相对较低。
此外,从用户的角度来看,当针对视觉元素的模糊区域与视觉元素一起在至少部分地与用户的反射图像重叠的区域处显示时,将导致显示的视觉元素与用户的反射图像之间的“合并”效果。因此,通过确定模糊区域并显示具有模糊区域的视觉元素,如上所述的镜组件100消除了不期望的视觉提示,否则该视觉提示将导致用户在镜组件100使用期间,在显示的视觉元素和反射图像之间重新聚焦。
在一些实施例中,控制单元130还可以被配置为接收用户的瞳孔直径。例如,用户的瞳孔直径可以被接收作为用户接口处的用户输入,或者经由传感器单元被检测。作为另一示例,控制单元130可以从存储器中检索用户的瞳孔直径的默认值(例如4mm)。在这些实施例中,控制单元130可以被配置为基于所接收的用户的瞳孔直径,确定针对视觉元素的模糊区域。
备选地或附加地,在一些实施例中,控制单元130还可以被配置为接收用户与镜组件100之间的距离。例如,用户与镜组件100之间的距离可以被接收作为用户接口处的用户输入,或者经由传感器单元(例如距离传感器单元)被检测。在这些实施例中,控制单元130可以被配置为基于所接收的用户与镜组件100之间的距离,确定针对视觉元素的模糊区域。此外,在这些实施例中,控制单元130可以被配置为基于所接收的用户与镜组件100之间的距离,确定用户与反射部分110处用户的反射图像之间的焦距。然后,控制单元130可以被配置为基于用户与用户的反射图像之间的焦距以及所接收的用户与镜组件100之间的距离来确定针对视觉元素的模糊区域。
在一些实施例中,控制单元130还可以被配置为接收指示待突出显示的用户的反射图像的一部分的信息,并且基于所接收的指示待突出显示的用户的反射图像的一部分的信息,确定模糊效果元素的运动轨迹。其中一个示例在图8A至图8E中提供,并且将在下面参考这些附图进行解释。
在一些实施例中,控制单元130还可以被配置为基于环境照明条件来确定针对元素的模糊区域。环境照明条件可以被接收作为用户输入经由用户接口,或者经由传感器单元(例如光传感器单元)被检测。在一些实施例中,环境照明条件可以用环境照明值表示。此外,在一些实施例中,环境照明值可以用作用户的瞳孔直径的代理值。例如,可以使用低光(例如5mm)和亮光(例如2mm)的参考值和/或典型值。
在一些实施例中,控制单元130还可以被配置为确定视觉元素是否将被显示与用户的面部的反射图像相对应的区域处,该区域在显示单元120处,反射图像在反射部分处,并且控制显示单元120仅在确定视觉元素将被显示在与用户的面部的反射图像相对应的区域处时,显示具有模糊区域的视觉元素。
在这些实施例中,控制单元130还可以被配置为基于用户相对于镜组件100的位置,确定显示单元120上与用户的面部的反射图像相对应的区域。如下面将关于传感器单元140解释的,用户相对于镜组件100的位置可以由设置在镜组件100中的位置传感器单元检测。此外,在其中一些实施例中,控制单元130可以被配置为基于用户头部的取向,确定显示单元120上与用户的面部的反射图像相对应的区域。在这些实施例中,用户头部的取向可以由取向传感器单元(在本实施例中可以设置为传感器单元140的子单元)确定。
在一些实施例中,控制单元130还可以被配置为,在确定显示单元120上与用户的面部的反射图像相对应的区域之后,在所确定的区域处显示视觉元素或模糊效果元素。
控制单元130可以包括被配置为或编程为以本文所述的方式控制装置10的一个或多个处理器、处理单元、多核处理器或模块。在特定实施方式中,控制单元130可以包括多个软件和/或硬件模块(例如图像分析软件),每个模块分别被配置为或用于执行本文所描述方法的各个或多个步骤。
控制单元130可以用软件和/或硬件以多种方式实现,以执行下文描述的各种功能。控制单元130可包括一个或多个微处理器或数字信号处理器(DSP),这些微处理器或数字信号处理器(DSP)可以用软件或计算机程序代码编程,以执行所需功能和/或控制单元130的部件以实现所需功能。控制单元130可以实现为执行一些功能的专用硬件(例如,放大器、前置放大器、模数转换器(ADC)和/或数模转换器(DAC))和执行其它功能的处理器(例如一个或多个编程微处理器、控制器、DSP及相关电路)的组合。可以在本公开各实施例中采用的部件的示例包括但不限于常规微处理器、DSP、专用集成电路(ASIC)及现场可编程门阵列(FPGA)。
本实施例中的传感器单元140包括多个子单元(图中未示出)。这些子单元可以包括以下中的至少一个:距离传感器单元,被配置为检测用户与镜组件100之间的距离;光传感器单元,被配置为检测环境照明条件;位置传感器单元,被配置为确定用户相对于镜组件100的位置,以及取向传感器单元,被配置为检测用户头部的取向。在一些实施例中,传感器单元140可以实现为能够利用面部地标检测(Facial Landmark Detection,FLD)算法进行操作的相机。
在传感器单元140包括位置传感器单元的一些实施例中,控制单元130还可以被配置为基于用户相对于镜组件100的位置,确定显示单元120的与用户视场相对应的区域,并且控制显示单元120在与用户视场相对应的区域中显示视觉元素或模糊效果元素。
在一些实施例中,镜组件100还可以包括至少一个用户接口。备选地或附加地,至少一个用户接口可以位于镜组件100外部(即与镜组件100分离或远离镜组件100)。用户接口可以被配置为接收用户输入。例如,用户接口可以允许镜组件100的用户手动输入指令、数据或信息。在这些实施例中,控制单元130可以被配置为从一个或多个用户接口获取用户输入。
用户接口可以是能够向镜组件100的用户呈现(或输出或显示)信息的任何用户接口。备选地或附加地,用户接口可以是使得镜组件100的用户能够提供用户输入、与镜组件100交互和/或控制镜组件100的任何用户接口。例如,用户接口可以一个或多个开关、一个或多个按钮、小键盘、触摸屏或应用(例如平板电脑或智能电话上)、显示屏、图形用户接口(GUI)或其它视觉渲染部件,一个或多个扬声器、一个或多个麦克风或任何其它音频部件、一个或多个灯、提供触觉反馈(例如振动功能)的部件或任何其它用户接口或用户接口的组合。在一些实施例中,镜组件100的显示单元120可以实现为用户接口的一部分。
应当理解的是,图1A和图1B仅示出说明镜组件100的一个方面所必需的部件,但是在实际实施中,镜组件100可以包括除所示部件之外的备选或附加部件。例如,镜组件可以包括用于连接电源或电池的装置,以向镜组件100供电。
图2示出用于在图1A和图1B的显示单元处显示视觉元素和模糊效果元素中的至少一种元素的方法。该方法一般可以由镜组件100的控制单元130执行,或镜组件100的控制单元130的控制下执行。
参考图2,在框202处,接收显示视觉元素的指令或显示模糊效果元素的指令。具体地,在控制单元130处接收指令。在一些实施例中,指令可以经由镜组件100的用户接口接收。例如,可以基于用户经由用户接口选择的操作模式,在控制单元130处生成指令。更详细地,在一些实施例中,用户可以选择“引导模式”,在该模式下,在显示单元120处显示视觉引导覆盖,以突出显示用户的反射图像的一部分(例如用户的面部的特定部分),从而提供对于将由用户执行的个人护理活动的引导。在这种情况下,生成显示模糊效果元素的指令,并且随后由镜组件100的控制单元130接收该指令。
返回图2,在块204处,在控制单元130处确定针对视觉元素的模糊区域或模糊效果元素的运动轨迹。该确定是基于在框202处所接收的指令是与视觉元素的显示相关还是与模糊效果元素的显示相关。在一些实施例中,该方法还可以包括基于在框202处所接收的指令来确定模糊区域或模糊效果元素的大小。在一些实施例中,对模糊区域或模糊效果元素的大小的确定还可以基于用户与镜组件100之间的距离。此外,在一些实施例中,该方法还可以包括基于在框202处所接收的指令来调整视觉元素的大小。
返回图2,在框206处,控制镜组件100的显示单元120以显示在框204处确定的具有模糊区域的视觉元素、或显示在框204处确定的运动轨迹中的模糊效果元素。在用户视场中显示视觉元素或模糊效果元素。如上文参考图1所述,在一些实施例中,显示单元120可以由控制单元130控制,以在与用户的面部的反射图像相对应的区域处显示视觉元素或模糊效果元素。该区域可以由控制单元130例如基于用户头部的取向来确定。
在一些实施例中,该方法还可以包括接收用户的瞳孔直径。在这些实施例中,在框204处确定针对视觉元素的模糊区域可以包括由控制单元130基于所接收的用户的瞳孔直径来确定模糊区域。此外,在这些实施例中,该方法还可以包括在控制单元130接收用户的瞳孔直径之前由传感器单元140检测用户的瞳孔直径。
在一些实施例中,该方法还可以包括接收用户与镜组件100之间的距离。在这些实施例中,在框204处确定针对视觉元素的模糊区域可以包括由控制单元130基于所接收的用户与镜组件100之间的距离来确定模糊区域。此外,在这些实施例中,该方法还可以包括在控制单元130接收用户与镜组件100之间的距离之前由传感器单元140检测或确定用户与镜组件100之间的距离。
在一些实施例中,该方法还可以包括接收指示待突出显示的用户的反射图像的一部分的信息。该信息可以经由用户输入来接收。在这些实施例中,在框204处确定模糊效果元素的运动轨迹可以包括基于所接收的指示待突出显示的用户的反射图像的一部分的信息来确定运动轨迹。
图3是根据一个实施例的由用户10使用期间的镜组件300的透视图,并且图4A至图4D是图3的镜组件300在使用期间的俯视示意图。图3的镜组件300与图1A和图1B中所示的镜组件类似,也包括反射部分310、显示单元320和控制单元(图中未示出)。此外,传感器单元340被实现为相机,相机的镜头被布置在镜组件300的顶部。
如图3所示,在镜组件300使用期间,用户10可以将自己定位在镜组件300的反射部分310前方,该反射部分通常被安装在梳妆台或浴室中的水槽上方。在本实施例中,显示单元320与反射部分310完全重叠(例如,这在图4A中更明确地示出),并且显示单元320被配置为显示包括直接位于反射部分310后方的(一个或多个)视觉元素和/或模糊效果元素的部件。视觉元素的示例在图3中示出,其中显示出与用户的面部的反射图像的位置相对应的视觉覆盖面部轮廓322。换句话说,从用户10的角度来看,视觉覆盖面部轮廓322将覆盖用户的面部的反射图像。此外,可以在显示单元320处显示附加信息作为另一视觉元素,诸如与使用信息有关的曲线图324。
如图4A所示,在顶视图中示出镜组件300的反射部分310、显示单元320和传感器单元340。如上所述,传感器单元340被实现为相机,从用户10的角度来看,该相机被直接地布置在反射部分310和显示单元320后方。传感器单元340的水平视场12也在图4A中示出。
图4B至图4D示出用户10的反射图像14的对应位置,其中可以看到用户10相对于镜组件300位于不同位置。因此,在每种情况下,用户的反射图像14也相应地定位。为了清楚地示出这些对应位置,图4B至图4D中省略了传感器单元340,并且镜组件300在这些附图中作为整体进行标识。
从图4C可以看出,在一些情况下,用户10可以将自己定位在镜组件前方,使得用户投影范围区域16基本上对应于镜组件300的表面区域。另一方面,如图4B和图4D中所示,用户10还可以将自己定位为使得沿镜组件300所在平面,仅部分投影范围区域16对应于镜组件300的表面区域。该投影范围区域16可以被认为是显示单元320上与用户视场相对应的区域。因此,本实施例中的镜组件300的控制单元可以被配置为控制显示单元320在与用户视场相对应的区域中显示视觉元素或模糊效果元素。这种控制可以以动态方式执行,使得当用户10相对于镜组件300移动时,可以实时调整在显示单元320处显示视觉元素或模糊效果元素的位置。
图6A和图6B中提供了在镜组件300的显示单元320处与模糊区域一起显示的视觉元素326的示例。图7A和图7B中也提供了在运动轨迹中显示模糊效果元素、以形成用于突出用户的面部一部分的引导覆盖328的示例。在这些示例的每一个示例中,视觉元素或引导覆盖328在显示单元320处与诸如与使用信息有关的图形324的附加信息一起显示。
图5A和图5B示出用户与图3的镜组件300之间的距离和用户与用户的反射图像之间的焦距之间的关系,并且图5C是表示模糊圆的大小与距焦点的距离之间的关系的三维锥形图。
如图5A和图5B所示,用户10与反射部分310之间的距离被标记为Z1,而用户10与用户的反射图像14之间的距离(以及进而用户观察反射图像的焦距)被标记为Z0。
在本实施例中,用户10与反射部分310之间的距离等于用户10与镜组件之间的距离。因此,在这种情况下,Z1和Z0的关系可以由下述等式表示:Z0=2Z1。这是因为用户10与反射图像14之间的焦距等于用户10与镜组件之间的距离加反射部分310与反射图像14之间的距离之和,并且反射部分310与反射图像14之间的距离等于用户10与镜组件之间的距离。因此,在本实施例中,镜组件的控制单元可以根据等式Z0=2Z1,基于用户10与镜组件300之间的距离,确定用户10与用户的反射图像14之间的焦距。用户10与镜组件300之间的距离可以由传感器单元340检测或确定,或者经由用户接口处的用户输入接收。
作为示例,针对一般使用,用户10与镜组件300之间的典型距离大约为50cm。在该特定示例中,用户10与显示单元320上显示的信息(例如视觉元素)之间的焦距约为50cm,而用户10与反射图像14之间的焦距约为100cm。
由于在该实施例中,显示单元320上显示的信息将显示在用户的反射图像14的焦距的约一半距离处,当用户的焦点位于其反射图像14上时,显示信息看起来更小,而当用户的焦点位于显示信息上时,显示信息看起来更大。因此,在一些实施例中,当用户的焦点位于其反射图像14上时,模糊区域、视觉元素和/或模糊效果元素的大小以由用户进行大小感知的方式来确定。
如图5A、图5B和图5C所示,为了在这种情况下显示具有与用户的面部的反射图像重叠的模糊区域的视觉元素,模糊区域D’应当与从反射部分310所在平面处的散焦模糊角β得出的模糊圆直径D相对应。图5C还在图中示出用户的模糊角β,其中示出了模糊角β与模糊圆或“散光圆”区域的直径D的关系。此外,图中所示的锥形形状示出模糊圆的大小如何随着距焦点的距离增加而增加。
与用户的当前焦距相比更短焦距处的物体感知光学模糊(散焦模糊)程度可以近似为瞳孔直径的系数。具体地,感知光学模糊程度可以由下述等式(1)近似得出,其中β表示模糊角,A表示用户的瞳孔直径,Z1表示用户10与镜组件之间的距离,并且Z0表示用户10与反射图像14之间的焦距:
此外,假设用户10与镜组件之间的距离等于反射部分310与反射图像14之间的距离,则模糊区域直径D、模糊角β和用户10与镜组件之间的距离Z1之间的关系可以由下述等式(2)表示:
D=β·z1 (2)
下面的表1包括镜组件通用的一些典型距离及其相关的模糊角β和模糊区域直径D。在这种情况下,用户10与镜组件之间的距离Z1和模糊角β彼此补偿,使得模糊区域直径D保持恒定。
Z<sub>1</sub>(m) | Z<sub>0</sub>(m) | A(m) | β(弧度) | D(m) |
0.5 | 1.0 | 0.004 | 0.004 | 0.002 |
0.4 | 0.8 | 0.004 | 0.005 | 0.002 |
0.3 | 0.6 | 0.004 | 0.007 | 0.002 |
0.2 | 0.4 | 0.004 | 0.010 | 0.002 |
0.1 | 0.2 | 0.004 | 0.020 | 0.002 |
表1——根据等式(1)和(2)的Z1、Z0、A、β和D之间的关系。
对于Z0的值为1m,Z1的值为0.5m,并且使用4mm的典型瞳孔直径(在人工照明下,例如在浴室中)的示例性场景,角视场β为0.004弧度,模糊区域的直径D为0.002m。在一些实施例中,可以将针对视觉元素的模糊区域D’确定为D的系数而不是D本身,例如0.004m或0.008m,而不是0.002m。例如,与D相乘以获得模糊区域D’的系数可以是基于用户与镜组件之间的距离。在一些实施例中,可以基于由相关视觉元素传递的信息类型来确定该系数,因为传递一些类型的信息可能比传递其它类型的信息期望的模糊度更高(例如指示涂抹面霜的位置与鬓角燃修剪引导)。
由于在这种情况下,模糊区域的直径对应于散焦模糊程度,因此不存在急剧触发人类视觉系统而导致焦点转换的情况。因此,用户能够将显示的具有模糊区域的视觉元素与反射图像一起感知为单个合并图像。此外,例如当用户移动得更靠近或更远离镜组件时,可以基于用户与镜组件之间的距离,利用上文中提供的(一个或多个)等式进一步动态地调整模糊区域的大小。
尽管上文中描述了在本实施例中,用户10与反射部分310之间的距离等于用户10与镜组件300之间的距离,但应当理解的是,在替代实施例中,反射部分可以不设置在镜组件使得两个距离相等。在这些实施例中,基于反射部分和显示单元在镜组件中的物理布置以及用户相对于镜组件的位置,可以(通过控制单元)分别独立地确定用户与显示的信息之间的距离以及用户与反射图像之间的焦距。例如,如果显示单元被放置在镜组件300内离反射部分310更靠后的位置,显示的(一个或多个)视觉元素和/或(一个或多个)模糊效果元素将被放置在大于Z1(且小于Z0)的距离处。
图8A至图8C示出根据一个实施例的模糊效果元素810的运动轨迹812,运动轨迹与镜组件的显示单元处的用户的反射图像重叠。如图8A至图8C所示,在这种情况下,由控制单元确定的运动轨迹812会遵循三角形形状,部分地覆盖用户的面部的反射图像14,以突出显示用户的面部的特定的一部分。具体地,在本实施例中,基于指示待突出显示用户右脸颊的信息来确定运动轨迹812。
更详细地,图8A示出第一状态,其中模糊效果元素810处于沿所确定的运动轨迹812的第一位置,图8B示出第二状态,其中模糊效果元素810处于沿所确定的运动轨迹812的第二位置,并且图8C示出第三状态,其中模糊效果元素810处于沿所确定的运动轨迹812的第三位置。在该示例中,运动轨迹812是环形轨迹,使得在显示单元处,模糊效果元素810可以在运动轨迹中连续显示,直到控制单元接收到进一步指令。模糊效果元素810的运动允许例如在执行个人护理活动时,在镜组件处向用户提供更精确的引导,而不触发用户在显示信息与其自身的反射图像14之间重新聚焦。通过在图8A至图8C中移动模糊效果元素810实现的显示覆盖的动画将容易地被人类观察者(例如用户)理解为与视场中用户的面部的反射图像合并为单个图像的清楚限定边界或区域,并且如用户感知的显示覆盖820在图8D中示出。这与图8E中所示的具有模糊区域的非移动显示覆盖822形成对比。
尽管上文中描述了运动轨迹812遵循三角形形状,但是应当理解的是,在备选实施例中,根据待突出显示的用户的面部的一部分不同,所确定的运动轨迹可以遵循不同形状。例如,如果要突出显示的是用户的前额,则所确定的运动轨迹可以遵循椭圆形形状。运动轨迹所遵循的特定形状可以由镜组件的控制单元确定,或者经由镜组件处的用户接口作为用户输入接收。
因此,提供了一种克服了现有问题的改进镜组件和用于显示视觉元素和模糊效果元素中的至少一种元素的方法。
还提供了一种计算机程序产品,包括计算机可读介质,计算机可读介质具有实施在其中的计算机可读代码,计算机可读代码被配置为当在合适的计算机或处理器上执行时,使得计算机或处理器执行本文所述的一种或多种方法。因此,应当理解的是,本公开同样适用于计算机程序,特别是载体上或载体中的适用于将本公开实施例投入实践的计算机程序。程序可以是源代码、目标代码、代码中间源和诸如部分编译形式的目标代码的形式,或者适合于在本文描述的根据实施例的方法的实施方式中使用的任何其它形式。
还应当理解的是,此类程序可以具有许多不同的架构设计。例如,实现所述方法或系统的功能的程序代码可以被细分为一个或多个子例程,或者可以构造为具有分类的面向对象程序。功能在这些子例程之间的多种不同分布方式对于本领域技术人员来说将是明显的。子例程可以一起存储在一个可执行文件中以形成自包含程序。这种可执行文件可以包括计算机可执行指令,例如处理器指令和/或解释器指令(例如Java解释器指令)。备选地,一个或多个或全部子例程可以存储在至少一个外部库文件中,并且例如在运行期间静态地或动态地与主程序链接。主程序包含对至少一个子例程的至少一个调用。子例程还可以包括对彼此的函数调用。
涉及计算机程序产品的一个实施例包括与本文阐述的至少一种方法的每个处理阶段相对应的计算机可执行指令。这些指令可以细分为子例程和/或存储在可静态或动态链接的一个或多个文件中。涉及计算机程序产品的另一实施例包括与本文阐述的至少一种系统和/或产品的每个装置相对应的计算机可执行指令。这些指令可以细分为子例程和/或存储在可静态或动态链接的一个或多个文件中。
计算机程序的载体可以是能够携带该程序的任何实体或设备。例如,载体可以包括数据存储器,诸如ROM(例如CDROM或半导体ROM)或者磁记录介质(例如硬盘)。此外,载体可以是可传输载体,诸如电信号或光信号,其可以经由电缆或光缆或无线电或其它手段来传送。当程序包含在这种信号中时,载体可以由此类电缆或其它设备或装置构成。备选地,载体可以是嵌入程序的集成电路,该集成电路适用于执行相关方法或在相关方法的执行中使用。
在实践所要求保护的发明的过程中,通过学习附图、公开内容及所附权利要求,本领域技术人员对于所公开实施例的变型是可以理解并实现的。在权利要求中,“包括”一词不排除其它元件或步骤,不定冠词“一”或“一个”不排除多个。单个处理器或其它单元可以满足权利要求中所述的多项功能。某些措施被记载在相互不同的从属权利要求中的事实不指示这些措施的组合不能被用于获得优势。计算机程序可以存储/分布在适当的介质上,例如与硬件一起提供或作为其它硬件一部分提供的光存储介质或固态介质,但是也可以以其它形式分布,例如经由因特网或其它有线或无线远程通信系统。权利要求中的任何附图标记不应被理解为限制范围。
Claims (15)
1.一种镜组件(100、300),包括:
反射部分(110、310),被配置为反射入射光;
显示单元(120、320),被布置为与所述反射部分重叠,其中所述显示单元被配置为显示视觉元素和模糊效果元素中的至少一种元素;以及
控制单元(130),被配置为:
接收显示视觉元素的指令或显示模糊效果元素的指令;
基于所接收的指令,确定针对所述视觉元素的模糊区域或所述模糊效果元素的运动轨迹,其中所述模糊区域或所述模糊效果元素大于所述显示单元的显示分辨率;以及
控制所述显示单元在用户的视场中显示具有所确定的所述模糊区域的所述视觉元素、或者显示所确定的所述运动轨迹中的所述模糊效果元素。
2.根据权利要求1所述的镜组件(100),其中所述控制单元(130)还被配置为接收所述用户的瞳孔直径,并且其中基于所接收的所述用户的所述瞳孔直径,确定针对所述视觉元素的所述模糊区域。
3.根据权利要求2所述的镜组件(100),其中所述控制单元(130)还被配置为接收所述用户与所述镜组件之间的距离(Z1),并且其中基于所接收的所述用户与所述镜组件之间的距离,确定针对所述视觉元素的所述模糊区域。
4.根据权利要求3所述的镜组件(100),其中确定针对所述视觉元素的所述模糊区域包括:
基于所接收的所述用户与所述镜组件之间的距离(Z1),确定所述用户与在所述反射部分处的所述用户的反射图像之间的焦距(Z0);以及
基于以下信息确定针对所述视觉元素的所述模糊区域:所述用户与所述用户的所述反射图像之间的焦距,以及所接收的所述用户与所述镜组件之间的距离。
5.根据权利要求3或4所述的镜组件(100),还包括距离传感器单元,所述距离传感器单元被配置为检测所述用户与所述镜组件之间的距离。
6.根据前述任一项权利要求所述的镜组件(100),其中所述控制单元(130)还被配置为接收指示待突出显示的所述用户的所述反射图像的一部分的信息,并且基于所接收的指示待突出显示的所述用户的所述反射图像的一部分的信息,确定所述模糊效果元素的所述运动轨迹。
7.根据前述任一项权利要求所述的镜组件(100),其中所述控制单元(130)还被配置为基于环境照明条件来确定针对所述视觉元素的模糊区域。
8.根据前述任一项权利要求所述的镜组件(100),其中所述控制单元还被配置为:
确定所述视觉元素是否将被显示在所述显示单元(120)处与所述用户的面部的反射图像相对应的区域处,所述反射图像在所述反射部分处;以及
控制所述显示单元仅在确定所述视觉元素将被显示在与所述用户的所述面部的所述反射图像相对应的区域处时,显示具有所述模糊区域的所述视觉元素。
9.根据权利要求8所述的镜组件(100),还包括位置传感器单元,所述位置传感器单元被配置为确定所述用户相对于所述镜组件的位置,其中所述控制单元(130)还被配置为基于所确定的所述用户相对于所述镜组件的位置,确定在所述显示单元(120)处与所述用户的面部的所述反射图像相对应的区域。
10.根据权利要求8或9所述的镜组件(100),还包括取向传感器单元,所述取向传感器单元被配置为检测所述用户的头部的取向,其中所述控制单元(130)还被配置为基于所述用户的头部的取向,确定在所述显示单元处与所述用户的面部的所述反射图像相对应的区域。
11.一种用于在镜组件(100、300)的显示单元(120、320)处显示视觉元素和模糊效果元素中的至少一种元素的方法,所述方法包括:
接收(202)显示视觉元素的指令或显示模糊效果元素的指令;
基于所接收的指令,确定(204)针对所述视觉元素的模糊区域或所述模糊效果元素的运动轨迹,其中所述模糊区域或所述模糊效果元素大于所述显示单元的显示分辨率;以及
控制(206)所述显示单元在用户的视场中显示具有所确定的所述模糊区域的所述视觉元素,或者显示所确定的所述运动轨迹中的所述模糊效果元素。
12.根据权利要求11所述的方法,还包括接收所述用户的瞳孔直径,其中确定针对所述视觉元素的所述模糊区域包括基于所接收的所述用户的所述瞳孔直径来确定所述模糊区域。
13.根据权利要求11或12所述的方法,还包括接收所述用户与所述镜组件(100、300)之间的距离(Z1),其中确定针对所述视觉元素的所述模糊区域包括基于所接收的所述用户与所述镜组件之间的距离来确定所述模糊区域。
14.根据权利要求11至13中任一项所述的方法,还包括接收指示待突出显示的所述用户的反射图像的一部分的信息,其中确定所述模糊效果元素的所述运动轨迹包括基于所接收的指示待突出显示的所述用户的所述反射图像的一部分的信息来确定所述运动轨迹。
15.一种计算机程序产品,包括计算机可读介质,所述计算机可读介质具有实施在其中的计算机可读代码,所述计算机可读代码被配置为当在合适的计算机或处理器上执行时,使得所述计算机或处理器执行根据权利要求11至14中任一项所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18214197.8A EP3669748A1 (en) | 2018-12-19 | 2018-12-19 | A mirror assembly |
EP18214197.8 | 2018-12-19 | ||
PCT/EP2019/085545 WO2020127195A1 (en) | 2018-12-19 | 2019-12-17 | A mirror assembly |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113242709A true CN113242709A (zh) | 2021-08-10 |
CN113242709B CN113242709B (zh) | 2024-06-21 |
Family
ID=64746251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980083212.1A Active CN113242709B (zh) | 2018-12-19 | 2019-12-17 | 镜组件 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210398251A1 (zh) |
EP (2) | EP3669748A1 (zh) |
JP (1) | JP2022514599A (zh) |
CN (1) | CN113242709B (zh) |
WO (1) | WO2020127195A1 (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013186827A (ja) * | 2012-03-09 | 2013-09-19 | Konica Minolta Inc | 操作装置 |
US20130335303A1 (en) * | 2012-06-14 | 2013-12-19 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
CN103597405A (zh) * | 2011-08-24 | 2014-02-19 | 奥林巴斯医疗株式会社 | 摄像装置和摄像装置系统 |
CN104977777A (zh) * | 2010-06-30 | 2015-10-14 | 富士胶片株式会社 | 摄像装置及摄像方法 |
US20160358582A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Display system for enhancing visibility and methods thereof |
CN106416225A (zh) * | 2014-05-30 | 2017-02-15 | 通用电气公司 | 远程视觉检查图像捕获系统和方法 |
WO2017108700A1 (en) * | 2015-12-24 | 2017-06-29 | Unilever Plc | Augmented mirror |
WO2018070106A1 (ja) * | 2016-10-14 | 2018-04-19 | パナソニックIpマネジメント株式会社 | バーチャルメイクアップ装置及びバーチャルメイクアップ方法 |
CN108778085A (zh) * | 2016-03-09 | 2018-11-09 | 索尼公司 | 图像处理设备、内窥镜手术系统以及图像处理方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3779620B2 (ja) * | 2002-01-17 | 2006-05-31 | コナミ株式会社 | 画像処理プログラム |
KR101363691B1 (ko) * | 2006-01-17 | 2014-02-14 | 가부시키가이샤 시세이도 | 메이크업 시뮬레이션 시스템, 메이크업 시뮬레이션 장치,메이크업 시뮬레이션 방법 및 메이크업 시뮬레이션프로그램 |
US20120206782A1 (en) * | 2011-02-16 | 2012-08-16 | Hong Kong Applied Science and Technology Research Institute Company Limited | Device for reducing speckle effect in a display system |
US9323325B2 (en) * | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
JP6396890B2 (ja) * | 2013-04-08 | 2018-09-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | メイクアップ塗材が塗布された状態を仮想的に再現することができる画像処理装置、画像処理方法、プログラム |
JP6102602B2 (ja) * | 2013-07-23 | 2017-03-29 | ソニー株式会社 | 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置 |
CN105850120B (zh) * | 2014-01-24 | 2017-11-10 | 奥林巴斯株式会社 | 立体内窥镜图像处理装置 |
EP3394712B1 (en) * | 2015-12-24 | 2019-06-05 | Unilever Plc. | Augmented mirror |
WO2017108702A1 (en) * | 2015-12-24 | 2017-06-29 | Unilever Plc | Augmented mirror |
WO2017108703A1 (en) * | 2015-12-24 | 2017-06-29 | Unilever Plc | Augmented mirror |
JP2017224130A (ja) * | 2016-06-15 | 2017-12-21 | 株式会社桃谷順天館 | メイクアップ用画像処理方法、メイクアップ用画像処理装置、及びメイクアップ用画像処理プログラム |
JP2017221364A (ja) * | 2016-06-15 | 2017-12-21 | 株式会社桃谷順天館 | メイクアップ補助具 |
EP3301543A1 (en) * | 2016-09-30 | 2018-04-04 | Nokia Technologies OY | Selectively reducing reflectivity of a display |
EP3642692B1 (en) * | 2017-06-30 | 2021-10-13 | Huawei Technologies Co., Ltd. | System and method for interacting with a user via a mirror |
JP2019015575A (ja) * | 2017-07-05 | 2019-01-31 | 株式会社東芝 | 画像処理装置、測距装置および処理システム |
EP3462410A1 (en) * | 2017-09-29 | 2019-04-03 | Thomson Licensing | A user interface for manipulating light-field images |
-
2018
- 2018-12-19 EP EP18214197.8A patent/EP3669748A1/en not_active Withdrawn
-
2019
- 2019-12-17 US US17/288,681 patent/US20210398251A1/en active Pending
- 2019-12-17 WO PCT/EP2019/085545 patent/WO2020127195A1/en unknown
- 2019-12-17 JP JP2021535500A patent/JP2022514599A/ja active Pending
- 2019-12-17 EP EP19817782.6A patent/EP3897347B1/en active Active
- 2019-12-17 CN CN201980083212.1A patent/CN113242709B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104977777A (zh) * | 2010-06-30 | 2015-10-14 | 富士胶片株式会社 | 摄像装置及摄像方法 |
CN103597405A (zh) * | 2011-08-24 | 2014-02-19 | 奥林巴斯医疗株式会社 | 摄像装置和摄像装置系统 |
JP2013186827A (ja) * | 2012-03-09 | 2013-09-19 | Konica Minolta Inc | 操作装置 |
US20130335303A1 (en) * | 2012-06-14 | 2013-12-19 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
CN106416225A (zh) * | 2014-05-30 | 2017-02-15 | 通用电气公司 | 远程视觉检查图像捕获系统和方法 |
US20160358582A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Display system for enhancing visibility and methods thereof |
WO2017108700A1 (en) * | 2015-12-24 | 2017-06-29 | Unilever Plc | Augmented mirror |
CN108778085A (zh) * | 2016-03-09 | 2018-11-09 | 索尼公司 | 图像处理设备、内窥镜手术系统以及图像处理方法 |
WO2018070106A1 (ja) * | 2016-10-14 | 2018-04-19 | パナソニックIpマネジメント株式会社 | バーチャルメイクアップ装置及びバーチャルメイクアップ方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210398251A1 (en) | 2021-12-23 |
JP2022514599A (ja) | 2022-02-14 |
EP3897347A1 (en) | 2021-10-27 |
EP3669748A1 (en) | 2020-06-24 |
WO2020127195A1 (en) | 2020-06-25 |
EP3897347B1 (en) | 2023-05-10 |
CN113242709B (zh) | 2024-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108700932B (zh) | 能够进行眼睛追踪的可穿戴设备 | |
EP2652940B1 (en) | Comprehension and intent-based content for augmented reality displays | |
US9292089B1 (en) | Gestural object selection | |
RU2672502C1 (ru) | Устройство и способ для формирования изображения роговицы | |
JP6731616B2 (ja) | バーチャルメイク装置、バーチャルメイク方法、およびバーチャルメイクプログラム | |
KR20190072519A (ko) | 안구-추적 애플리케이션들에 대한 센서 융합 시스템들 및 방법들 | |
CN109644235B (zh) | 用于提供混合现实图像的方法、设备和计算机可读介质 | |
US20140085189A1 (en) | Line-of-sight detection apparatus, line-of-sight detection method, and program therefor | |
KR20240091224A (ko) | 사용자의 표현을 생성 및 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 | |
US20230290082A1 (en) | Representation of users based on current user appearance | |
US10928894B2 (en) | Eye tracking | |
US7283106B2 (en) | Time-lapsing mirror | |
CN113242709B (zh) | 镜组件 | |
JP2015103991A (ja) | 画像処理装置、方法およびコンピュータプログラム | |
US11543655B1 (en) | Rendering for multi-focus display systems | |
KR20070048759A (ko) | 저속 촬영 미러 | |
Jang et al. | Focused augmented mirror based on human visual perception | |
US20220148720A1 (en) | A projection and measurement system | |
US20080130148A1 (en) | Time-lapsing mirror | |
JP7238988B2 (ja) | 虹彩認証装置、虹彩認証方法、コンピュータプログラム及び記録媒体 | |
US20230351676A1 (en) | Transitioning content in views of three-dimensional environments using alternative positional constraints | |
WO2021249777A1 (en) | Providing augmented image feed | |
EP3903668A1 (en) | A system for providing guidance | |
US20230112939A1 (en) | A system for providing guidance | |
US20230244307A1 (en) | Visual assistance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |