CN112889350A - 用于人的解剖学部位以及这样的部位处的物品的识别和照亮的系统和处理 - Google Patents
用于人的解剖学部位以及这样的部位处的物品的识别和照亮的系统和处理 Download PDFInfo
- Publication number
- CN112889350A CN112889350A CN201980061221.0A CN201980061221A CN112889350A CN 112889350 A CN112889350 A CN 112889350A CN 201980061221 A CN201980061221 A CN 201980061221A CN 112889350 A CN112889350 A CN 112889350A
- Authority
- CN
- China
- Prior art keywords
- subject
- acquisition device
- optical image
- image acquisition
- computerized system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005286 illumination Methods 0.000 title claims abstract description 18
- 210000003484 anatomy Anatomy 0.000 title claims abstract description 12
- 238000000034 method Methods 0.000 title claims description 11
- 230000003287 optical effect Effects 0.000 claims abstract description 36
- 238000004891 communication Methods 0.000 claims abstract description 7
- 238000013473 artificial intelligence Methods 0.000 claims description 15
- 230000008921 facial expression Effects 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/66—Trinkets, e.g. shirt buttons or jewellery items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一种用于照亮主体(270)的解剖学部位(305、306)上的物品(280、307、308)的计算机化系统(100、200),该计算机化系统包括:光学图像获取设备(130、230),该光学图像获取设备用于获取主体(270)的光学图像;处理器模块(110、210),该处理器模块可操作地与光学图像获取设备(130、230)通信,用于从其中接收图像输入信号(135);以及一个或多个光源(150、252、254),该一个或多个光源可操作地与处理器模块(110、210)通信,用于照亮主体(270)的解剖学部位(305、306)。一个或多个光源(150、252、254)能由处理器模块(110、210)可控制地移动,处理器模块与图像输入信号(135)结合地向一个或多个光源(150、252、254)发送控制信号(155),以便与主体(270)的移动无关地保持主体(270)的解剖学部位(305、306)上的照亮。
Description
技术领域
本发明涉及一种用于人的解剖学部位以及这样的部位处的物品的识别和照亮的系统和处理。
背景技术
可穿戴物品的展示可以在销售点进行,诸如在展示柜或展示托盘中进行。
在一些销售环境中,可穿戴物品的展示可以通过人体模型来进行,以便通过处于解剖学定位并且参考可穿戴物品被穿戴的解剖学部位来向顾客展示该物品。
此外,在一些销售环境中,顾客可以在顾客自身的身体上穿戴可穿戴物品,以便给顾客关于该物品在穿戴时的外观以及是否被认为与顾客的心理感知兼容(关于该物品在审美上是否合适,因而是否购买该物品)的更真实的视觉外观。
经常提供一个或多个镜子以供顾客以不同角度观看所穿戴的物品,以便提供更全面的视图和视角。
可替选地,在销售或展示环境中,可穿戴物品可以由诸如时装业的模特人士穿着和展示,以供顾客或其他类型的消费者考虑。
发明内容
发明目标
本发明的目标在于提供一种识别和照亮人的解剖学部位以及这样的部位处的物品的系统和处理,其克服或改善了与现有技术相关联的至少一些缺陷。
发明概要
在第一方面,本发明提供了一种用于照亮主体上的解剖学部位上的物品的计算机化系统,该计算机化系统包括:光学图像获取设备,该光学图像获取设备用于获取主体的光学图像;处理器模块,该处理器模块可操作地与光学图像获取设备通信并其用于从其接收图像输入信号;以及一个或多个光源,该一个或多个光源可操作以与处理器模块通信,并用于照亮所述主体的解剖学部位,其中,所述一个或多个光源是由处理器可控制地可移动的;其中,处理器向所述一个或多个光源发送控制信号并与图像输入信号结合,以便与主体的移动无关地保持所述主体的所述解剖学部位上的所述照亮。
该系统可以通过以下来确定主体与光学获取设备之间的距离:通过与所述处理器可操作地通信的距离传感器;通过使用具有对于光学图像获取设备的主要偏移的另外的光学图像获取设备,并通过分析所捕获的图像之间的差异来计算深度信息;或者,通过使用被直接定位在光学图像获取设备顶部上或者在光学图像获取设备上的另外的光学图像获取设备,由此,通过测量主体和第一光学图像获取设备之间的像素数量来获得主体和第一光学图像获取设备之间的距离。
处理器可以通过利用物品的图像及其相关联数据的数据库进行分析来确定物品。处理器通过人工智能(AI)确定所述物品。
处理器可以通过解剖学辨识来确定主体上的解剖学定位以提供照亮。解剖学辨识可以通过面部辨识来进行。
该系统可以利用面部表情的光学辨识,以便断定有关于所述物品对主体的吸引力。
在第二方面,本发明提供了一种使用计算机化系统可操作的处理,该计算机化系统用于控制主体上的解剖学部位上的物品的照亮,该计算机化系统包括光学图像获取设备、处理器模块以及一个或多个光源,所述处理包括下列步骤:
使用光学图像获取设备获得主体的光学图像;和
向所述一个或多个光源发送控制信号,并与图像输入信号结合,以便与所述主体的移动无关地保持所述主体的所述解剖学部位上的所述照亮。
附图说明
为了能够获得对上述发明的更精确的理解,将通过参考在附图中示出的本发明的具体实施例来对上文简述的本发明进行更详细的说明。
图1示出了根据本发明的系统的示意性表示图;
图2a示出了本发明的第一实施例中的具有相机、深度传感器、带有致动器和镜子的光源的本发明的系统的透视图;
图2b示出了图2a的系统的俯视图;
图2c示出了图2a和图2b的系统的侧视图;
图3a示出了本发明的进一步实施例中的解剖学检测的示意性表示图,并且示出了通过将检测到的面部与标准缩放模板进行比较来估计项链位置;
图3b示出了根据参考图3a的实施例检测到的人的面部;
图4a示出了检测到的对象位置与所需致动器运动之间的关系;以及
图4b示出了逆运动学关系的推导。
具体实施方式
本发明提供了在用户身体上或用户所持有的物品上的可穿戴物品的照亮,并且对于顾客以及对于零售商的关于顾客在穿戴这样的物品时的响应性和接受度的市场情报都是有用的。
在本发明的系统和处理的实施方式中,顾客穿戴可穿戴物品,或者持有物品,并且可选地站在带有这样的物品的镜子或其他视觉显示单元的前面。
来自系统的一个或多个聚光灯突出显示了珠宝,珠宝可以是一件或多件珠宝,也可以是顾客身上穿戴的其他物品或顾客持有的物品。
系统检测穿戴在顾客身上或由顾客持有的物品的位置,并控制聚光灯的照亮的定位,以便即使顾客在四处移动和改变定位时也能跟踪和照亮物品。
用于照亮的物品
这样的可穿戴物品的示例包括珠宝物品,诸如指环、耳环、项链、手链、手镯。其他物品可以包括手表和钟表。
可替选地,其他适用的可穿戴物品可以包括人穿戴的衣物或配件。
此外,由顾客持有的物品可以是光学上可识别的任何这样的物品,诸如移动电话之类。
物品检测
在本发明的优选实施例中,可以通过人工智能(AI)系统识别物品:这样的AI系统的示例是“You only look once(YOLO)”,这是最先进的实时对象检测系统。它目前是免费的,并且只需改变模型的大小即可轻松实现速度与精度之间的权衡,而无需重新训练。应理解,也可以使用其他经训练的AI引擎或神经网络。
AI系统接受了数千张面部图像的训练,因此系统能够检测顾客的面部,他/她的面部表情并识别年龄段和性别。
系统可以通过检测微笑程度或指示对刺激的情绪响应的其他类型的面部表情来识别顾客对产品是否满意。
一旦AI系统在图像中识别出人的面部,这些面部就会被矩形覆盖,并且这样的矩形试图限制面部图像的边界。
矩形的坐标以及其他已识别的信息(诸如年龄、性别、情绪)和面部特征(诸如眼睛、耳朵、嘴巴、鼻子等)的坐标可以被输出到文本文件。
可以使用接受了成千上万的物品或产品图片的训练的AI引擎(可能是相同的或另一AI引擎),使得系统能够检测相同类型的物品或产品的品牌、类型、样式、颜色、大小和其他相关特性。
系统支持多个物品的对象检测。一旦AI系统在图像中识别了物品或对象,则对象被矩形覆盖。矩形试图限制对象的边界。矩形的坐标以及其他所识别的信息(诸如品牌、类型、样式、颜色、大小和其他相关特性)被输出到文本文件。
系统配置
参考图1,其示出了本发明的系统100的实施例,系统100包括处理器110,数据存储设备120,光学图像获取设备130,可选地一个或多个深度或距离传感器140以及一个或多个光源150。
可选地,如之后的实施例中所示,系统可以进一步包括镜子,镜子可以是普通的或单向镜子。
在本发明的广义形式中,图像获取设备130在关注区域(AOI)中检测人的图像,将人的信号135发送给处理器。
深度或距离传感器140或下面给出的其他处理或方法示例确定人或人的解剖学部位距基准点的距离,并将指示定位的信号145发送给处理器110。
处理器100将控制信号155发送到光源,控制信号155包括用于照亮的类型和水平的光信号以及用于将来自光源的照亮引导到人的必需定位或解剖学位置的致动信号,其可以被实时改变,因为光源150的方向可以改变以跟踪人。
数据存储设备120可选地允许存储数据,针对该数据进行所获取的图像和预先存在的图像之间的比较。其也可以是AI类型的模块等。
可以从输出信号165获取输出数据,诸如关于物品的信息,顾客经由面部表情的反应,穿戴时间或物品等的信息。
现在参考图2a、图2b和图2c,其中示出了本发明的系统200的第一实施例,系统200具有处理器210、数据存储设备220、作为相机的光学图像获取设备230(诸如CCD相机),两个深度或距离传感器240、244,以及两个光源252、254。
相机230被设置成使得其捕获镜子260前面的感兴趣区域(AOI)的图像,以用于之后的人或顾客270的面部以及对象280的检测。
为了确定顾客在系统中的参考定位,以便可以将光源适当地照在物品上,需要参考框架,并且为了方便起见,在本实施例中,其包括可选的镜子260,顾客270与镜子260之间的距离,作为示例,可以使用下列至少之一:
应理解,可以安装具有多个色温的多个光源252、254。通过使用不同的光源组合,可以实现下列目的:
每个光源252、254都可以被分别设置为开或关,并且每个光源252、254都安装有致动器,例如,两个旋转致动器,以控制其水平和垂直指向角。
如果顾客穿戴多件珠宝制品,则可以被分配至少一个光源252、254以指向每件珠宝。例如,如果顾客同时穿戴项链和戒指,则可以布置两个光源以指向项链,而另一个光源则指向戒指。
镜子260可以是普通的镜子或单向镜子。
在普通镜子260的情况下,需要相机230以使其不干扰,例如,可以将相机230安装在镜子260上方。
在单向镜子260的情况下,相机230可以被隐藏在镜子260的后面。优选地,相机230在大约眼睛水平处隐藏在单向镜子260的后面,这是因为面部检测在该角度是最准确的。
物品检测
然后将AI系统应用于检测是否有任何经训练的对象出现在经由主相机获得的实时视频流中,如图3a中所示。AI系统定位处于诸如人面部305a的耳朵、眼睛和嘴巴之类的具体特征的外围处的面部检测点309。
可以用经珠宝物品或产品(例如,图3a中的项链307a)训练的AI引擎直接检测珠宝位置。
作为替选,如图3b中所示,可以通过检测人面部305和手部306来估计珠宝的位置。在项链307的情况下,一旦检测到人面部305,就形成包围面部的矩形。可以通过将矩形与标准缩放面部模板进行比较来计算项链307的位置。
对于戒指308的情况,可以用手部306的位置代替戒指的位置。
取决于AI引擎的准确性和图像中的噪声,识别出的物品或对象的输出坐标可能短时间内会波动或丢失。2D不变卡尔曼滤波器的应用可以平滑噪声和不精确性,使得因此即使原始数据波动,输出坐标也稳定。
投影映射和逆运动学计算
投影映射和逆运动学计算可以用于补偿相机230与光源252、254致动器之间的未对准,并将在相机280图像中检测到的物品280或对象的坐标与光源252、254致动器的所需目的坐标相关联。
要生成投影变换矩阵,校准处理是有必要的。矩阵将出现在相机230图像中的四个校准点的像素坐标与四个相应的参考致动器坐标相关。
首先,通过精细命令调整将致动器移动到其中聚光灯与相机230图像的中心重叠的定位。该致动器定位被设为参考值。
然后命令致动器在正和负两个方向以及在水平和垂直两个方向上移动固定角度。这形成矩形。
然后,使相机图像中的像素中的矩形A、B、C和D的四个角的坐标与聚光灯/光源致动器的四个角A’、B’、C’和D’的坐标相关。
通过这些等式定义坐标的变换:
其中,
(xK,yK)是相机图像中的像素中的点的坐标,并且
(xK′,yK′)是相应致动器定位的坐标。
在矩阵形式中,
考虑将所有四个角(A,B,C,D)都映射到(A’,B’,C’,D’)
然后,可以通过求解8个联立方程来获得变换矩阵的系数。
在图4b中示出了相机图像中的像素中的距离△x和相应的致动器定位△θ之间的关系。这种关系为非线性的。
检测到的对象位置与所需致动器运动之间的关系
如图8所示,假设相机和光源之间的偏移为a,反光镜与对象之间的距离为b,则所需致动器定位△θ与对象和相机图像中心之间的距离△x之间的逆运动学关系可以被推导为
Δθ=tan-1(tanθ2-kx)+θ2
其中:
k是可以通过校准、调节或测量和计算获得的系数。
θ2是取决于相机和光源之间的偏移为a并且镜子与对象之间的距离为b的系数。
需要针对水平和垂直方向对两个单独的逆运动学公式进行校准。
编写了运动控制算法,以移动聚光灯从而交互地跟踪对象的运动。
系统进一步包括用户界面,操作者可以例如在软件界面中定制下列内容:
系统可以记录或输出大量数据,例如在评估特定物品或产品、偏好类别、热门商品等时,经由面部表情或听觉表示来记录顾客的行为,诸如年龄和性别、情绪,所有这些数据都可以用于销售分析。
这还可以帮助零售商跟踪或监视消费者或潜在顾客的购物行为,他们的兴趣水平以及特定产品或商品对他们的吸引力。
Claims (10)
1.一种用于照亮主体上的解剖学部位上的物品的计算机化系统,所述计算机化系统包括:
光学图像获取设备,所述光学图像获取设备用于获取主体的光学图像;
处理器模块,所述处理器模块可操作地与所述光学图像获取设备通信,并且用于从所述光学图像获取设备接收图像输入信号;以及
一个或多个光源,所述一个或多个光源可操作地与所述处理器模块通信,并且用于照亮所述主体的解剖学部位,其中,所述一个或多个光源是由所述处理器可控制地可移动的;
其中,所述处理器向所述一个或多个光源发送控制信号并且与所述图像输入信号结合,以便与所述主体的移动无关地保持所述主体的所述解剖学部位上的所述照亮。
2.根据权利要求1所述的计算机化系统,其中,所述系统通过可操作地与所述处理器通信的距离传感器来确定所述主体与所述光学获取设备之间的距离。
3.根据权利要求1所述的计算机化系统,其中,所述系统通过使用具有对于所述光学图像获取设备的主要偏移的另外的光学图像获取设备,并且通过分析捕获的所述图像之间的差异来计算深度信息,来确定所述主体与所述光学获取设备之间的距离。
4.根据权利要求1所述的计算机化系统,其中,所述系统通过以下来确定所述主体与所述光学获取设备之间的距离:使用被直接定位在所述光学图像获取设备顶部上或者在所述光学图像获取设备上的另外的光学图像获取设备,由此,通过测量所述主体和第一光学图像获取设备之间的像素数量来获得所述主体和所述第一光学图像获取设备之间的距离。
5.根据前述权利要求中的任一项所述的计算机化系统,其中,所述处理器通过利用物品的图像及其相关联数据的数据库进行分析来确定所述物品。
6.根据前述权利要求中的任一项所述的计算机化系统,其中,所述处理器通过人工智能(AI)来确定所述物品。
7.根据权利要求1至5中的任一项所述的计算机化系统,其中,所述处理器通过解剖学辨识来确定所述主体上的所述解剖学定位以提供照亮。
8.根据权利要求7所述的计算机化系统,其中,所述解剖学辨识通过面部辨识来进行。
9.根据前述权利要求中的任一项所述的计算机化系统,其中,所述系统利用面部表情的光学辨识,以便断定有关于所述物品对主体的吸引力。
10.一种使用计算机化系统可操作的处理,所述计算机化系统用于控制主体上的解剖学部位上的物品的照亮,所述计算机化系统包括光学图像获取设备、处理器模块以及一个或多个光源,所述处理包括下列步骤:
使用光学图像获取设备获得主体的光学图像;以及
向所述一个或多个光源发送控制信号,并且与图像输入信号结合,以便与所述主体的移动无关地保持所述主体的所述解剖学部位上的所述照亮。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
HK18111994.3 | 2018-09-18 | ||
HK18111994A HK1258099A2 (zh) | 2018-09-18 | 2018-09-18 | 用於識別和照亮人體部位以及在該部位上的物品的系統和方法 |
HK18114656.6 | 2018-11-15 | ||
HK18114656 | 2018-11-15 | ||
PCT/CN2019/106523 WO2020057570A1 (en) | 2018-09-18 | 2019-09-18 | System and process for identification and illumination of anatomical sites of a person and articles at such sites |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112889350A true CN112889350A (zh) | 2021-06-01 |
Family
ID=69888372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980061221.0A Pending CN112889350A (zh) | 2018-09-18 | 2019-09-18 | 用于人的解剖学部位以及这样的部位处的物品的识别和照亮的系统和处理 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210289113A1 (zh) |
EP (1) | EP3853768A4 (zh) |
CN (1) | CN112889350A (zh) |
WO (1) | WO2020057570A1 (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120206050A1 (en) * | 2002-07-12 | 2012-08-16 | Yechezkal Evan Spero | Detector Controlled Illuminating System |
CN106165536A (zh) * | 2014-02-25 | 2016-11-23 | 飞利浦灯具控股公司 | 用于无线控制联网光源的照明效果的方法和装置 |
CN106471795A (zh) * | 2014-05-12 | 2017-03-01 | 飞利浦灯具控股公司 | 使用从来自经调制的光源的光照所解码的时间戳捕获的图像的验证 |
JP2017148392A (ja) * | 2016-02-26 | 2017-08-31 | Hoya株式会社 | 計算システム |
US20170366798A1 (en) * | 2016-06-16 | 2017-12-21 | Samsung Electronics Co., Ltd. | Image detecting device and image detecting method using the same |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4067015A (en) * | 1975-07-11 | 1978-01-03 | The United States Of America As Represented By The National Aeronautics And Space Administration | System and method for tracking a signal source |
US5023709A (en) * | 1989-11-06 | 1991-06-11 | Aoi Studio Kabushiki Kaisha | Automatic follow-up lighting system |
US6079862A (en) * | 1996-02-22 | 2000-06-27 | Matsushita Electric Works, Ltd. | Automatic tracking lighting equipment, lighting controller and tracking apparatus |
US6278542B1 (en) * | 1998-11-23 | 2001-08-21 | Light And Sound Design Ltd. | Programmable light beam shape altering device using separate programmable micromirrors for each primary color |
JP2002064737A (ja) * | 2000-08-23 | 2002-02-28 | Rekoode Onkyo:Kk | 自動探査追尾式カメラシステム |
CA2348212A1 (en) * | 2001-05-24 | 2002-11-24 | Will Bauer | Automatic pan/tilt pointing device, luminaire follow-spot, and 6dof 3d position/orientation calculation information gathering system |
AU2003301043A1 (en) * | 2002-12-13 | 2004-07-09 | Reactrix Systems | Interactive directed light/sound system |
JP4238042B2 (ja) * | 2003-02-07 | 2009-03-11 | 住友大阪セメント株式会社 | 監視装置および監視方法 |
US8031227B2 (en) * | 2005-03-07 | 2011-10-04 | The Regents Of The University Of Michigan | Position tracking system |
US8102465B2 (en) * | 2006-11-07 | 2012-01-24 | Fujifilm Corporation | Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject |
EP2017526A1 (en) * | 2007-06-13 | 2009-01-21 | Royal College Of Art | Directable light |
JP5163164B2 (ja) * | 2008-02-04 | 2013-03-13 | コニカミノルタホールディングス株式会社 | 3次元計測装置 |
WO2010088440A1 (en) * | 2009-01-29 | 2010-08-05 | William Connor Delzell | System and method for obtaining photographic and/or videographic images |
KR20100031711A (ko) * | 2010-03-04 | 2010-03-24 | 김형주 | 인터넷을 이용한 원격 보석감정 및 명품시계감별 시스템 |
US8917905B1 (en) * | 2010-04-15 | 2014-12-23 | Don K. Dill | Vision-2-vision control system |
US9526156B2 (en) * | 2010-05-18 | 2016-12-20 | Disney Enterprises, Inc. | System and method for theatrical followspot control interface |
US11430561B2 (en) * | 2010-06-07 | 2022-08-30 | Affectiva, Inc. | Remote computing analysis for cognitive state data metrics |
US20150186912A1 (en) * | 2010-06-07 | 2015-07-02 | Affectiva, Inc. | Analysis in response to mental state expression requests |
US9055226B2 (en) * | 2010-08-31 | 2015-06-09 | Cast Group Of Companies Inc. | System and method for controlling fixtures based on tracking data |
JP2014009975A (ja) * | 2012-06-28 | 2014-01-20 | Hitachi Automotive Systems Ltd | ステレオカメラ |
JP2014010089A (ja) * | 2012-06-29 | 2014-01-20 | Ricoh Co Ltd | 測距装置 |
JP2014202661A (ja) * | 2013-04-08 | 2014-10-27 | 株式会社リコー | 測距装置 |
AU2014331746A1 (en) * | 2013-10-10 | 2016-05-05 | Digital Lumens Incorporated | Methods, systems, and apparatus for intelligent lighting |
CN103679203B (zh) * | 2013-12-18 | 2015-06-17 | 江苏久祥汽车电器集团有限公司 | 机器人的人脸检测与情感识别系统及方法 |
US9706622B2 (en) * | 2014-05-16 | 2017-07-11 | Musco Corporation | Sports lighting to increase contrast of an aerial sports object relative to background |
US9921058B2 (en) * | 2014-05-19 | 2018-03-20 | Stmicroelectronics International N.V. | Tracking dynamic on-stage objects |
US20160103200A1 (en) * | 2014-10-14 | 2016-04-14 | Telemetrics Inc. | System and method for automatic tracking and image capture of a subject for audiovisual applications |
WO2016206991A1 (en) * | 2015-06-23 | 2016-12-29 | Philips Lighting Holding B.V. | Gesture based lighting control |
EP3316006B1 (en) * | 2015-06-23 | 2020-12-09 | KYOCERA Corporation | Three-dimensional-object detection device, stereo camera device, vehicle, and three-dimensional-object detection method |
CN106295573A (zh) * | 2016-08-12 | 2017-01-04 | 太仓市普利照明电器有限公司 | 一种便捷型人脸识别照明系统 |
CN206449532U (zh) * | 2016-10-28 | 2017-08-29 | 江苏中标节能科技发展股份有限公司 | 人面识别系统及智能路灯 |
CN206195921U (zh) * | 2016-11-11 | 2017-05-24 | 浙江树人大学 | 一种移动目标人脸虹膜抓拍装置 |
US10393355B2 (en) * | 2017-03-02 | 2019-08-27 | International Business Machines Corporation | Lighting pattern optimization for a task performed in a vicinity |
US10678220B2 (en) * | 2017-04-03 | 2020-06-09 | Robe Lighting S.R.O. | Follow spot control system |
CN107846762A (zh) * | 2017-10-25 | 2018-03-27 | 北京小米移动软件有限公司 | 一种照明灯的控制方法和装置 |
CN111095334B (zh) * | 2017-10-31 | 2023-11-14 | 三星电子株式会社 | 用于执行查看者注视分析的装置和方法 |
CN108460377A (zh) * | 2018-01-19 | 2018-08-28 | 深圳市中科智诚科技有限公司 | 一种识别精度高的智能型人脸识别设备 |
CN108198221A (zh) * | 2018-01-23 | 2018-06-22 | 平顶山学院 | 一种基于肢体动作的舞台灯光自动跟踪系统及方法 |
GB201817018D0 (en) * | 2018-10-18 | 2018-12-05 | Carty Yvonne | Systems and methods for processing data based on acquired properties of a target |
US11354924B1 (en) * | 2021-05-17 | 2022-06-07 | Vr Media Technology, Inc. | Hand recognition system that compares narrow band ultraviolet-absorbing skin chromophores |
CN215722723U (zh) * | 2021-06-08 | 2022-02-01 | 中山市胜旺照明电器有限公司 | 一种导轨灯 |
-
2019
- 2019-09-18 CN CN201980061221.0A patent/CN112889350A/zh active Pending
- 2019-09-18 US US17/277,567 patent/US20210289113A1/en not_active Abandoned
- 2019-09-18 EP EP19862480.1A patent/EP3853768A4/en not_active Withdrawn
- 2019-09-18 WO PCT/CN2019/106523 patent/WO2020057570A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120206050A1 (en) * | 2002-07-12 | 2012-08-16 | Yechezkal Evan Spero | Detector Controlled Illuminating System |
CN106165536A (zh) * | 2014-02-25 | 2016-11-23 | 飞利浦灯具控股公司 | 用于无线控制联网光源的照明效果的方法和装置 |
CN106471795A (zh) * | 2014-05-12 | 2017-03-01 | 飞利浦灯具控股公司 | 使用从来自经调制的光源的光照所解码的时间戳捕获的图像的验证 |
JP2017148392A (ja) * | 2016-02-26 | 2017-08-31 | Hoya株式会社 | 計算システム |
US20170366798A1 (en) * | 2016-06-16 | 2017-12-21 | Samsung Electronics Co., Ltd. | Image detecting device and image detecting method using the same |
Also Published As
Publication number | Publication date |
---|---|
EP3853768A4 (en) | 2022-06-15 |
WO2020057570A1 (en) | 2020-03-26 |
US20210289113A1 (en) | 2021-09-16 |
EP3853768A1 (en) | 2021-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11819108B2 (en) | Smart mirror system and methods of use thereof | |
US11450075B2 (en) | Virtually trying cloths on realistic body model of user | |
US11908052B2 (en) | System and method for digital makeup mirror | |
US9369638B2 (en) | Methods for extracting objects from digital images and for performing color change on the object | |
US20200336705A1 (en) | Smart mirror system and methods of use thereof | |
US8982110B2 (en) | Method for image transformation, augmented reality, and teleperence | |
KR102506341B1 (ko) | 거울을 가상화하는 디바이스들, 시스템들 및 방법들 | |
US9357613B2 (en) | Display and lighting arrangement for a fitting room | |
Poppe et al. | AMAB: Automated measurement and analysis of body motion | |
US20140225977A1 (en) | Devices, systems and methods of virtualizing a mirror | |
JP4069932B2 (ja) | 人間検知装置および人間検知方法 | |
CN107004279A (zh) | 自然用户界面相机校准 | |
WO2017012969A1 (en) | Device and method for determining a position of a mobile device in relation to a subject | |
EP3062195A1 (en) | Interactive mirror | |
JP2022513800A (ja) | 物体追跡アニメ人物システム及び方法 | |
CN112889350A (zh) | 用于人的解剖学部位以及这样的部位处的物品的识别和照亮的系统和处理 | |
JP2020122681A (ja) | 情報システムおよび特定方法 | |
KR102477231B1 (ko) | 응시 대상 관심도 검출 장치 및 방법 | |
US10496873B2 (en) | Body information analysis apparatus and method of detecting face shape by using same | |
JP2023550427A (ja) | 被験者の関心領域の評価 | |
JP2019191620A (ja) | 商品選択支援システム、装置、方法及びプログラム | |
CN109952589A (zh) | 用于有针对性地向人提供信息的系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40044870 Country of ref document: HK |
|
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210601 |