CN113126768A - 显示控制方法、装置、系统、设备以及存储介质 - Google Patents
显示控制方法、装置、系统、设备以及存储介质 Download PDFInfo
- Publication number
- CN113126768A CN113126768A CN202110448837.2A CN202110448837A CN113126768A CN 113126768 A CN113126768 A CN 113126768A CN 202110448837 A CN202110448837 A CN 202110448837A CN 113126768 A CN113126768 A CN 113126768A
- Authority
- CN
- China
- Prior art keywords
- height
- eye
- subject
- virtual image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000000694 effects Effects 0.000 claims abstract description 34
- 230000003190 augmentative effect Effects 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 11
- 238000005259 measurement Methods 0.000 claims description 8
- 239000000126 substance Substances 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 17
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000002349 favourable effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供了一种显示控制方法、装置、系统、设备以及存储介质,涉及图像识别、增强现实等人工智能领域。具体实现方案为:显示控制方法,包括:获取第一对象的眼部高度;根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置。在本公开实施例中,可以利用第一对象的眼部高度第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定第二对象与第一对象的虚像结合后的显示位置,有利于展现生动的显示效果,并且计算量小,速度快,延迟小。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及图像识别、增强现实等人工智能领域。
背景技术
智能镜是新场景智能硬件,在健身、拍照、试衣场景有广泛的使用场景。结合增强现实(Augmented Reality,AR),可在人的头上、脸上加一些特效,进而增加使用场景的趣味性。目前的AR的实现方式主要包括:拍摄完整的人脸或身体图像,使用机器学习算法完成人脸特征点检测和追踪,算法输出结果受头部姿态变化和复杂背景的影响较大。识别人脸后,在图像中的人脸和头部等位置上增加AR效果,再显示处理后的图像。存在计算量大、耗时长、显示效果清晰度不高等缺点。
发明内容
本公开提供了一种显示控制方法、装置、系统、设备以及存储介质。
根据本公开的一方面,提供了一种显示控制方法,包括:
获取第一对象的眼部高度;
根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置。
根据本公开的另一方面,提供了一种显示控制装置,包括:
获取单元,用于获取第一对象的眼部高度;
处理单元,用于根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置。
根据本公开的另一方面,提供了一种镜面系统,包括:
镜面、显示设备、图像采集设备和控制设备;
所述镜面覆盖在所述显示设备之上,所述显示设备能够从所述镜面中露出至少部分显示区域;
所述图像采集设备用于采集位于所述镜面前方的第一对象的图像;
所述控制设备与所述图像采集设备连接,用于接收所述图像采集设备采集的图像;
所述控制设备与所述显示设备连接,还用于执行本公开实施例中任意一种的显示控制方法。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
在本公开实施例中,可以利用第一对象的眼部高度第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定第二对象与第一对象的虚像结合后的显示位置,有利于展现生动的显示效果,并且计算量小,速度快,延迟小,清晰度高。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开一实施例的镜面系统的示意图;
图2是根据本公开另一实施例的镜面系统的示意图;
图3是根据本公开一实施例的显示控制方法的流程示意图;
图4是根据本公开另一实施例的显示控制方法的流程示意图;
图5是一种示例性场景中初始化的示意图;
图6是一种示例性场景中确定第一队形与镜面距离的示意图;
图7和图8是确定AR物品的显示位置的示意图;
图9是根据本公开一实施例的显示控制装置的示意图;
图10是根据本公开另一实施例的显示控制装置的示意图;
图11示出了用来实施本公开的实施例的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本公开一实施例的镜面系统的示意图。该系统可以包括:镜面11、显示设备12、图像采集设备13和控制设备14。
所述镜面11覆盖在所述显示设备12之上,所述显示设备12能够从所述镜面11中露出至少部分显示区域;
所述图像采集设备13用于采集位于所述镜面前方的第一对象的图像;
所述控制设备与所述图像采集设备连接,用于接收所述图像采集设备采集的图像;
所述控制设备与所述显示设备连接,还用于根据第一对象的眼部高度、第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定第二对象与所述虚像结合后的显示位置。
示例性地,第一对象可以为使用该镜面系统的用户。第二对象可以为需要AR特效展现元素,例如具有AR效果的物品图像(简称AR物品)。图像采集设备可以包括各种具有图像采集功能的设备,例如摄像头、相机等。显示设备可以为各种类型的显示器。显示器中的显示区域的一部分或者全部可以从镜面(或称为镜子)中露出。图像采集设备例如摄像头可以设置于镜面的表面,并且位于显示设备的上方。
在一种应用场景中,通过该镜面系统可以实现AR效果。例如,具体实现过程可以包括:图像采集设备例如13摄像头拍摄包括第一对象例如用户的图像。拍摄的图像可以包括动态画面。控制设备14利用人眼位置检测算法检测出第一对象的眼部位置例如用户的人眼位置,计算出眼部高度。响应于用户选择的第二对象例如AR特效,计算该AR特效与所述虚像结合后的显示位置。然后,控制设备14控制显示设备12显示该AR特效,从而与镜面中的虚像结合展现生动的AR效果。
本实施例中,获取第一对象的眼部高度、确定第二对象与第一对象的虚像结合后的显示位置等的具体过程可以参见下述显示控制方法的实施例中的相关描述。
在本公开实施例中,镜面系统可以通过控制设备利用第一对象的眼部确定第二对象与第一对象的虚像结合后的显示位置,显示设备中可以不显示第一对象的图像,而只显示第二对象的图像。因此,可以将显示设备显示的第二对象与镜面显示的第一对象的虚像结合,展现生动的显示效果。例如,可以在显示设备中仅显示第二对象,而通过镜面显示第一对象的虚像以及背景等,从而减少计算量,处理速度快,延迟小,清晰度高。其中,如果第二对象包括AR特效展现元素,则可以快速地显示出生动并且清晰的AR效果。
图2是根据本公开另一实施例的镜面系统的示意图。该实施例的镜面系统可以包括上述实施例的各组件。
在一种实施方式中,镜面11可以是半透型的镜面,显示设备12的显示区域可以从半透型的镜面11的半透区域露出。
在一种实施方式中,所述控制设备14包括:
本地端21,用于检测待处理图像中第一对象的眼部位置,向云端发送所述第一对象的眼部位置;
云端22,与所述本地端相通信,用于接收所述第一对象的眼部位置,选择所述第二对象,确定第二对象与第一对象的虚像结合后的显示位置。
示例性地,本地端和云端的具体功能可以根据实际场景进行设置。
例如,在本地端可以检测待处理图像中第一对象的眼部位置,向云端发送第一对象的眼部位置。然后,在云端,选择第二对象,并基于第一对象的眼部位置,计算第二对象与第一对象的虚像结合后的显示位置。
再如,本地端可以将图像采集设备的采集的图像发送至云端。在云端,检测图像中的眼部位置,选择第二对象,并基于第一对象的眼部位置,计算第二对象与第一对象的虚像结合后的显示位置等。
再如,本地端可以根据图像采集设备的采集的图像,检测图像中的眼部位置,选择第二对象,并基于第一对象的眼部位置,计算第二对象与第一对象的虚像结合后的显示位置等。这种情况下,也可以不设置云端。
在一种实施方式中,所述云端还用于向所述显示设备发送所述第二对象的展现内容和所述第二对象与所述虚像结合后的显示位置。
在一种应用场景中,本地端也可以称为本地处理器,云端也可以称为云端处理器。在本地处理器可以通过算法实现人眼位置检测,并将检测到的位置数据上传至云端处理器。在云端处理器可以选取相应的AR特效展现元素。然后,根据几何原理例如平面镜成像的原理等,计算出人头上、脸上增加AR特效展现的位置。云端处理器将要展现的内容下发到放置于半透镜镜面后的显示器上。用户可以看到半透镜镜面中自己和环境的虚像,叠加了显示器上的AR效果。
本地端可以只进行人眼位置检测,对硬件要求很低;用户看到的人像可以是在镜面中的虚像,而不是通过显示器显示到屏幕上的图像,人像显示几乎不存在延迟问题。云端根据眼睛位置通过简单几何计算可以确定AR特效展现元素例如AR物品应该在显示器上展现的位置,计算量较小,速度快。用户看到的背景也是镜面中的像,不存在延迟和对焦虚化的问题,显示效果更加清晰。
图3是根据本公开一实施例的显示控制方法的流程示意图。该显示控制方法可以包括:
S31、获取第一对象的眼部高度;
S32、根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置。
示例性地,本实施例的显示控制方法可以通过上述镜面系统实施例中的控制设备来执行。具体可以通过本地端和/或云端来执行。
示例性地,获取第一对象的眼部高度的方式可以有多种。
例如,通过与第一对象的交互例如语音交互、输入等方式获取眼部高度。
再如,在初始化过程中,可以通过眼部检测算法检测得到图像中第一对象的眼部位置,然后利用镜面中图像采集设备的高度和图像中第一对象的眼部位置计算出第一对象的眼部高度。在该示例中,可以在本地端执行眼部检测算法,计算眼部高度;也可以在本地端执行眼部检测算法检测出图像中的眼部位置后,将检测出的眼部位置上传至云端,在云端计算眼部高度;还可以将图像上传至云端,在云端执行眼部检测算法,计算眼部高度。
再如,存储初始化过程中获取的第一对象的眼部高度,后续可以直接读取所存储的眼部高度。
根据平面镜成像原理,第一对象的虚像和该第一对象关于镜面对称,第一对象的虚像和该第一对象到镜面的距离相等,第一对象的虚像和该第一对象的大小相同。在确定需要在第一对象中叠加显示的第二对象后,可以根据第一对象的眼部高度、第一对象在镜面中的虚像以及需要显示的第二对象的特征信息之间的几何关系,确定第二对象与第一对象的虚像结合后的显示位置。第二对象的特征信息可以包括第二对象的期望高度和自身高度等。例如,第二对象为AR物品,AR物品自身的高度为L1,AR物品的期望高度为高于眼部以上L2。
在本公开实施例中,可以利用第一对象的眼部高度第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定第二对象与第一对象的虚像结合后的显示位置。因此,可以将显示设备显示的第二对象与镜面显示的第一对象的虚像结合,展现生动的显示效果。例如,可以在显示设备中仅显示第二对象,而通过镜面显示第一对象的虚像以及背景等,从而减少计算量,处理速度快,延迟小,清晰度高。
图4是根据本公开另一实施例的显示控制方法的流程示意图。该实施例的显示控制方法可以包括上述实施例的各步骤。在一种实施方式中,该方法还包括:
S41、控制显示设备在所述显示位置显示所述第二对象。其中,所述第二对象可以包括具有增强现实(AR)效果的对象。这样,可以将显示设备中所显示的第二对象与镜面中第一对象的虚像结合,展现生动AR效果,不仅计算量小,速度快,还可以显示更加清晰的背景。
在一种实施方式中,该方法还包括:
在所述第一对象与所述镜面之间具有设定距离的情况下,获取包括所述第一对象的初始化图像;
根据所述初始化图像中所述第一对象的双眼中心位置,确定所述第一对象的眼部低于图像采集设备的高度。
对于初次使用该镜面系统的第一对象,或者由于各种情况没有眼部高度的数据的第一对象,通过初始化过程,可以提示第一对象位于指定位置。使得第一对象与镜面之间的距离为设定距离。例如,第一对象可以站在与镜面之间具有设定距离n的位置处,镜面上的图像采集设备可以对第一对象进行拍摄得到初始化图像。图像采集设备可以将拍摄到的初始化图像发送给控制设备。控制设备可以对初始化图像进行眼部位置检测,得到第一对象的双眼在图像中的位置例如,两只眼睛的中心点在初始化图像中的坐标例如E1和E2。根据E1和E2可以得到第一对象在图像中的双眼中心位置的坐标E12(xc,yc)。根据图像识别处理得到的纵坐标yc(照片中的像素高度)可以查表得出第一对象的眼部低于图像采集设备的高度y。拍摄第一对象与镜面之间具有设定距离时的初始化图像后,可以对初始化图像中的第一对象的双眼位置进行识别,得到双眼中心位置,并且基于该双眼中心位置的纵坐标可以准确地确定出该第一对象的眼部低于图像采集设备的高度。后续,可以基于该第一对象的眼部低于图像采集设备的高度确定第一对象的眼部高度,进而根据几何原理准确地定位第二对象与第一对象的虚像结合的显示位置。因此,计算过程简单、方便,计算量小,处理速度快,有利于从二维推算到三维,实现生动的显示效果。
在一种实施方式中,S31获取第一对象的眼部高度,包括:
根据所述图像采集设备的高度,以及所述眼部低于所述图像采集设备的高度,确定所述第一对象的眼部高度。例如,如果图像采集设备的高度为m,第一对象的眼部低于该图像采集设备的高度为y,则第一对象的眼部高度为m-y。通过计算第一对象眼部高度有利于准确地定位第二对象与第一对象的虚像结合的显示位置,计算量小,处理速度快,能够实现生动的显示效果。
在一种实施方式中,该方法还包括:
根据所述眼部低于图像采集设备的高度和所述设定距离,确定所述眼部与图像采集设备的距离;
根据所述双眼间的像素距离,以及所述眼部与图像采集设备的距离,确定所述第一对象的双眼间的测量距离。
在本实施例中,第一对象的双眼间的测量距离可以理解为测量得到的第一对象双眼间的实际距离或物理距离,也可以简称第一对象的双眼间距。第一对象的双眼间的像素距离可以理解为所拍摄的图像中包括的第一对象的双眼间的像素距离,例如,第一对象的双眼中心的像素坐标之间的距离。根据第一对象的双眼间的像素距离,第一对象的眼部与图像采集设备的距离,采用查表的方式,可以确定第一对象的双眼间的测量距离,计算量小,处理速度快。
例如,参见图5,第一对象的眼部低于图像采集设备的高度y,第一对象与镜面的设定距离是n,则眼部与图像采集设备的距离在图像采集设备例如相机(camera)固定参数条件下,所拍摄的图像例如动图、照片或视频中的某个对象的两点间的像素距离与真实物理世界之间的两点距离,随着相机与该对象在不同距离时具有不同的常数关系。因此,可以预先测量得到这个常数关系的实测数据表。如果已知相机与物理人眼间的距为通过查表方式,可以查找L条件下1个像素代表Lc厘米。如果通过图像识别和处理等方式已经获得初始化图像中第一对象的双眼的像素距离是dc,并且则第一对象的双眼间的测量距离d=dc×Lc。其中,dc可以根据两只眼睛的中心点在初始化图像中的坐标例如E1和E2来确定。
在一种示例性的全身使用场景中,智能镜的上边缘可以高于第一对象、即使用者的身高。摄像头的位置可以变化,例如可以将摄像头设置于镜子上方的中间位置。
在初始化过程中,可以要求第一对象站在与镜面具有设定距离的位置,例如,使用者(或称为用户)站在距离镜面1米(n=1)的处。然后根据图像中第一对象的双眼之间的图像中心位置的纵坐标yc(未示出),计算人眼低于摄像头的高度y。根据摄像头高度m和人眼低于摄像头的高度y,可以计算得到人眼高度m-y。进而,根据初始化图像中双眼间的像素距离dc,以及人眼与摄像头的距离可以查表得到用户的双眼间距d。例如,如果通过图像识别和处理等方式已经获得了照片中双眼的像素距离是dc,并且已知相机与物理人眼间的距离为通过查表方式,如果L条件下,1个像素代表r米,则双眼间距d=dc×r。
在一种实施方式中,该方法包括:
根据所述第一对象的双眼间的测量距离和待处理图像中所述第一对象的双眼间的像素距离,确定所述第一对象与镜面的当前距离。
在本实施例中,可以预先测量得到摄像头与第一对象在不同距离时测量距离与像素距离的常数关系的实测数据表。根据第一对象的双眼间的测量距离d和待处理图像中第一对象的双眼间的像素距离dc’可以计算出二者的常数关系s,利用s反查表可以得到摄像头到人眼的当前距离Lce。由于人眼低于摄像头的高度y已知,根据可以计算出第一对象与镜面的当前距离x。
参见图6,在初始化之后,如果第一对象站在距离镜面x的位置,摄像头拍摄得到当前的待处理图像。由于已知第一对象的双眼间距d。根据检测得到的待处理图像中双眼间的像素距离dc’和已知的第一对象的双眼间距d,可以反查表得到摄像头到人眼的当前距离Lce。并且由于人眼低于摄像头的高度y也是已知的,可以计算出第一对象与镜面的当前距离x。因此,第一对象在不同距离的情况下可以实现合适的显示效果。
在一种实施方式中,S32根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置,还包括:根据所述眼部高度、所述第二对象的高度、所述第二对象在所述第一对象的虚像中的期望位置,确定所述第二对象与所述虚像结合后的显示位置。这样,能够根据第二对象的不同高度和需要展现的位置,灵活地进行显示,显示效果更加丰富。
在一种实施方式中,所述第二对象在所述第一对象的虚像中的期望位置包括以下至少之一:
所述第二对象在所述第一对象的虚像中眼部以上的期望高度;
所述第二对象在所述第一对象的虚像中眼部以下的期望高度。
示例性地,用于显示第二对象的锚定点可以是眼部,也可以是其他的非眼部的其他部位例如手、肩膀、脚等部位。如果锚定点是眼部,可以主要基于眼部的高度来确定第二对象与第二对象虚像结合后的显示位置。如果锚定点是非眼部的其他部位,除了眼部的高度之外,还可以结合该锚定点与眼部之间的横向距离、高度差等进行计算,能够支持更加丰富的显示场景。
在一种实施方式中,所述第二对象与所述虚像结合后的显示位置包括上边缘位置和下边缘位置;
所述上边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以上的期望高度以及所述眼部高度确定的;
所述下边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以上的期望高度、所述第二对象的自身高度,以及所述眼部高度确定的。
在一种示例性场景中,显示器可以不显示人像,显示器背景纯黑作为镜面底色反射。显示器仅显示AR物品,以位于摄像头中线二维平面的场景为例,根据勾股定理可以推算出三维的情况。参见图7,如果AR物品的锚定点是人(第一对象的示例)的头部,在站立场景中,为人添加面具、标签、帽子等饰品。假设期望在人的虚像中人眼以上的高度为L2,显示一个高度为L1的物品A(第二对象的示例)。
由于虚像和人是关于镜面对称的。根据三角形的相似性,镜面相当于是虚像和人的中位线,虚像和人与镜面的距离相等。假定人眼高度为He,物品A在镜面中的下边缘位置为A1=He+L2/2,上边缘位置为A2=He+(L2+L1)/2。进一步地,如果人眼高度He=m-y,其中m为摄像头高度,y为第一对象的眼部低于图像采集设备的高度,则物品A在镜面中的下边缘位置为A1=m-y+L2/2,上边缘位置为A2=m-y+(L2+L1)/2。
以第一对象的眼部为锚定点,可以基于第二对象在第一对象的虚像中眼部以上的期望高度、第二对象的自身高度,以及第一对象的眼部高度,简便地计算出需要叠加显示的第二对象的上下边缘的位置。如果需要呈现三维效果、AR效果等,可以按照第二对象各点的位置分别计算对应的位置,进而展现出更加生动的视觉效果。
在一种实施方式中,所述第二对象在显示设备中的显示位置包括上边缘位置和下边缘位置;
所述上边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以下的期望高度、所述第二对象的自身高度、锚定点与所述第一对象的眼部的横向距离以及所述眼部高度确定的;
所述下边缘位置是根据所述第二对象的自身高度、锚定点与所述第一对象的眼部的横向距离以及所述眼部高度确定的。
在一种示例性场景中,参见图8,如果AR物品的锚定点是人体其他部位例如手,需要进行人体关键点检测。假定测得的人眼与镜面的横向距离为x,人眼与手之间的横向距离为x’,期望在虚像中人眼以下高度L2(即人眼高于手的高度为L2)显示一个高度为L1的物品B。并且,假定人眼高度为He,根据三角形相似性原理,物品B在镜面中的下边缘位置为B1=He-b,上边缘位置为B2=He-a。其中,根据三角形相似原理可以得到以下关于a的公式:
此外,可以得到以下关于b的公式:
以第一对象的非眼部的其他位置作为锚定点,可以基于第二对象在第一对象的虚像中眼部以上的期望高度、第二对象的自身高度、锚定点与第一对象的眼部的横向距离,以及第一对象的眼部高度,准确地计算出需要叠加显示的第二对象的上下边缘的位置。如果需要呈现三维效果、AR效果等,可以按照第二对象各点的位置分别计算对应的位置,进而展现出更加生动的视觉效果。
图9是根据本公开一实施例的显示控制装置的示意图。该显示控制装置可以包括:
获取单元51,用于获取第一对象的眼部高度;
处理单元52,用于根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置。
图10是根据本公开另一实施例的显示控制装置的示意图。该实施例的显示控制装置可以包括上述显示控制装置实施例的各组件。
在一种实施方式中,该装置还包括:
控制单元61,用于控制显示设备在所述显示位置显示所述第二对象,所述第二对象包括具有增强现实AR效果的对象。
在一种实施方式中,所述处理单元还用于根据所述第一对象的双眼间的测量距离和待处理图像中所述第一对象的双眼间的像素距离,确定所述第一对象与镜面的当前距离。
在一种实施方式中,所述处理单元还用于在所述第一对象与所述镜面之间具有设定距离的情况下,获取包括所述第一对象的初始化图像;根据所述初始化图像中所述第一对象的双眼中心位置,确定所述第一对象的眼部低于图像采集设备的高度。
在一种实施方式中,所述处理单元还用于根据所述眼部低于图像采集设备的高度和所述设定距离,确定所述眼部与图像采集设备的距离;根据所述双眼间的像素距离,以及所述眼部与图像采集设备的距离,确定所述第一对象的双眼间的测量距离。
在一种实施方式中,所述获取单元用于获取第一对象的眼部高度,具体包括:根据所述图像采集设备的高度,以及所述眼部低于所述图像采集设备的高度,确定所述第一对象的眼部高度。
在一种实施方式中,所述处理单元用于根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置,具体包括:根据所述眼部高度、所述第二对象的高度、所述第二对象在所述第一对象的虚像中的期望位置,确定所述第二对象与所述虚像结合后的显示位置。
在一种实施方式中,所述第二对象在所述第一对象的虚像中的期望位置包括以下至少之一:
所述第二对象在所述第一对象的虚像中眼部以上的期望高度;
所述第二对象在所述第一对象的虚像中眼部以下的期望高度。
在一种实施方式中,所述第二对象与所述虚像结合后的显示位置包括上边缘位置和下边缘位置;
所述上边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以上的期望高度以及所述眼部高度确定的;
所述下边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以上的期望高度、所述第二对象的自身高度,以及所述眼部高度确定的。
在一种实施方式中,所述第二对象与所述虚像结合后的显示位置包括上边缘位置和下边缘位置;
所述上边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以下的期望高度、所述第二对象的自身高度、锚定点与所述第一对象的眼部的横向距离以及所述眼部高度确定的;
所述下边缘位置是根据所述第二对象的自身高度、锚定点与所述第一对象的眼部的横向距离以及所述眼部高度确定的。
示例性地,本公开各实施例的显示控制装置,可以设置于本地端,也可以设置于云端。或者,显示控制装置的部分功能设置于本地端,部分功能设置于云端,具体可以根据实际应用场景的需求灵活选择。
本公开各实施例的显示控制装置中的各个单元或模块,可以实现上述方法实施例的相关功能,具体可以参见上述方法实施例的相关描述,在此不赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图11示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或要求的本公开的实现。
如图11所示,电子设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序来执行各种适当的动作和处理。在RAM 803中,还可存储电子设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入输出(I/O)接口805也连接至总线804。
电子设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许电子设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如显示控制方法。例如,在一些实施例中,显示控制方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到电子设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的显示控制方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行显示控制方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与某个对象的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向该对象显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),该对象可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与该对象的交互;例如,提供给该对象的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入来接收来自该对象的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形对象界面或者网络浏览器的对象计算机,该对象可以通过该图形对象界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (26)
1.一种显示控制方法,包括:
获取第一对象的眼部高度;
根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置。
2.根据权利要求1所述的方法,其中,还包括:
控制显示设备在所述显示位置显示所述第二对象,所述第二对象包括具有增强现实AR效果的对象。
3.根据权利要求1或2所述的方法,其中,还包括:
根据所述第一对象的双眼间的测量距离和待处理图像中所述第一对象的双眼间的像素距离,确定所述第一对象与镜面的当前距离。
4.根据权利要求1至3中任一项所述的方法,其中,还包括:
在所述第一对象与所述镜面之间具有设定距离的情况下,获取包括所述第一对象的初始化图像;
根据所述初始化图像中所述第一对象的双眼中心位置,确定所述第一对象的眼部低于图像采集设备的高度。
5.根据权利要求4所述的方法,其中,还包括:
根据所述眼部低于图像采集设备的高度和所述设定距离,确定所述眼部与图像采集设备的距离;
根据所述双眼间的像素距离,以及所述眼部与图像采集设备的距离,确定所述第一对象的双眼间的测量距离。
6.根据权利要求4或5所述的方法,其中,获取第一对象的眼部高度,包括:
根据所述图像采集设备的高度,以及所述眼部低于所述图像采集设备的高度,确定所述第一对象的眼部高度。
7.根据权利要求1至6中任一项所述的方法,其中,根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置,包括:
根据所述眼部高度、所述第二对象的高度、所述第二对象在所述第一对象的虚像中的期望位置,确定所述第二对象与所述虚像结合后的显示位置。
8.根据权利要求7所述的方法,其中,所述第二对象在所述第一对象的虚像中的期望位置包括以下至少之一:
所述第二对象在所述第一对象的虚像中眼部以上的期望高度;
所述第二对象在所述第一对象的虚像中眼部以下的期望高度。
9.根据权利要求7或8所述的方法,其中,所述第二对象与所述虚像结合后的显示位置包括上边缘位置和下边缘位置;
所述上边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以上的期望高度以及所述眼部高度确定的;
所述下边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以上的期望高度、所述第二对象的自身高度,以及所述眼部高度确定的。
10.根据权利要求7或8所述的方法,其中,所述第二对象与所述虚像结合后的显示位置包括上边缘位置和下边缘位置;
所述上边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以下的期望高度、所述第二对象的自身高度、锚定点与所述第一对象的眼部的横向距离以及所述眼部高度确定的;
所述下边缘位置是根据所述第二对象的自身高度、锚定点与所述第一对象的眼部的横向距离以及所述眼部高度确定的。
11.一种显示控制装置,包括:
获取单元,用于获取第一对象的眼部高度;
处理单元,用于根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置。
12.根据权利要求11所述的装置,其中,还包括:
控制单元,用于控制显示设备在所述显示位置显示所述第二对象,所述第二对象包括具有增强现实AR效果的对象。
13.根据权利要求11或12所述的装置,其中,所述处理单元还用于根据所述第一对象的双眼间的测量距离和待处理图像中所述第一对象的双眼间的像素距离,确定所述第一对象与镜面的当前距离。
14.根据权利要求11至13中任一项所述的装置,其中,所述处理单元还用于在所述第一对象与所述镜面之间具有设定距离的情况下,获取包括所述第一对象的初始化图像;根据所述初始化图像中所述第一对象的双眼中心位置,确定所述第一对象的眼部低于图像采集设备的高度。
15.根据权利要求14所述的装置,其中,所述处理单元还用于根据所述眼部低于图像采集设备的高度和所述设定距离,确定所述眼部与图像采集设备的距离;根据所述双眼间的像素距离,以及所述眼部与图像采集设备的距离,确定所述第一对象的双眼间的测量距离。
16.根据权利要求14或15所述的装置,其中,所述获取单元用于获取第一对象的眼部高度,具体包括:根据所述图像采集设备的高度,以及所述眼部低于所述图像采集设备的高度,确定所述第一对象的眼部高度。
17.根据权利要求11至16中任一项所述的装置,其中,所述处理单元用于根据所述第一对象的眼部高度、所述第一对象在镜面中的虚像以及需要显示的第二对象的特征信息,确定所述第二对象与所述虚像结合后的显示位置,具体包括:根据所述眼部高度、所述第二对象的高度、所述第二对象在所述第一对象的虚像中的期望位置,确定所述第二对象与所述虚像结合后的显示位置。
18.根据权利要求17所述的装置,其中,所述第二对象在所述第一对象的虚像中的期望位置包括以下至少之一:
所述第二对象在所述第一对象的虚像中眼部以上的期望高度;
所述第二对象在所述第一对象的虚像中眼部以下的期望高度。
19.根据权利要求17或18所述的装置,其中,所述第二对象与所述虚像结合后的显示位置包括上边缘位置和下边缘位置;
所述上边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以上的期望高度以及所述眼部高度确定的;
所述下边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以上的期望高度、所述第二对象的自身高度,以及所述眼部高度确定的。
20.根据权利要求17或18所述的装置,其中,所述第二对象与所述虚像结合后的显示位置包括上边缘位置和下边缘位置;
所述上边缘位置是根据所述第二对象在所述第一对象的虚像中眼部以下的期望高度、所述第二对象的自身高度、锚定点与所述第一对象的眼部的横向距离以及所述眼部高度确定的;
所述下边缘位置是根据所述第二对象的自身高度、锚定点与所述第一对象的眼部的横向距离以及所述眼部高度确定的。
21.一种镜面系统,包括:
镜面、显示设备、图像采集设备和控制设备;
所述镜面覆盖在所述显示设备之上,所述显示设备能够从所述镜面中露出至少部分显示区域;
所述图像采集设备用于采集位于所述镜面前方的第一对象的图像;
所述控制设备与所述图像采集设备连接,用于接收所述图像采集设备采集的图像;
所述控制设备与所述显示设备连接,还用于执行权利要求1至10中任一项所述的方法。
22.根据权利要求21所述的系统,其中,所述控制设备包括:
本地端,用于检测待处理图像中第一对象的眼部位置,向云端发送所述第一对象的眼部位置;
云端,与所述本地端相通信,用于接收所述第一对象的眼部位置,选择所述第二对象,确定第二对象与所述虚像结合后的显示位置。
23.根据权利要求21或22所述的系统,其中,所述云端还用于向所述显示设备发送所述第二对象的展现内容和所述第二对象的显示位置。
24.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
25.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使计算机执行权利要求1-10中任一项所述的方法。
26.一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110448837.2A CN113126768A (zh) | 2021-04-25 | 2021-04-25 | 显示控制方法、装置、系统、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110448837.2A CN113126768A (zh) | 2021-04-25 | 2021-04-25 | 显示控制方法、装置、系统、设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113126768A true CN113126768A (zh) | 2021-07-16 |
Family
ID=76779902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110448837.2A Pending CN113126768A (zh) | 2021-04-25 | 2021-04-25 | 显示控制方法、装置、系统、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113126768A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130128202A (ko) * | 2012-05-16 | 2013-11-26 | 에스케이텔레콤 주식회사 | 미러 디스플레이 기반 증강 현실 방법 및 이에 적용되는 장치 |
CN104199542A (zh) * | 2014-08-20 | 2014-12-10 | 百度在线网络技术(北京)有限公司 | 一种智能镜实现方法、装置和智能镜 |
CN104461006A (zh) * | 2014-12-17 | 2015-03-25 | 卢晨华 | 一种基于自然用户界面的互联网智能镜 |
KR20150108570A (ko) * | 2014-03-18 | 2015-09-30 | 광운대학교 산학협력단 | 투영 객체 인식을 통한 미러 디스플레이 기반 증강 현실 영상 서비스 장치 및 방법 |
CN107003827A (zh) * | 2014-09-26 | 2017-08-01 | 三星电子株式会社 | 由包括可切换镜子的设备执行的图像显示方法和设备 |
CN107479710A (zh) * | 2017-08-16 | 2017-12-15 | 广州视源电子科技股份有限公司 | 智能镜及其控制方法、装置、设备及存储介质 |
US20190251749A1 (en) * | 2018-02-14 | 2019-08-15 | Adobe Inc. | Augmented Reality Mirror System |
CN110874133A (zh) * | 2018-08-31 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 基于智能显示设备的交互方法、智能显示设备及存储介质 |
CN110960036A (zh) * | 2019-10-31 | 2020-04-07 | 北京蓝海达信科技有限公司 | 具有美肤美妆指导功能的智能镜系统及方法 |
-
2021
- 2021-04-25 CN CN202110448837.2A patent/CN113126768A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130128202A (ko) * | 2012-05-16 | 2013-11-26 | 에스케이텔레콤 주식회사 | 미러 디스플레이 기반 증강 현실 방법 및 이에 적용되는 장치 |
KR20150108570A (ko) * | 2014-03-18 | 2015-09-30 | 광운대학교 산학협력단 | 투영 객체 인식을 통한 미러 디스플레이 기반 증강 현실 영상 서비스 장치 및 방법 |
CN104199542A (zh) * | 2014-08-20 | 2014-12-10 | 百度在线网络技术(北京)有限公司 | 一种智能镜实现方法、装置和智能镜 |
CN107003827A (zh) * | 2014-09-26 | 2017-08-01 | 三星电子株式会社 | 由包括可切换镜子的设备执行的图像显示方法和设备 |
CN104461006A (zh) * | 2014-12-17 | 2015-03-25 | 卢晨华 | 一种基于自然用户界面的互联网智能镜 |
CN107479710A (zh) * | 2017-08-16 | 2017-12-15 | 广州视源电子科技股份有限公司 | 智能镜及其控制方法、装置、设备及存储介质 |
US20190251749A1 (en) * | 2018-02-14 | 2019-08-15 | Adobe Inc. | Augmented Reality Mirror System |
CN110874133A (zh) * | 2018-08-31 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 基于智能显示设备的交互方法、智能显示设备及存储介质 |
CN110960036A (zh) * | 2019-10-31 | 2020-04-07 | 北京蓝海达信科技有限公司 | 具有美肤美妆指导功能的智能镜系统及方法 |
Non-Patent Citations (1)
Title |
---|
单柯;郭楚滨;刘占宇;陆煜程;潘双龙;: "基于物联网的智能镜子", 科技传播, no. 12, 25 June 2018 (2018-06-25) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10636158B1 (en) | Methods and systems for height estimation from a 2D image using augmented reality | |
US9934573B2 (en) | Technologies for adjusting a perspective of a captured image for display | |
US11375922B2 (en) | Body measurement device and method for controlling the same | |
CN107004275B (zh) | 确定实物至少一部分的3d重构件空间坐标的方法和系统 | |
USRE47925E1 (en) | Method and multi-camera portable device for producing stereo images | |
US10839544B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable storage medium | |
JP6491517B2 (ja) | 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置 | |
CN107646109B (zh) | 管理电子设备上的环境映射的特征数据 | |
US9280209B2 (en) | Method for generating 3D coordinates and mobile terminal for generating 3D coordinates | |
WO2017039907A1 (en) | Point-to-point distance measurements in 3d camera images | |
CN113129450A (zh) | 虚拟试衣方法、装置、电子设备和介质 | |
CN111998959B (zh) | 基于实时测温系统的温度校准方法、装置及存储介质 | |
CN112529097B (zh) | 样本图像生成方法、装置以及电子设备 | |
KR20200111049A (ko) | 이미지를 이용한 신체 사이즈 측정 시스템 | |
CN113447128B (zh) | 一种多人体温检测方法、装置、电子设备及存储介质 | |
US20230342972A1 (en) | Depth sensor activation for localization based on data from monocular camera | |
JP7195238B2 (ja) | 拡張現実アプリケーションに関するシステム及び方法 | |
CN113610702B (zh) | 一种建图方法、装置、电子设备及存储介质 | |
JP6950644B2 (ja) | 注意対象推定装置及び注意対象推定方法 | |
WO2022041953A1 (zh) | 行为识别方法、装置和存储介质 | |
TWI768852B (zh) | 人體方向之偵測裝置及人體方向之偵測方法 | |
WO2019000464A1 (zh) | 一种图像显示方法、装置、存储介质和终端 | |
CN112073640B (zh) | 全景信息采集位姿获取方法及装置、系统 | |
US11726320B2 (en) | Information processing apparatus, information processing method, and program | |
CN112634366A (zh) | 位置信息的生成方法、相关装置及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |