CN114827561A - 投影控制方法、装置、计算机设备和计算机可读存储介质 - Google Patents

投影控制方法、装置、计算机设备和计算机可读存储介质 Download PDF

Info

Publication number
CN114827561A
CN114827561A CN202210214457.7A CN202210214457A CN114827561A CN 114827561 A CN114827561 A CN 114827561A CN 202210214457 A CN202210214457 A CN 202210214457A CN 114827561 A CN114827561 A CN 114827561A
Authority
CN
China
Prior art keywords
area
face
projection
depth
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210214457.7A
Other languages
English (en)
Other versions
CN114827561B (zh
Inventor
苏博文
余金清
冉鹏
罗廷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jimi Technology Co ltd
Original Assignee
Chengdu Jimi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Jimi Technology Co Ltd filed Critical Chengdu Jimi Technology Co Ltd
Priority to CN202210214457.7A priority Critical patent/CN114827561B/zh
Publication of CN114827561A publication Critical patent/CN114827561A/zh
Application granted granted Critical
Publication of CN114827561B publication Critical patent/CN114827561B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Abstract

本申请提供一种投影控制方法、装置、计算机设备和计算机可读存储介质,属于计算机技术领域。所述方法包括:获取深度变化检测区域对应的当前帧深度图像,并基于当前帧深度图像确定深度变化检测区域内的深度变化信息,深度变化信息包括深度变化检测区域内的发生深度变化的区域的尺寸和位置;获取人脸检测区域对应的当前帧人脸检测图像,并基于当前帧人脸检测图像确定人脸检测区域内的人脸信息,人脸信息包括人脸的位置和尺寸;根据深度变化信息和人脸信息,确定目标区域,目标区域为投影设备的投影区域中存在目标人脸的子区域;根据目标区域对待投影到投影区域的画面进行调整。本申请可以达到提高投影的安全性和实用性的效果。

Description

投影控制方法、装置、计算机设备和计算机可读存储介质
技术领域
本申请涉及计算机技术领域,具体而言,涉及一种投影控制方法、装置、计算机设备和计算机可读存储介质。
背景技术
随着科学技术的发展,投影仪也已经进入到了人们的生活,人们可以通过使用投影仪将图片或视频投影在荧幕上观看。
相关技术中,投影仪主要包括有光源、聚光系统和平面反射镜,投影仪的工作原理是将光线照射到图像的显示元件上面产生影像,然后再通过镜头进行放大并投射到荧幕上,从而实现投影的功能。一般地,投影仪的光源发出的都是强光,这样,才能达到更好的投影效果。
然而,人们在使用投影仪的过程中难免会被投影直射,由于投影仪发出的光线比较强,严重的甚至会对人们的眼睛造成损伤。因此,这种方案存在安全性较低和实用性较差的问题。
发明内容
本申请的目的在于提供一种投影控制方法、装置、计算机设备和计算机可读存储介质,可以达到提高投影的安全性和实用性的效果。
本申请的实施例是这样实现的:
本申请实施例的第一方面,提供一种投影控制方法,所述方法包括:
获取深度变化检测区域对应的当前帧深度图像,并基于所述当前帧深度图像确定深度变化检测区域内的深度变化信息,所述深度变化信息包括所述深度变化检测区域内的发生深度变化的区域的尺寸和位置;
获取人脸检测区域对应的当前帧人脸检测图像,并基于所述当前帧人脸检测图像确定人脸检测区域内的人脸信息,所述人脸信息包括人脸的位置和尺寸;
根据所述深度变化信息和所述人脸信息,确定目标区域,所述目标区域为所述投影设备的投影区域中存在目标人脸的子区域;
根据所述目标区域对待投影到所述投影区域的画面进行调整。
可选地,所述获取深度变化检测区域对应的当前帧深度图像,并基于所述当前帧深度图像确定深度变化检测区域内的深度变化信息,包括:
通过深度检测装置获取所述当前帧深度图像;
检测所述当前帧深度图像相对于所述当前帧深度图像的前一帧深度图像是否发生深度变化;
若检测到所述当前帧深度图像相对于所述当前帧深度图像的前一帧深度图像发生深度变化,则确定所述当前帧深度图像中发生深度变化的区域的尺寸和位置,并根据所述当前帧深度图像中发生深度变化的区域的尺寸和位置生成所述深度变化信息。
可选地,所述获取人脸检测区域对应的当前帧人脸检测图像,并基于所述当前帧人脸检测图像确定人脸检测区域内的人脸信息,包括:
通过人脸检测装置获取所述当前帧人脸检测图像;
检测所述当前帧人脸检测图像中是否存在人脸,若存在,则确定所述人脸的位置和尺寸,并根据所述人脸的位置和尺寸生成所述人脸信息。
可选地,所述根据所述深度变化信息和所述人脸信息,确定目标区域,包括:
根据第一转换矩阵对齐所述深度变化检测区域和所述投影区域,并根据所述深度变化信息确定在所述投影区域中的至少一个深度变化区域,所述深度变化区域用于指示在所述投影区域中发生深度变化的位置和尺寸;
根据第二转换矩阵对齐所述人脸检测区域和所述投影区域,并根据所述人脸信息确定在所述投影区域中的至少一个人脸区域,所述人脸区域用于指示在所述投影区域中出现的所述人脸的位置和尺寸;
将所述深度变化区域和所述人脸区域对应进行重叠比较,并确定所述深度变化区域和所述人脸区域的重叠比例是否大于预设有效比例;
若是,则将所述深度变化区域和所述人脸区域的重叠区域作为所述目标区域。
可选地,在将所述深度变化区域和所述人脸区域对应进行重叠比较,并确定所述深度变化区域和所述人脸区域的重叠比例是否大于预设有效比例之后,所述方法还包括:
若否,则将所述人脸区域对应的所述人脸与用户人脸库中的各用户人脸进行对比;
在所述人脸区域对应的所述人脸与所述用户人脸库中的任一所述用户人脸匹配的情况下,则将所述人脸区域作为所述目标区域。
可选地,所述根据所述目标区域对待投影到所述投影区域的画面进行调整,包括:
调整待投影到所述目标区域的画面的光线强度,和/或,
在所述目标区域内投影遮挡图像,所述遮挡图像为像素值为预设像素值的图像。
可选地,所述根据所述深度变化信息和所述人脸信息,确定目标区域之前,所述方法包括:
在所述人脸检测区域内未检测到所述人脸的情况下,则确定获取的当前帧人脸检测图像是否为获取的第一帧人脸检测图像;
若否,则根据排列在所述当前帧人脸检测图像之前的至少一帧人脸检测图像、与所述当前帧人脸检测图像对应的当前帧深度图像和排列在所述当前帧人脸检测图像之前的至少一帧人脸检测图像对应的至少一帧深度图像,生成获取的当前帧人脸检测图像中的人脸信息。
可选地,在所述人脸检测区域内未检测到所述人脸,则确定获取的当前帧人脸检测图像是否为获取的第一帧人脸检测图像之后,所述方法包括:
若是,则根据与所述当前帧人脸检测图像对应的当前帧深度图像的深度变化信息,生成所述人脸信息;
或者,
则获取所述人脸检测区域对应的下一帧人脸检测图像,并确定基于所述下一帧人脸检测图像确定所述人脸检测区域内的人脸信息。
可选地,所述投影设备投影到所述投影区域的各帧画面是按照时序排列的,所述方法还包括:
比较任一帧投影区域中的目标区域的目标区域信息和所述任一帧投影区域的前一帧投影区域中的目标区域的目标区域信息,确定所述任一帧投影区域和所述前一帧投影区域中的目标区域的尺寸误差和位置误差,所述目标区域信息包括所述目标区域的尺寸和位置;
在所述尺寸误差大于预设尺寸误差阈值和/或所述位置误差大于预设位置误差阈值的情况下,根据所述任一帧投影区域中的目标区域信息和排列在所述任一帧投影区域之前的至少两帧投影区域中的目标区域信息,对所述任一帧投影区域中的目标区域进行校正。
本申请实施例的第二方面,提供了一种投影控制装置,应用于投影设备,所述装置包括:
第一获取确定模块,用于获取深度变化检测区域对应的当前帧深度图像,并基于所述当前帧深度图像确定深度变化检测区域内的深度变化信息,所述深度变化信息包括所述深度变化检测区域内的发生深度变化的区域的尺寸和位置;
第二获取确定模块,用于获取人脸检测区域对应的当前帧人脸检测图像,并基于所述当前帧人脸检测图像确定人脸检测区域内的人脸信息,所述人脸信息包括人脸的位置和尺寸;
确定模块,用于根据所述深度变化信息和所述人脸信息,确定目标区域,所述目标区域为所述投影设备的投影区域中存在目标人脸的子区域;
调整模块,用于根据所述目标区域对待投影到所述投影区域的画面进行调整。
本申请实施例的第三方面,提供了一种计算机设备,所述计算机设备包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述第一方面所述的投影控制方法。
本申请实施例的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的投影控制方法。
本申请实施例的有益效果包括:
本申请实施例提供的一种投影控制方法,
通过获取深度变化检测区域对应的当前帧深度图像,并基于该当前帧深度图像确定深度变化检测区域内的深度变化信息,获取人脸检测区域对应的当前帧人脸检测图像,并基于该当前帧人脸检测图像确定人脸检测区域内的人脸信息,根据该深度变化信息和该人脸信息,确定目标区域,根据该目标区域对待投影到该投影区域的画面进行调整。
其中,根据该深度变化信息和该人脸信息,确定目标区域,可以准确地确定出在投影区域中存在目标人脸的子区域,以便精准地对投影设备的投影进行控制或调整。根据该目标区域对待投影到该投影区域的画面进行调整,可以精确地调整该投影设备发出的可能照射在人脸上的光线的强度。这样,即使用户或相关技术人员出现在该投影区域,也可以避免强光直接照射在用户或相关技术人员的人脸上,进而避免出现对人们的眼睛造成损伤的情况。如此,可以达到提高投影的安全性和实用性的效果。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的第一种投影控制方法的流程图;
图2为本申请实施例提供的第二种投影控制方法的流程图;
图3为本申请实施例提供的第三种投影控制方法的流程图;
图4为本申请实施例提供的第四种投影控制方法的流程图;
图5为本申请实施例提供的第五种投影控制方法的流程图;
图6为本申请实施例提供的第六种投影控制方法的流程图;
图7为本申请实施例提供的第七种投影控制方法的流程图;
图8为本申请实施例提供的一种投影控制装置的结构示意图;
图9为本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在相关技术中,投影仪主要包括有光源、聚光系统和平面反射镜,投影仪的工作原理是将光线照射到图像的显示元件上面产生影像,然后再通过镜头进行放大并投射到荧幕上,从而实现投影的功能。目前,投影仪的光源发出的都是强光,这样,才能达到更好的投影效果。然而,人们在使用投影仪的过程中难免会被投影直射,由于投影仪发出的光线比较强,严重的甚至会对人们的眼睛造成损伤。另外,相关技术中一般会通过检测一定范围内是否存在人脸进而调整投影到人脸所在区域的光线强度,但是投影仪投影的画面中经常会存在人脸,这就非常容易导致投影仪误动作。因此,这种方案存在安全性较低和实用性较差的问题。
为此,本申请实施例提供了投影控制方法,通过获取深度变化检测区域对应的当前帧深度图像,并基于该当前帧深度图像确定深度变化检测区域内的深度变化信息,获取人脸检测区域对应的当前帧人脸检测图像,并基于该当前帧人脸检测图像确定人脸检测区域内的人脸信息,根据该深度变化信息和该人脸信息,确定目标区域,根据该目标区域对待投影到该投影区域的画面进行调整。通过检测深度变化可以准确地检测到是否有物体或人员的移动,可以避免因为投影到投影区域的画面中存在人脸而出现误动作的情况。这样,就可以达到提高投影的安全性和实用性的效果。
本申请实施例以应用在投影设备中的投影控制方法为例进行说明。但不表明本申请实施例仅能应用于投影设备中进行投影控制。
需要说明的是,该投影设备可以将图像或视频投射到幕布上,该投影设备带有一定的处理功能,该投影设备具体可以是投影仪或投影机。
一种可能的方式中,本申请实施例提供的投影控制方法还可以应用在任意带有处理功能的并且可以发出光线的设备上,用于控制该设备发出的光线的强度。例如带有处理功能的聚光灯。本申请实施例对此不作限定。
下面对本申请实施例提供的投影控制方法进行详细地解释说明。
图1为本申请提供的一种投影控制方法的流程图,该方法可以应用于计算机设备,该计算机设备可以是前述的投影设备,或者是设置在投影设备上的设备,或者是与投影设备通信的远程服务器等。参见图1,本申请实施例提供一种投影控制方法,包括:
步骤1001:获取深度变化检测区域对应的当前帧深度图像,并基于该当前帧深度图像确定深度变化检测区域内的深度变化信息。
可选地,该深度变化检测区域可以是由相关技术人员提前进行设置的检测是否发生深度变化的区域。
可选地,该当前帧深度图像是指在当前时间,获取到的一帧包括该深度变化检测区域的深度图像。
可选地,该深度变化信息包括该深度变化检测区域内的发生深度变化的区域的尺寸和位置。
另外,发生深度变化的区域的尺寸和位置可以是根据在深度变化检测区域内行人或物体实际位移情况决定的。
值得注意的是,深度图像是指将图像采集器采集到的场景中各点的深度值作为像素值的图像,深度图像可以直接反映物体可见表面的几何形状。通过当前帧深度图像可以确定出在该深度变化检测区域内的发生深度变化的区域的尺寸和位置,就可以确定在该深度变化检测区域内是否有行人或其他物体发生位移。这样,便于执行后续操作。
步骤1002:获取人脸检测区域对应的当前帧人脸检测图像,并基于该当前帧人脸检测图像确定人脸检测区域内的人脸信息。
可选地,该人脸检测区域可以是由相关技术人员提前进行设置的检测是否出现人脸的区域。
具体地,可以通过人脸识别算法和图像分割算法来确定在该人脸检测区域是否有人脸出现。本申请实施例对此不作限定。
可选地,该当前帧人脸检测图像是指在当前时间,获取到的一帧包括该人脸检测区域的图像。该当前帧人脸检测图像可以是红绿蓝(Red-Green-Blue,简称RGB)图像,也可以是灰度图像,还可以是其他任意可能类型的图像。本申请实施例对此不作限定。
可选地,该人脸信息包括人脸的位置和尺寸。该人脸可以是任意出现在人脸检测区域内的相关人员或用户的人脸。本申请实施例对此不作限定。
另外,该人脸的位置和尺寸可以是根据在人脸检测区域内出现该人脸的实际位置和尺寸决定的。
值得说明的是,通过该当前帧人脸检测图像可以确定出在人脸检测区域内是否出现人脸,进一步可以确定出现在人脸检测区域内的人脸的位置和尺寸。这样,便于执行后续操作。
步骤1003:根据该深度变化信息和该人脸信息,确定目标区域。
可选地,该目标区域为该投影设备的投影区域中存在目标人脸的子区域。
该目标人脸可以是指出现在人脸检测区域内的人脸。
可选地,该投影区域可以是指通过该投影设备的镜头发射出的光线能照射到的区域,也可以是指该投影设备将视频或图像投射到的区域。
可选地,上述深度变化检测区域可以和该投影区域相同。该深度变化检测区域也可以是该投影区域的一部分。另外,该深度变化检测区域不但可以包括该投影区域,还可以包括该投影区域之外的其他区域。具体可以由相关技术人员或用户根据实际需要提前进行设置。本申请实施例对此不作限定。
当然,上述人脸检测区域也可以和该投影区域相同。该深人脸检测区域也可以是该投影区域的一部分。另外,该人脸检测区域不但可以包括该投影区域,还可以包括该投影区域之外的其他区域。具体可以由相关技术人员或用户根据实际需要提前进行设置。本申请实施例对此不作限定。
这样,就可以准确地确定出在投影区域中存在目标人脸的子区域,以便精准地对投影设备的投影进行控制或调整。
步骤1004:根据该目标区域对待投影到该投影区域的画面进行调整。
值得注意的是,待投影到该投影区域的画面可以是指该投影设备即将投影到幕布上的视频或图像。对该画面进行调整的操作可以是调低该投影设备发出的光线强度。本申请实施例对此不作限定。
值得说明的是,由于该目标区域是该投影设备的投影区域中存在目标人脸的子区域,那么根据该目标区域对待投影的画面进行调整,就可以精确地调整该投影设备发出的可能照射在人脸上的光线的强度。这样,即使用户或相关技术人员出现在该投影区域,也可以避免强光直接照射在用户或相关技术人员的人脸上,进而避免出现对人们的眼睛造成损伤的情况。如此,可以提高投影的安全性和实用性。
在本申请实施例中,通过获取深度变化检测区域对应的当前帧深度图像,并基于该当前帧深度图像确定深度变化检测区域内的深度变化信息,获取人脸检测区域对应的当前帧人脸检测图像,并基于该当前帧人脸检测图像确定人脸检测区域内的人脸信息,根据该深度变化信息和该人脸信息,确定目标区域,根据该目标区域对待投影到该投影区域的画面进行调整。
其中,通过获取深度变化检测区域对应的当前帧深度图像,并基于该当前帧深度图像确定深度变化检测区域内的深度变化信息,可以深度图像的深度信息确定出深度图像各像素点的深度变化,就可以准确地确定出发生深度变化的区域的尺寸和位置,进而准确地确定出在该深度变化检测区域内是否有行人或其他物体发生位移。根据该深度变化信息和该人脸信息,确定目标区域,可以准确地确定出在投影区域中存在目标人脸的子区域,以便精准地对投影设备的投影进行控制或调整。根据该目标区域对待投影到该投影区域的画面进行调整,可以精确地调整该投影设备发出的可能照射在人脸上的光线的强度。这样,即使用户或相关技术人员出现在该投影区域,也可以避免强光直接照射在用户或相关技术人员的人脸上,进而避免出现对人们的眼睛造成损伤的情况。如此,可以达到提高投影的安全性和实用性的效果。
为了准确地确定在深度变化检测区域中发生深度变化的区域的尺寸和位置,本申请实施例提供一种可能的实现方式。在图1的基础上,参见图2,获取深度变化检测区域对应的当前帧深度图像,并基于该当前帧深度图像确定深度变化检测区域内的深度变化信息,包括:
步骤1005:通过深度检测装置获取该当前帧深度图像。
可选地,该深度检测装置可以是飞行时间(Time Of Light,简称TOF)摄像头,也可以是其他任意能获取深度图像的设备。本申请实施例对此不作限定。
示例性地,在该深度检测装置工作的情况下,可以持续获取按照时序排列的该深度变化检测区域内的多帧深度图像。该深度检测装置在当前时间下获取到的一帧深度图像即为该当前帧深度图像。
另外,该深度检测装置获取深度图像的频率可以是提前进行设置的,比如可以设置该深度检测装置每秒获取10张深度图像,当然也可以其他任意可能的频率。本申请实施例对此不作限定。
步骤1006:检测该当前帧深度图像相对于该当前帧深度图像的前一帧深度图像是否发生深度变化。
值得说明的是,由于该深度检测装置获取到的各帧深度图像是按时序排列的,那么,相对于该当前帧深度图像的前一帧深度图像就是在各帧深度图像按时序排列在该当前帧深度图像之前且与该当前帧深度图像相邻的一帧深度图像。并且因为获取各帧深度图像的时间间隔很短,这样,可以准确地确定出该当前帧深度图像是否发生深度变化。如此,可以提高该投影控制方法的准确性和实用性。
步骤1007:若检测到该当前帧深度图像相对于该当前帧深度图像的前一帧深度图像发生深度变化,则确定该当前帧深度图像中发生深度变化的区域的尺寸和位置,并根据该当前帧深度图像中发生深度变化的区域的尺寸和位置生成该深度变化信息。
值得说明的是,若该当前帧深度图像发生深度变化则可以表征该深度变化检测区域的人员或物体发生位移,确定发生深度变化的区域的尺寸和位置并生成该深度变化信息则可以准确地指示出发生位移的人员或物体的位置和大小,便于执行后续操作。这样,也可以提高控制投影的准确性。
为了准确地确定在人脸检测区域中出现的人脸的区域的尺寸和位置,本申请实施例提供一种可能的实现方式。在图1的基础上,参见图3,获取人脸检测区域对应的当前帧人脸检测图像,并基于该当前帧人脸检测图像确定人脸检测区域内的人脸信息,包括:
步骤1008:通过人脸检测装置获取该当前帧人脸检测图像。
可选地,该人脸检测装置可以是RGB摄像头,也可以是其他任意能获取到能用于人脸检测的图像的设备。本申请实施例对此不作限定。
示例性地,在该人脸检测装置工作的情况下,可以持续获取按照时序排列的该人脸检测区域内的多帧人脸检测图像。该人脸检测装置在当前时间下获取到的一帧人脸检测图像即为该当前帧人脸检测图像。
可选地,各帧人脸检测图像分别与各帧深度图像对应。并且,该人脸检测装置可以与上述深度检测装置同步工作,也就是说,该人脸检测装置获取人脸检测图像的频率可以和该深度检测装置获取深度图像的频率相同。
另外,该人脸检测装置获取人脸检测图像的频率也可以是提前进行设置的,比如可以设置人脸检测装置每秒获取10张人脸检测图像,当然也可以其他任意可能的频率。本申请实施例对此不作限定。
步骤1009:检测该当前帧人脸检测图像中是否存在人脸,若存在,则确定该人脸的位置和尺寸,并根据该人脸的位置和尺寸生成该人脸信息。
这样,就可以准确地确定出在该人脸检测区域内出现的人脸的位置和尺寸,便于执行后续操作,进而可以提高该投影控制方法的准确性和实用性。
为了准确地确定出投影区域内需要进行投影控制的目标区域,本申请实施例提供一种可能的实现方式。在图1的基础上,参见图4,根据该深度变化信息和该人脸信息,确定目标区域,包括:
步骤1010:根据第一转换矩阵对齐该深度变化检测区域和该投影区域,并根据该深度变化信息确定在该投影区域中的至少一个深度变化区域。
可选地,该第一转换矩阵可以是由相关技术人员提前进行设置的。该第一转换矩阵可以是根据该深度变化检测区域和该投影区域的位置关系计算得到的。
另外,通过该第一转换矩阵可以将该深度变化检测区域和该投影区域的坐标系对齐,进而可以简单、快速地将深度变化检测区域内发生深度变化的区域转化为该投影区域中的深度变化区域。
可选地,该深度变化区域用于指示在该投影区域中发生深度变化的位置和尺寸。
可选地,该深度变化区域可以是圆形、矩形或其他可能的形状。本申请实施例对此不做限定。
这样,就可以将深度变化检测区域内的发生深度变化的区域和投影区域中的深度变化区域对齐,也就可以准确地确定出在该投影区域中发生深度变化的位置和尺寸。
步骤1011:根据第二转换矩阵对齐该人脸检测区域和该投影区域,并根据该人脸信息确定在该投影区域中的至少一个人脸区域。
可选地,该第二转换矩阵可以是由相关技术人员提前进行设置的。该第二转换矩阵可以是根据该人脸检测区域和该投影区域的位置关系计算得到的。
另外,通过该第二转换矩阵可以将该人脸检测区域和该投影区域的坐标系对齐,进而可以简单、快速地将该人脸检测区域内出现人脸的人脸信息转化到该投影区域,以得到在该投影区域中出现的人脸的位置和大小。
可选地,该人脸区域用于指示在该投影区域中出现的该人脸的位置和尺寸。
可选地,该人脸区域可以是圆形、矩形或其他可能的形状。本申请实施例对此不做限定。
这样,就可以准确地确定出在该投影区域中出现的人脸的位置和尺寸。
步骤1012:将该深度变化区域和该人脸区域对应进行重叠比较,并确定该深度变化区域和该人脸区域的重叠比例是否大于预设有效比例。
可选地,该深度变化区域和该人脸区域的重叠比例可以是指该深度变化区域和该人脸区域的重叠面积占该深度变化区域的面积或该人脸区域的面积的比例。
可选地,该预设有效比例可以是由相关技术人员提前进行设置的。例如,可以将该预设有效比例设置为30%、50%或60%,当然也可以根据实际需要将该预设有效比例设置为其他可能的比例。
步骤1013:若是,则将该深度变化区域和该人脸区域的重叠区域作为该目标区域。
这样,就可以准确地确定出该目标区域的位置和大小,便于后续根据该目标区域对待投影到该投影区域的画面进行调整,进而可以提高该投影控制方法的准确性和实用性。
一种可能的方式,在执行步骤1010-步骤1013之前,还可以执行如下步骤:
解析该深度变化信息和该人脸信息。
从该深度变化信息中解析得到该深度变化检测区域内发生深度变化的区域的尺寸和位置,从该人脸信息中解析得到该人脸检测区域内的该人脸的位置和尺寸。
一种可能的方式,可以分别根据该深度变化检测区域、该人脸检测区域和该投影区域建立坐标系。
例如,可以根据该深度变化检测区域建立深度变化检测坐标系。
可选地,该深度变化检测坐标系可以用于表征该深度变化检测区域的位置。
该深度变化检测坐标系还可以用于表征在该深度变化检测区域中发生深度变化的区域的尺寸和位置。
可以根据该人脸检测区域建立人脸检测坐标系。
可选地,该人脸检测坐标系可以用于表征该人脸检测区域的位置。
该人脸检测坐标系还可以用于表征在该人脸检测区域中出现人脸的区域的尺寸和位置。
可以根据该投影区域建立投影坐标系。
可选地,该投影坐标系可以用于表征该投影区域的位置。
该投影坐标系还可以用于表征在该投影区域中出现人脸的区域的尺寸和位置、以及在该投影区域中发生深度变化的区域的尺寸和位置。
需要说明的是,可以通过同一个点在该深度变化检测坐标系、该人脸检测坐标系和该投影坐标系中的坐标,来确定该深度变化检测区域、该人脸检测区域和该投影区域的位置关系。
并且,可以根据这个点在该深度变化检测坐标系和该投影坐标系中的坐标进一步计算出用于对齐该深度变化检测区域和该投影区域的第一转换矩阵。
还可以根据这个点在该人脸检测坐标系和该投影坐标系中的坐标进一步计算出用于对齐该人脸检测区域和该投影区域的第二转换矩阵。
一种可能的方式,可以将上述根据该深度变化检测区域和该投影区域的位置关系计算得到的第一转换矩阵记为Ht,将上述深度变化检测区域内的发生深度变化的区域记为DROIt,可以基于上述深度变化检测坐标系的坐标来表征DROIt的位置,将上述投影区域中的深度变化区域记为DROI,可以用基于上述投影坐标系的坐标来表征DROI的位置。
那么,就可以将表征深度变化检测区域内的发生深度变化的区域DROIt的位置的坐标与第一转换矩阵Ht相乘,以使得深度变化检测区域内的发生深度变化的区域转换到该投影区域中,即可以用基于上述投影坐标系的坐标来表征在该投影区域中发生深度变化的区域,也即该投影区域中的深度变化区域DROI的位置和大小。
如下式(1)
DROI=Ht*DROIt (1)
一种可能的方式,可以将上述根据该人脸检测区域和该投影区域的位置关系计算得到的第二转换矩阵记为Hc,将在人脸检测区域内出现人脸的区域记为FROIc,可以基于上述人脸检测坐标系的坐标来表征FROIc的位置,将上述投影区域中的人脸区域记为FROI,可以用基于上述投影坐标系的坐标来表征FROI的位置。
那么,就可以将表征人脸检测区域内出现人脸的区域FROIc的位置的坐标与第二转换矩阵Hc相乘,以使得人脸检测区域内出现人脸的区域转换到该投影区域中,即可以用基于上述投影坐标系的坐标来表征在该投影区域中出现人脸的区域,也即该投影区域中的人脸区域FROI的位置和大小。
如下式(2)
FROI=Hc*FROIc (2)
一种可能的方式,由于通过上述步骤已经将深度变化检测区域内的发生深度变化的区域和人脸检测区域内出现人脸的区域已经转化到投影区域中,那么,就可以在该投影区域中将该深度变化区域和该人脸区域进行重叠比较,以确定重叠区域,可以将该深度变化区域和该人脸区域的重叠区域记为OROI,重叠区域OROI的左上点在上述投影坐标系中的坐标为(ox,oy),重叠区域OROI的宽和高分别为ow和oh。
另外,可以将投影区域中的深度变化区域DROI的左上点在该投影坐标系中的坐标记为(dx,dy),投影区域中的深度变化区域DROI的宽和高分别记为dw和dh,另外,可以将投影区域中的人脸区域FROI的左上点在该投影坐标系中的坐标记为(fx,fy),投影区域中的人脸区域FROI的宽和高分别记为fw和fh。
其中,dw和dh的值可以由深度变化区域DROI的边缘位置在该投影坐标系中的坐标计算得到。fw和fh的值可以由人脸区域FROI的边缘位置在该投影坐标系中的坐标计算得到。
那么,可以由下式(3)-(6)分别计算出ox、oy、ow和oh的值。
ox=max(dx,fx) (3)
oy=max(dy,fy) (4)
ow=min(dx+dw,fx+fw) (5)
oh=min(dy+dh,fy+fh) (6)
一种可能的实现方式中,在将该深度变化区域和该人脸区域对应进行重叠比较,并确定该深度变化区域和该人脸区域的重叠比例是否大于预设有效比例之后,该方法还包括:
若否,则将该人脸区域对应的该人脸与用户人脸库中的各用户人脸进行对比。
可选地,该用户人脸库可以存储有至少一张由用户输入的包括人脸的图像的数据库。
可选地,各用户人脸可以是可能使用该投影设备的用户的人脸,也可以是由用户输入的其他任意可能的人脸。本申请实施例对此不作限定。
在该人脸区域对应的该人脸与该用户人脸库中的任一该用户人脸匹配的情况下,则将该人脸区域作为该目标区域。
可选地,该人脸区域对应的该人脸与该用户人脸库中的任一该用户人脸匹配可以是指,该人脸区域对应的该人脸与该用户人脸库中的任一该用户人脸的相似度达到预设的阈值。
理所当然地,这个预设的阈值可以是有相关技术人员提前进行设置的,比如可以设置为70%或80%。另外,可以将这个阈值设置的较大,避免出现容易误动作的问题。
一般地,可以通过人脸识别算法或人脸识别神经网络模型来判断该人脸区域对应的该人脸与该用户人脸库中的任一该用户人脸是否匹配。本申请实施例对此不作限定。
这样,可以提高投影控制方法的灵活性和可靠性。
一种可能的实现方式中,为了提高投影的安全性和实用性,参见图5,根据该目标区域对待投影到该投影区域的画面进行调整,包括:
步骤1014:调整待投影到该目标区域的画面的光线强度。
可选地,待投影到该目标区域的画面的光线强度可以是指该投影设备即将通过待投影到该投影设备的镜头发射出的光线的强度。
具体地,将待投影到该目标区域的画面的光线强度调整到0坎德拉。当然,也可以待投影到该目标区域的画面的光线强度调整到其他可能的强度。将本申请实施例对此不作限定。
步骤1015:在该目标区域内投影遮挡图像。
可选地,该遮挡图像为像素值为预设像素值的图像。
具体地,可以将该预设像素值设置为代表黑色的像素值,比如为0。
需要注意的是,在该目标区域内投影遮挡图像之后,该目标区域会显示该遮挡图像,由于该遮挡图像的为黑色,那么相对的在该目标区域投影的光线就会很少,这样,就可以减少可能射入人眼的光线。
需要说明的是,在根据该目标区域对待投影到该投影区域的画面进行调整时,可以只执行步骤1014,也可以只执行步骤1015,也还可以同时执行步骤1014和步骤1015。本申请实施例对此不作限定。
这样,即使用户或相关技术人员出现在该投影区域,也可以避免强光直接照射在用户或相关技术人员的人脸上,进而避免出现对人们的眼睛造成损伤的情况。如此,可以提高投影的安全性和实用性。
一种可能的实现方式中,参见图6,根据该深度变化信息和该人脸信息,确定目标区域之前,该方法包括:
步骤1016:在该人脸检测区域内未检测到该人脸的情况下,则确定获取的当前帧人脸检测图像是否为获取的第一帧人脸检测图像。
可选地,可以在获取人脸检测区域对应的当前帧人脸检测图像之后,然后再确定在该人脸检测区域内是否检测到该人脸。
若获取的当前帧人脸检测图像不是获取的第一帧人脸检测图像,那么,就需要确定在当前帧人脸检测图像之前的至少一帧人脸检测图像是否检测到人脸。
若在当前帧人脸检测图像之前的至少一帧人脸检测图像检测到人脸,则可以确定当前帧人脸检测图像中可能存在人脸,需要估算当前帧人脸检测图像中可能存在人脸的位置和大小。
步骤1017:若否,则根据排列在该当前帧人脸检测图像之前的至少一帧人脸检测图像、与该当前帧人脸检测图像对应的当前帧深度图像和排列在该当前帧人脸检测图像之前的至少一帧人脸检测图像对应的至少一帧深度图像,生成获取的当前帧人脸检测图像中的人脸信息。
示例性地,可以只根据排列在该当前帧人脸检测图像之前的一帧人脸检测图像和排列在该当前帧人脸检测图像之前的一帧人脸检测图像对应的一帧深度图像来确定当前帧人脸检测图像可能存在人脸的位置和大小。
也可以根据排列在该当前帧人脸检测图像之前的多帧人脸检测图像和排列在该当前帧人脸检测图像之前的多帧人脸检测图像对应的深度图像来确定当前帧人脸检测图像可能存在人脸的位置和大小。具体可以根据实际需要进行设置。本申请实施例对此不作限定。
一种可能的方式中,将当前深度变化检测区域内的发生深度变化的区域记为DROIt’,当前投影区域中的深度变化区域记为DROI’。在当前投影区域中的深度变化区域和在当前投影区域中的人脸区域可能的重叠区域记为OROI’,前一帧深度变化检测区域内的发生深度变化的区域记为DROIt,前一帧投影区域中的深度变化区域记为DROI。在前一帧投影区域中的深度变化区域和在前一帧投影区域中的人脸区域的重叠区域记为OROI。
并且,前一帧投影区域中的深度变化区域DROI的左上点在上述投影坐标系中的坐标记为(dx,dy),宽和高分别记为dw和dh,前一帧的重叠区域OROI的左上点在该投影坐标系中的坐标记为(ox,oy),前一帧的重叠区域OROI的宽和高分别记为ow和oh。当前帧投影区域中的深度变化区域DROI’的左上点在该投影坐标系中的坐标记为(dx’,dy’),深度变化区域DROI’的宽和高分别记为dw’和dh’,当前帧的重叠区域OROI’的左上点在该投影坐标系中的坐标记为(ox’,oy’),重叠区域OROI’的宽和高分别记为ow’和oh’。
其中,上述ow和oh的值可以由前一帧的重叠区域OROI的边缘位置在该投影坐标系中的坐标计算得到。上述ow’和oh’的值可以由当前帧的重叠区域OROI’的边缘位置在该投影坐标系中的坐标计算得到。dw和dh的值可以由前一帧投影区域中的深度变化区域DROI的边缘位置在该投影坐标系中的坐标计算得到。dw’和dh’的值可以由当前帧投影区域中的深度变化区域DROI’的边缘位置在该投影坐标系中的坐标计算得到。
那么,可以由下式(7)-(10)分别计算出ox’、oy’、ow’和oh’的值。
ox’=ox+dx’-dx (7)
oy’=oy+dy’-dy (8)
ow’=ow*dw’/dw (9)
oh’=oh*dh’/dh (10)
这样,就可以在该当前帧人脸检测图像不为第一帧人脸检测图像的情况下,误检测到在该人脸检测区域内不存在人脸时,准确地估计出当前帧人脸检测图像可能存在人脸的位置和大小。如此,可以降低控制投影的失误率,进而可以达到提高投影的安全性和实用性的效果。
一种可能的实现方式中,在该人脸检测区域内未检测到该人脸,则确定获取的当前帧人脸检测图像是否为获取的第一帧人脸检测图像之后,该方法包括:
步骤A:若是,则根据与该当前帧人脸检测图像对应的当前帧深度图像的深度变化信息,生成该人脸信息。
可选地,可以根据第一转换矩阵和第二转换矩阵将该人脸检测区域和该深度变化检测区域对齐,进而将当前帧深度图像中发生深度变化的区域转换到当前帧人脸检测图像中,并且将当前帧深度图像中发生深度变化的区域的其中一部分作为该人脸检测区域可能出现人脸的区域。
具体地,可以将位于当前帧深度图像中发生深度变化的区域中上半部分的1/4区域作为该人脸检测区域可能出现人脸的区域。
可选地,还可以根据当前帧深度图像的深度变化信息,确定出投影区域内的深度变化区域,然后将位于投影区域内的深度变化区域中的上半部分的1/4区域作为投影区域中的人脸区域。
需要说明的是,若获取的当前帧人脸检测图像为获取的第一帧人脸检测图像,则说明当前帧人脸检测图像可能确实不存在人脸。但在深度变化检测区域中发生深度变化,则说明可能存在人员或物体移动,为了避免因为误判断的原因造成投影设备发出的强光射向人脸,导致对人们的眼睛造成损伤的问题,则可以根据与该当前帧人脸检测图像对应的当前帧深度图像的深度变化信息,生成该人脸信息,以估计当前帧人脸检测图像可能出现人脸的位置和大小。
如此,可以提高投影控制方法的灵活性、安全性和可靠性。
步骤B:若是,获取该人脸检测区域对应的下一帧人脸检测图像,并确定基于该下一帧人脸检测图像确定该人脸检测区域内的人脸信息。
需要说明的是,在确定获取的当前帧人脸检测图像为获取的第一帧人脸检测图像之后,可以只执行步骤A,也可以只执行步骤B,也就是说,只能执行步骤A和步骤B其中一个步骤。本申请实施例对此不作限定。
一般地,在该投影设备进行投影的过程中,难免会因为人脸检测装置发生抖动、该投影设备发射出的光线的强度的变化、上述的人脸识别算法和/或图像分割算法的稳定、或者其他可能的原因导致人脸检测区域和/或检测到的人脸发生抖动,那么,该投影设备就可能会因为人脸检测区域和检测到的人脸发生抖动而出现误动作的情况。
为了避免因为抖动造成的误动作,并且提高投影的可靠性和准确性,本申请实施例提供一种可能的实现方式,该投影设备投影到该投影区域的各帧画面是按照时序排列的。在图1的基础上,参见图7,该方法还包括:
步骤1018:比较任一帧投影区域中的目标区域的目标区域信息和该任一帧投影区域的前一帧投影区域中的目标区域的目标区域信息,确定该任一帧投影区域和该前一帧投影区域中的目标区域的尺寸误差和位置误差。
可选地,该目标区域信息包括该目标区域的尺寸和位置。
示例性地,可以比较当前帧投影区域中的目标区域的目标区域信息该当前帧投影区域的前一帧投影区域中的目标区域的目标区域信息,确定该当前帧投影区域和该当前帧投影区域的该前一帧投影区域中的目标区域的尺寸误差和位置误差。
可选地,该尺寸误差可以是指当前帧投影区域中的目标区域的面积与该当前帧投影区域的前一帧投影区域中的目标区域的面积的误差。
可选地,该位置误差可以是指当前帧投影区域中的目标区域的左上点和该当前帧投影区域的前一帧投影区域中的目标区域的左上点的坐标的误差,当然也可以是当前帧投影区域中的目标区域的其他任意点的坐标和该当前帧投影区域的前一帧投影区域中的目标区域中的对应点的坐标的误差。本申请实施例对此不作限定。
步骤1019:在该尺寸误差大于预设尺寸误差阈值和/或该位置误差大于预设位置误差阈值的情况下,根据该任一帧投影区域中的目标区域信息和排列在该任一帧投影区域之前的至少两帧投影区域中的目标区域信息,对该任一帧投影区域中的目标区域进行校正。
可选地,该预设位置误差阈值可以是提前进行设置的,且该预设位置误差阈值可以设置的较大,防止出现误校正的情况。
示例性地,在该尺寸误差大于预设尺寸误差阈值和/或该位置误差大于预设位置误差阈值的情况下,根据该当前帧投影区域中的目标区域信息和排列在该当前帧投影区域之前的至少两帧投影区域中的目标区域信息,对该当前帧投影区域中的目标区域进行校正。
例如,可以根据该当前帧投影区域中的目标区域信息和排列在该当前帧投影区域之前的四帧投影区域中的目标区域信息,对该当前帧投影区域中的目标区域进行校正。当然,也可以根据该当前帧投影区域中的目标区域信息和排列在该当前帧投影区域之前的其他数量帧的投影区域中的目标区域信息对该当前帧投影区域中的目标区域进行校正。本申请实施例对此不作限定。
示例性地,对该任一帧投影区域中的目标区域进行校正的具体操作可以是:
计算排列在该任一帧投影区域之前的至少两帧投影区域中的目标区域的位置的第一位置平均值,并计算该第一位置平均值和该任一帧投影区域中的目标区域的位置的第二位置平均值,并将该第二位置平均值作为该任一帧投影区域中的目标区域的位置。
计算排列在该任一帧投影区域之前的至少两帧投影区域中的目标区域的尺寸的第一尺寸平均值,并计算该第一尺寸平均值和该任一帧投影区域中的目标区域的尺寸的第二尺寸平均值,并将该第二尺寸平均值作为该任一帧投影区域中的目标区域的尺寸。
另外,对该任一帧投影区域中的目标区域进行校正的具体操作还可以是:
计算排列在该任一帧投影区域之前的至少两帧投影区域中的目标区域的位置和该任一帧投影区域中的目标区域的位置的第三位置平均值,并将该第三位置平均值作为该任一帧投影区域中的目标区域的位置。
计算排列在该任一帧投影区域之前的至少两帧投影区域中的目标区域的尺寸和该任一帧投影区域中的目标区域的尺寸的第三尺寸平均值,并将该第三尺寸平均值作为该任一帧投影区域中的目标区域的尺寸。
理所当然地,还可以通过其他任意可能的方式对该任一帧投影区域中的目标区域进行校正。本申请实施例对此不作限定。
下述对用以执行的本申请所提供投影控制方法的装置、设备及计算机可读存储介质等进行说明,其具体的实现过程以及技术效果参见上述,下述不再赘述。
图8是本申请实施例提供的一种投影控制装置的结构示意图,参见图8,该装置包括:
第一获取确定模块201,用于获取深度变化检测区域对应的当前帧深度图像,并基于该当前帧深度图像确定深度变化检测区域内的深度变化信息。
可选地,深度变化信息包括该深度变化检测区域内的发生深度变化的区域的尺寸和位置。
第二获取确定模块202,用于获取人脸检测区域对应的当前帧人脸检测图像,并基于该当前帧人脸检测图像确定人脸检测区域内的人脸信息。
可选地,该人脸信息包括人脸的位置和尺寸。
确定模块203,用于根据该深度变化信息和该人脸信息,确定目标区域。
可选地,目标区域为该投影设备的投影区域中存在目标人脸的子区域。
调整模块204,用于根据该目标区域对待投影到该投影区域的画面进行调整。
上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微控制器,或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(Central Processing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
图9是本申请实施例提供的一种计算机设备的结构示意图。参见图9,计算机设备包括:存储器201、处理器202,存储器201中存储有可在处理器202上运行的计算机程序,处理器202执行计算机程序时,实现上述任意各个方法实施例中的步骤。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时可实现上述各个方法实施例中的步骤。
可选地,本申请还提供一种程序产品,例如计算机可读存储介质,包括程序,该程序在被处理器执行时用于执行上述任一投影控制方法实施例。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本发明各个实施例方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种投影控制方法,其特征在于,应用于投影设备,所述方法包括:
获取深度变化检测区域对应的当前帧深度图像,并基于所述当前帧深度图像确定深度变化检测区域内的深度变化信息,所述深度变化信息包括所述深度变化检测区域内的发生深度变化的区域的尺寸和位置;
获取人脸检测区域对应的当前帧人脸检测图像,并基于所述当前帧人脸检测图像确定人脸检测区域内的人脸信息,所述人脸信息包括人脸的位置和尺寸;
根据所述深度变化信息和所述人脸信息,确定目标区域,所述目标区域为所述投影设备的投影区域中存在目标人脸的子区域;
根据所述目标区域对待投影到所述投影区域的画面进行调整。
2.如权利要求1所述的投影控制方法,其特征在于,所述获取深度变化检测区域对应的当前帧深度图像,并基于所述当前帧深度图像确定深度变化检测区域内的深度变化信息,包括:
通过深度检测装置获取所述当前帧深度图像;
检测所述当前帧深度图像相对于所述当前帧深度图像的前一帧深度图像是否发生深度变化;
若检测到所述当前帧深度图像相对于所述当前帧深度图像的前一帧深度图像发生深度变化,则确定所述当前帧深度图像中发生深度变化的区域的尺寸和位置,并根据所述当前帧深度图像中发生深度变化的区域的尺寸和位置生成所述深度变化信息。
3.如权利要求1所述的投影控制方法,其特征在于,所述根据所述深度变化信息和所述人脸信息,确定目标区域,包括:
根据第一转换矩阵对齐所述深度变化检测区域和所述投影区域,并根据所述深度变化信息确定在所述投影区域中的至少一个深度变化区域,所述深度变化区域用于指示在所述投影区域中发生深度变化的位置和尺寸;
根据第二转换矩阵对齐所述人脸检测区域和所述投影区域,并根据所述人脸信息确定在所述投影区域中的至少一个人脸区域,所述人脸区域用于指示在所述投影区域中出现的所述人脸的位置和尺寸;
将所述深度变化区域和所述人脸区域对应进行重叠比较,并确定所述深度变化区域和所述人脸区域的重叠比例是否大于预设有效比例;
若是,则将所述深度变化区域和所述人脸区域的重叠区域作为所述目标区域。
4.如权利要求3所述的投影控制方法,其特征在于,在将所述深度变化区域和所述人脸区域对应进行重叠比较,并确定所述深度变化区域和所述人脸区域的重叠比例是否大于预设有效比例之后,所述方法还包括:
若否,则将所述人脸区域对应的所述人脸与用户人脸库中的各用户人脸进行对比;
在所述人脸区域对应的所述人脸与所述用户人脸库中的任一所述用户人脸匹配的情况下,则将所述人脸区域作为所述目标区域。
5.如权利要求1所述的投影控制方法,其特征在于,所述根据所述目标区域对待投影到所述投影区域的画面进行调整,包括:
调整待投影到所述目标区域的画面的光线强度,和/或,
在所述目标区域内投影遮挡图像,所述遮挡图像为像素值为预设像素值的图像。
6.如权利要求1-5任一项所述的投影控制方法,其特征在于,所述根据所述深度变化信息和所述人脸信息,确定目标区域之前,所述方法包括:
在所述人脸检测区域内未检测到所述人脸的情况下,则确定获取的当前帧人脸检测图像是否为获取的第一帧人脸检测图像;
若否,则根据排列在所述当前帧人脸检测图像之前的至少一帧人脸检测图像、与所述当前帧人脸检测图像对应的当前帧深度图像和排列在所述当前帧人脸检测图像之前的至少一帧人脸检测图像对应的至少一帧深度图像,生成获取的当前帧人脸检测图像中的人脸信息。
7.如权利要求6所述的投影控制方法,其特征在于,在所述人脸检测区域内未检测到所述人脸,则确定获取的当前帧人脸检测图像是否为获取的第一帧人脸检测图像之后,所述方法包括:
若是,则根据与所述当前帧人脸检测图像对应的当前帧深度图像的深度变化信息,生成所述人脸信息;
或者,
则获取所述人脸检测区域对应的下一帧人脸检测图像,并确定基于所述下一帧人脸检测图像确定所述人脸检测区域内的人脸信息。
8.如权利要求1-5任一项所述的投影控制方法,其特征在于,所述投影设备投影到所述投影区域的各帧画面是按照时序排列的,所述方法还包括:
比较任一帧投影区域中的目标区域的目标区域信息和所述任一帧投影区域的前一帧投影区域中的目标区域的目标区域信息,确定所述任一帧投影区域和所述前一帧投影区域中的目标区域的尺寸误差和位置误差,所述目标区域信息包括所述目标区域的尺寸和位置;
在所述尺寸误差大于预设尺寸误差阈值和/或所述位置误差大于预设位置误差阈值的情况下,根据所述任一帧投影区域中的目标区域信息和排列在所述任一帧投影区域之前的至少两帧投影区域中的目标区域信息,对所述任一帧投影区域中的目标区域进行校正。
9.一种投影控制装置,其特征在于,应用于投影设备,所述装置包括:
第一获取确定模块,用于获取深度变化检测区域对应的当前帧深度图像,并基于所述当前帧深度图像确定深度变化检测区域内的深度变化信息,所述深度变化信息包括所述深度变化检测区域内的发生深度变化的区域的尺寸和位置;
第二获取确定模块,用于获取人脸检测区域对应的当前帧人脸检测图像,并基于所述当前帧人脸检测图像确定人脸检测区域内的人脸信息,所述人脸信息包括人脸的位置和尺寸;
确定模块,用于根据所述深度变化信息和所述人脸信息,确定目标区域,所述目标区域为所述投影设备的投影区域中存在目标人脸的子区域;
调整模块,用于根据所述目标区域对待投影到所述投影区域的画面进行调整。
10.一种计算机设备,其特征在于,包括:存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述权利要求1至8任一项所述的方法的步骤。
CN202210214457.7A 2022-03-07 2022-03-07 投影控制方法、装置、计算机设备和计算机可读存储介质 Active CN114827561B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210214457.7A CN114827561B (zh) 2022-03-07 2022-03-07 投影控制方法、装置、计算机设备和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210214457.7A CN114827561B (zh) 2022-03-07 2022-03-07 投影控制方法、装置、计算机设备和计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN114827561A true CN114827561A (zh) 2022-07-29
CN114827561B CN114827561B (zh) 2023-03-28

Family

ID=82529520

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210214457.7A Active CN114827561B (zh) 2022-03-07 2022-03-07 投影控制方法、装置、计算机设备和计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN114827561B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117041508A (zh) * 2023-10-09 2023-11-10 杭州罗莱迪思科技股份有限公司 一种分布式投影方法、投影系统、设备和介质

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060029422A1 (en) * 2004-08-06 2006-02-09 Brother Kogyo Kabushiki Kaisha Photosensitive member cartridge, developer cartridge and process cartridge
CN101799584A (zh) * 2009-02-11 2010-08-11 乐金显示有限公司 控制立体图像视图的方法及使用该方法的立体图像显示器
CN103824303A (zh) * 2014-03-14 2014-05-28 格科微电子(上海)有限公司 基于被摄物的位置、方向调整图像透视畸变的方法和装置
US20160337626A1 (en) * 2014-12-25 2016-11-17 Panasonic Intellectual Property Management Co., Ltd. Projection apparatus
CN107563302A (zh) * 2017-08-09 2018-01-09 广东欧珀移动通信有限公司 移除眼镜的人脸还原方法和装置
CN108050958A (zh) * 2018-01-11 2018-05-18 苏州江奥光电科技有限公司 一种基于视场匹配的单目深度相机及其对物体形貌的检测方法
CN108200416A (zh) * 2017-12-15 2018-06-22 歌尔科技有限公司 投影设备中投影图像的坐标映射方法、装置及投影设备
CN108848361A (zh) * 2018-07-13 2018-11-20 网易(杭州)网络有限公司 用于交互式投影仪的方法、介质、装置和计算设备
CN109167904A (zh) * 2018-10-31 2019-01-08 Oppo广东移动通信有限公司 图像获取方法、图像获取装置、结构光组件及电子装置
CN109660779A (zh) * 2018-12-20 2019-04-19 歌尔科技有限公司 基于投影的触控点定位方法、投影设备及存储介质
US20190137854A1 (en) * 2016-07-27 2019-05-09 Optim Corporation Projection system, projection method, and projection program
CN109886195A (zh) * 2019-02-21 2019-06-14 江苏苏宁银行股份有限公司 基于深度相机近红外单色灰度图的皮肤识别方法
CN110996084A (zh) * 2019-12-24 2020-04-10 成都极米科技股份有限公司 投影图像处理方法、装置、投影设备及存储介质
CN111401288A (zh) * 2020-03-24 2020-07-10 重庆德生鼎盛实业发展有限公司 一种工程项目作业的定场景监控系统
US20200257406A1 (en) * 2018-05-21 2020-08-13 Compal Electronics, Inc. Interactive projection system and interactive projection method
CN112232109A (zh) * 2020-08-31 2021-01-15 深圳奥比中光科技有限公司 一种活体人脸检测方法及系统
CN113313097A (zh) * 2021-07-30 2021-08-27 浙江大华技术股份有限公司 人脸识别方法、终端及计算机可读存储介质

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060029422A1 (en) * 2004-08-06 2006-02-09 Brother Kogyo Kabushiki Kaisha Photosensitive member cartridge, developer cartridge and process cartridge
CN101799584A (zh) * 2009-02-11 2010-08-11 乐金显示有限公司 控制立体图像视图的方法及使用该方法的立体图像显示器
CN103824303A (zh) * 2014-03-14 2014-05-28 格科微电子(上海)有限公司 基于被摄物的位置、方向调整图像透视畸变的方法和装置
US20160337626A1 (en) * 2014-12-25 2016-11-17 Panasonic Intellectual Property Management Co., Ltd. Projection apparatus
US20190137854A1 (en) * 2016-07-27 2019-05-09 Optim Corporation Projection system, projection method, and projection program
CN107563302A (zh) * 2017-08-09 2018-01-09 广东欧珀移动通信有限公司 移除眼镜的人脸还原方法和装置
CN108200416A (zh) * 2017-12-15 2018-06-22 歌尔科技有限公司 投影设备中投影图像的坐标映射方法、装置及投影设备
CN108050958A (zh) * 2018-01-11 2018-05-18 苏州江奥光电科技有限公司 一种基于视场匹配的单目深度相机及其对物体形貌的检测方法
US20200257406A1 (en) * 2018-05-21 2020-08-13 Compal Electronics, Inc. Interactive projection system and interactive projection method
CN108848361A (zh) * 2018-07-13 2018-11-20 网易(杭州)网络有限公司 用于交互式投影仪的方法、介质、装置和计算设备
CN109167904A (zh) * 2018-10-31 2019-01-08 Oppo广东移动通信有限公司 图像获取方法、图像获取装置、结构光组件及电子装置
CN109660779A (zh) * 2018-12-20 2019-04-19 歌尔科技有限公司 基于投影的触控点定位方法、投影设备及存储介质
CN109886195A (zh) * 2019-02-21 2019-06-14 江苏苏宁银行股份有限公司 基于深度相机近红外单色灰度图的皮肤识别方法
CN110996084A (zh) * 2019-12-24 2020-04-10 成都极米科技股份有限公司 投影图像处理方法、装置、投影设备及存储介质
CN111401288A (zh) * 2020-03-24 2020-07-10 重庆德生鼎盛实业发展有限公司 一种工程项目作业的定场景监控系统
CN112232109A (zh) * 2020-08-31 2021-01-15 深圳奥比中光科技有限公司 一种活体人脸检测方法及系统
CN113313097A (zh) * 2021-07-30 2021-08-27 浙江大华技术股份有限公司 人脸识别方法、终端及计算机可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Y VENKATA SAI: "《An In-Depth Look at the Images for Finding Information using Deep learning and Reverse Image Search》", 《2021 5TH INTERNATIONAL CONFERENCE ON TRENDS IN ELECTRONICS AND INFORMATICS (ICOEI)》 *
刘超: "《非二次曲面多投影的畸变及光强校正方法研究》", 《中国优秀硕士学位论文全文数据库》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117041508A (zh) * 2023-10-09 2023-11-10 杭州罗莱迪思科技股份有限公司 一种分布式投影方法、投影系统、设备和介质
CN117041508B (zh) * 2023-10-09 2024-01-16 杭州罗莱迪思科技股份有限公司 一种分布式投影方法、投影系统、设备和介质

Also Published As

Publication number Publication date
CN114827561B (zh) 2023-03-28

Similar Documents

Publication Publication Date Title
US9710109B2 (en) Image processing device and image processing method
EP3588456B1 (en) Image processing apparatus, image processing method, and program
EP3680808A1 (en) Augmented reality scene processing method and apparatus, and computer storage medium
US7944454B2 (en) System and method for user monitoring interface of 3-D video streams from multiple cameras
JP4700477B2 (ja) 移動体監視システムおよび移動体特徴量算出装置
US10163027B2 (en) Apparatus for and method of processing image based on object region
EP2824923A1 (en) Apparatus, system and method for projecting images onto predefined portions of objects
KR20140099098A (ko) 능동 스테레오 매칭 방법 및 그 장치
CN108648225B (zh) 目标图像获取系统与方法
CN112272292B (zh) 投影校正方法、装置和存储介质
CN104978077B (zh) 一种交互方法及系统
CN114827561B (zh) 投影控制方法、装置、计算机设备和计算机可读存储介质
US20150278631A1 (en) Filtering methods for visual object detection
CN111754575B (zh) 对象定位方法、投影方法、装置和投影仪
US20150003736A1 (en) Method and apparatus for extracting pattern from image
US20230386256A1 (en) Techniques for detecting a three-dimensional face in facial recognition
US11210767B2 (en) Information processing apparatus to determine candidate for lighting effect, information processing method, and storage medium
WO2013088657A1 (ja) 投射型投影装置、光防眩方法、および光防眩用プログラム
US9842406B2 (en) System and method for determining colors of foreground, and computer readable recording medium therefor
CN114926891A (zh) 瞳孔检测方法、装置、存储介质及电子设备
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
JP2018190132A (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
KR102103614B1 (ko) 전방 프로젝션 환경에서 그림자를 제거하기 위한 방법
JP2007025901A (ja) 画像処理装置、画像処理方法
Kale et al. Epipolar constrained user pushbutton selection in projected interfaces

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 610000 building 4, zone a, Tianfu Software Park, No. 1129, shijicheng Road, high tech Zone, Chengdu, Sichuan

Patentee after: Jimi Technology Co.,Ltd.

Address before: 610000 building 4, zone a, Tianfu Software Park, No. 1129, shijicheng Road, high tech Zone, Chengdu, Sichuan

Patentee before: Chengdu Jimi Technology Co.,Ltd.