CN109769326B - 一种追光方法、装置及设备 - Google Patents

一种追光方法、装置及设备 Download PDF

Info

Publication number
CN109769326B
CN109769326B CN201711096626.7A CN201711096626A CN109769326B CN 109769326 B CN109769326 B CN 109769326B CN 201711096626 A CN201711096626 A CN 201711096626A CN 109769326 B CN109769326 B CN 109769326B
Authority
CN
China
Prior art keywords
target
image
determining
tracked
current moment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711096626.7A
Other languages
English (en)
Other versions
CN109769326A (zh
Inventor
许朝斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201711096626.7A priority Critical patent/CN109769326B/zh
Publication of CN109769326A publication Critical patent/CN109769326A/zh
Application granted granted Critical
Publication of CN109769326B publication Critical patent/CN109769326B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明实施例提供了一种追光方法、装置及设备,方法包括:针对追光过程中的每一时刻,实时获取该时刻采集的图像,在图像中识别该时刻下待追光目标所在的图像区域,根据该图像区域在该图像中的位置、以及该图像区域的深度信息,确定该时刻待追光目标在场景中的位置,控制灯光设备对准该位置进行打光;可见,本方案中,在追光过程中,实时对每一时刻采集的图像进行分析,根据分析结果控制灯光设备打光,即使演出人员并未按照预先确定的移动轨迹移动,通过实时分析,仍能控制灯光设备对待追光演出人员所在的位置进行打光,提高了追光效果。

Description

一种追光方法、装置及设备
技术领域
本发明涉及图像处理技术领域,特别是涉及一种追光方法、装置及设备。
背景技术
在一些场景中,通常需要对场景中的目标进行追光。比如,在舞台场景中,通常需要对指定的演出人员进行追光。相关方案中,通常根据各演出人员在舞台中的移动轨迹,预先设定各灯光设备在各个时刻对准的位置,并将设定的信息(各灯光设备在各个时刻对准的位置)存储至控制设备中,演出开始后,控制设备根据该设定的信息对各灯光设备进行控制。
应用上述方案,如果演出中演出人员并未按照预先确定的移动轨迹移动,则不能实现较好的追光效果。
发明内容
本发明实施例的目的在于提供一种追光方法、装置及设备,以提高追光效果。
为达到上述目的,本发明实施例提供了一种追光方法,包括:
获取当前时刻针对预设场景采集的图像;
在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域;
确定所述图像区域的深度信息;
根据所述图像区域在所述图像中的位置、以及所述深度信息,确定所述待追光目标在所述预设场景中的位置;
控制灯光设备对准所确定的位置进行打光。
可选的,在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域,可以包括:
确定所述当前时刻下的待追光目标的特征模型;
识别所述图像中的每个目标区域;
分别将所述每个目标区域与所述特征模型进行匹配;
将匹配成功的目标区域确定为所述待追光目标所在的图像区域。
可选的,所述确定所述当前时刻下的待追光目标的特征模型,可以包括:
在预先确定的每个时间段的待追光目标中,确定所述当前时刻下的待追光目标;或者,接收选择指令,根据所述选择指令确定所述当前时刻下的待追光目标;
在预先获取的每个目标的特征模型中,确定所述当前时刻下的待追光目标的特征模型。
可选的,所述获取当前时刻针对预设场景采集的图像,可以包括:
获取针对预设场景采集的当前帧图像;
在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域,包括:
针对所述当前时刻下的每个待追光目标,判断该待追光目标是否存在于前一时刻下的待追光目标中;
如果存在,利用跟踪算法,根据所述前一时刻下的该待追光目标在前一帧图像中的图像区域,确定所述当前时刻下的该待追光目标在所述当前帧图像中的图像区域;
如果不存在,确定所述当前时刻下的该待追光目标的特征模型;识别所述当前帧图像中的每个目标区域;分别将所述每个目标区域与所述特征模型进行匹配;将匹配成功的目标区域确定为该待追光目标所在的图像区域。
可选的,所述获取当前时刻针对预设场景采集的图像,可以包括:
获取当前时刻针对预设场景采集的二维图像;
所述在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域,包括:
在所述二维图像中,识别所述当前时刻下的待追光目标所在的二维图像区域;
所述确定所述图像区域的深度信息,可以包括:
获取所述当前时刻针对所述预设场景采集的深度图像;
根据所述二维图像与所述深度图像的映射关系,确定所述二维图像区域映射到所述深度图像中的深度信息。
可选的,所述获取当前时刻针对预设场景采集的图像,可以包括:
获取当前时刻针对预设场景采集的三维图像;
所述在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域,包括:
在所述三维图像中,识别所述当前时刻下的待追光目标所在的三维图像区域;
所述确定所述图像区域的深度信息,可以包括:
确定所述三维图像区域的深度信息。
可选的,在所述控制灯光设备对准所确定的位置进行打光之前,还包括:
确定所述待追光目标对应的灯光设备及灯光参数;
根据所述灯光参数,对所述灯光设备进行调整;
所述控制灯光设备对准所确定的位置进行打光,包括:
控制调整后的灯光设备对准所确定的位置进行打光。
为达到上述目的,本发明实施例还提供了一种追光装置,包括:
获取模块,用于获取当前时刻针对预设场景采集的图像;
识别模块,用于在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域;
第一确定模块,用于确定所述图像区域的深度信息;
第二确定模块,用于根据所述图像区域在所述图像中的位置、以及所述深度信息,确定所述待追光目标在所述预设场景中的位置;
控制模块,用于控制灯光设备对准所确定的位置进行打光。
可选的,所述识别模块,可以包括:
第一确定子模块,用于确定所述当前时刻下的待追光目标的特征模型;
识别子模块,用于识别所述图像中的每个目标区域;
匹配子模块,用于分别将所述每个目标区域与所述特征模型进行匹配;
第二确定子模块,用于将匹配成功的目标区域确定为所述待追光目标所在的图像区域。
可选的,所述第一确定子模块,具体可以用于:
在预先确定的每个时间段的待追光目标中,确定所述当前时刻下的待追光目标;或者,接收选择指令,根据所述选择指令确定所述当前时刻下的待追光目标;
在预先获取的每个目标的特征模型中,确定所述当前时刻下的待追光目标的特征模型。
可选的,所述获取模块,具体可以用于:
获取针对预设场景采集的当前帧图像;
所述识别模块,具体可以用于:
针对所述当前时刻下的每个待追光目标,判断该待追光目标是否存在于前一时刻下的待追光目标中;
如果存在,利用跟踪算法,根据所述前一时刻下的该待追光目标在前一帧图像中的图像区域,确定所述当前时刻下的该待追光目标在所述当前帧图像中的图像区域;
如果不存在,确定所述当前时刻下的该待追光目标的特征模型;识别所述当前帧图像中的每个目标区域;分别将所述每个目标区域与所述特征模型进行匹配;将匹配成功的目标区域确定为该待追光目标所在的图像区域。
可选的,所述获取模块,具体可以用于:
获取当前时刻针对预设场景采集的二维图像;
所述识别模块,具体可以用于:
在所述二维图像中,识别所述当前时刻下的待追光目标所在的二维图像区域;
所述第一确定模块,具体可以用于:
获取所述当前时刻针对所述预设场景采集的深度图像;
根据所述二维图像与所述深度图像的映射关系,确定所述二维图像区域映射到所述深度图像中的深度信息。
可选的,所述获取模块,具体可以用于:
获取当前时刻针对预设场景采集的三维图像;
所述识别模块,具体可以用于:
在所述三维图像中,识别所述当前时刻下的待追光目标所在的三维图像区域;
所述第一确定模块,具体可以用于:
确定所述三维图像区域的深度信息。
可选的,所述装置还可以包括:
第三确定模块,用于确定所述待追光目标对应的灯光设备及灯光参数;
调整模块,用于根据所述灯光参数,对所述灯光设备进行调整;
所述控制模块,具体可以用于:
控制调整后的灯光设备对准所确定的位置进行打光。
为达到上述目的,本发明实施例还提供了一种电子设备,包括处理器和存储器,其中,
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一种追光方法。
为达到上述目的,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种追光方法。
应用本发明实施例,针对追光过程中的每一时刻,实时获取该时刻采集的图像,在图像中识别该时刻下待追光目标所在的图像区域,根据该图像区域在该图像中的位置、以及该图像区域的深度信息,确定该时刻待追光目标在场景中的位置,控制灯光设备对准该位置进行打光;可见,本方案中,在追光过程中,实时对每一时刻采集的图像进行分析,根据分析结果控制灯光设备打光,即使演出人员并未按照预先确定的移动轨迹移动,通过实时分析,仍能控制灯光设备对待追光演出人员所在的位置进行打光,提高了追光效果。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的追光方法的第一种流程示意图;
图2为本发明实施例提供的追光方法的第二种流程示意图;
图3为本发明实施例提供的一种追光装置的结构示意图;
图4为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了解决上述技术问题,本发明实施例提供了一种追光方法、装置及设备。该方法及装置可以应用于采集设备,也可以应用于与采集设备通信连接的各种电子设备,具体不做限定。
下面首先对本发明实施例提供的一种追光方法进行详细说明。
图1为本发明实施例提供的追光方法的第一种流程示意图,包括:
S101:获取当前时刻针对预设场景采集的图像。
S102:在该图像中,识别该当前时刻下的待追光目标所在的图像区域。
S103:确定该图像区域的深度信息。
S104:根据该图像区域在该图像中的位置、以及该深度信息,确定该待追光目标在该预设场景中的位置。
S105:控制灯光设备对准所确定的位置进行打光。
应用本发明图1所示实施例,针对追光过程中的每一时刻,实时获取该时刻采集的图像,在图像中识别该时刻下待追光目标所在的图像区域,根据该图像区域在该图像中的位置、以及该图像区域的深度信息,确定该时刻待追光目标在场景中的位置,控制灯光设备对准该位置进行打光;可见,本方案中,在追光过程中,实时对每一时刻采集的图像进行分析,根据分析结果控制灯光设备打光,即使演出人员并未按照预先确定的移动轨迹移动,通过实时分析,仍能控制灯光设备对待追光演出人员所在的位置进行打光,提高了追光效果。
下面对图1所示实施例进行详细说明:
S101:获取当前时刻针对预设场景采集的图像。
本发明实施例可以应用于追光过程中的任一时刻,或者,应用于追光过程中的每一时刻。举例来说,假设本发明实施例应用于舞台上的演出过程中的每一时刻,则该预设场景即为舞台,演出的同时,采集设备针对舞台进行图像采集。
如果执行主体(执行本实施例的设备,以下简称本设备)与采集设备为同一设备,则S101中获取的图像为本设备实时采集的图像;如果本设备与采集设备为不同设备,则S101中获取的图像为采集设备实时采集并发送给本设备的图像。
如果场景较大,可以利用广角相机进行图像采集,或者,也可以利用多台相机从多角度进行图像采集,再将采集到的多角度图像拼接成一张图像,也就是S101中获取的图像。
S102:在该图像中,识别该当前时刻下的待追光目标所在的图像区域。
在演出过程中,待追光目标即为需要追光的演出人员,可以理解,在一些情况下,舞台中会存在多个演出人员,而只有部分演出人员需要追光,因此,需要在图像中识别出需要追光的人员(待追光目标)所在的图像区域。另外,在演出过程中,不同时刻需要追光的人员可能不同,因此,需要在图像中识别出当前时刻下需要追光的人员。
作为一种实施方式,S102可以包括:
确定所述当前时刻下的待追光目标的特征模型;
识别所述图像中的每个目标区域;
分别将所述每个目标区域与所述特征模型进行匹配;
将匹配成功的目标区域确定为所述待追光目标所在的图像区域。
在本实施方式中,可以针对每个待追光目标,构建其特征模型。构建特征模型的方式有多种,比如,针对每个待追光目标,采集该待追光目标的多张图像,在该多张图像中提取该目标的多个特征,得到该待追光目标的特征模型。
以待追光目标为人员为例来说,该特征可以包含颜色、纹理、尺寸等特征,也可以包含所穿戴的服饰特征,也可以包含人体目标的身高、体型、臂长、腿长、发型等特征,具体不做限定。在图像中提取目标特征的方式有很多,比如,利用边缘检测算法,检测图像中目标所在的区域,再提取该区域的图像特征;或者,利用预先训练得到的神经网络提取图像中目标的特征,等等,具体不做限定。提取到的多个特征组成该人员的特征模型。又例如,假设待追光目标为人员,通过人脸识别待带追光目标,那么该特征可以包括肤色、轮廓、鼻部、眼睛、耳朵等部位的特征等等,在此不作限定。
在本实施方式中,可以预先获取多个目标的特征模型,这样,在确定出当前时刻下待追光目标后,便可以从预先获取的多个特征模型中,选择出该待追光目标的特征模型。例如,可以让需要追光的人员事先穿戴好演出服饰,然后拍摄其照片或者视频,利用拍摄的照片或视频提取出每个人员穿戴一套服饰的特征模型,预先针对每个时间段确定出该时间段需要追光的人员及服饰(即待追光目标),这样,就预先确定出每个时间段对应的待追光目标,并建立好每个待追光目标的特征模型,在执行S102过程中到达每个时间段时,就可以直接提取出对应的待追光目标的特征模型了。
如前所述,在演出过程中,不同时刻需要追光的人员可能不同,因此,可以预先确定每个时间段的待追光目标,这样,便可以根据每个时间段的待追光目标,确定该当前时刻下的待追光目标,并在预先获取的每个目标的特征模型中,确定该所述当前时刻下的待追光目标的特征模型。
举个简单的例子,假设预先确定出:演出的前10分钟,需要对人员A进行追光,中间20分钟,需要对人员B进行追光,后20分钟,需要对人员C追光;则演出的前10分钟执行本实施方式时,确定出的当前时刻下的待追光目标为人员A,在预先获取的多个特征模型中,选择人员A的特征模型;演出的中间20分钟执行本实施方式时,确定出的当前时刻下的待追光目标为人员B,在预先获取的多个特征模型中,选择人员B的特征模型;演出的后20分钟执行本实施方式时,确定出的当前时刻下的待追光目标为人员C,在预先获取的多个特征模型中,选择人员C的特征模型。
上述例子仅为简要说明,也可以同时确定多个待追光目标。比如,同一时刻下,需要对多个人员进行追光,则将图像中的每个目标区域分别与这多个人员的特征模型进行匹配,这样,便确定出多个待追光目标所在的图像区域。。
或者,作为另一种实施方式,本设备也可以在演出过程中,接收选择指令,根据选择指令确定所述当前时刻下的待追光目标;在预先获取的每个目标的特征模型中,确定所述当前时刻下的待追光目标的特征模型。
应用本实施方式,可以在演出过程中临时调整待追光目标。具体的,可以提供用户交互界面,接收用户的选择指令,该选择指令可以为添加指令,也就是在原有待追光目标的基础上,再添加一个或多个新待追光目标,或者,该选择指令也可以为替换指令,也就是将新待追光目标替换原有待追光目标,这都是合理的,具体不做限定。
延续上述例子,假设在演出开始后的15分钟,接收到用户的选择指令,该选择指令为添加指令,该指令中携带了人员D的信息,则根据该选择指令,将人员D也作为待追光人员,确定人员D的特征模型,以实现同时对人员B、人员D进行追光。
作为另一种实施方式,采集设备可以针对预设场景进行视频采集,这样,S101为:获取针对预设场景采集的当前帧图像;S102可以包括:
获取针对预设场景采集的当前帧图像;
在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域,包括:
针对所述当前时刻下的每个待追光目标,判断该待追光目标是否存在于前一时刻下的待追光目标中;
如果存在,利用跟踪算法,根据所述前一时刻下的该待追光目标在前一帧图像中的图像区域,确定所述当前时刻下的该待追光目标在所述当前帧图像中的图像区域;
如果不存在,确定所述当前时刻下的该待追光目标的特征模型;识别所述当前帧图像中的每个目标区域;分别将所述每个目标区域与所述特征模型进行匹配;将匹配成功的目标区域确定为该待追光目标所在的图像区域。
本领域技术人员可以理解,在一段连续的视频中,可以利用跟踪算法,在相邻帧图像之间进行目标跟踪,也就是将第n-1帧图像中的目标关联到第n帧图像中。因此,在本实施方式中,不必将每一帧图像都与待追光目标的特征模型进行匹配;可以在待追光目标不发生变化的情况下,仅进行一次匹配,在某一帧图像中,确定出待追光目标所在的图像区域,然后,便可以利用跟踪算法,在该帧图像之后的图像中确定待追光目标所在的图像区域,从而加快处理速度,提升追光效果。
举例来说,一帧图像中可以存在多个待追光目标,假设前一时刻下的待追光目标包括人员A、人员B、人员C,当前时刻下的待追光目标包括人员A、人员B、人员D;针对当前时刻下的每个待追光目标,判断其是否存在于前一时刻下的待追光目标中:
人员A存在于前一时刻下的待追光目标中,则利用跟踪算法,根据前一时刻下的人员A在前一帧图像中的图像区域,确定所述当前时刻下的人员A在所述当前帧图像中的图像区域;
人员B存在于前一时刻下的待追光目标中,则利用跟踪算法,根据前一时刻下的人员B在前一帧图像中的图像区域,确定所述当前时刻下的人员B在所述当前帧图像中的图像区域;
人员D不存在于前一时刻下的待追光目标中,则确定所述当前时刻下的该待追光目标的特征模型;识别所述当前帧图像中的每个目标区域;分别将所述每个目标区域与所述特征模型进行匹配;将匹配成功的目标区域确定为该待追光目标所在的图像区域。
前面内容中已经详细介绍过与特征模型者匹配的过程,这里不再赘述。另外,跟踪算法有很多,比如,Mean-Shift算法(均值漂移算法),TLD(tracking learning detection,跟踪学习检测)算法等,具体不做限定。
需要说明的是,在本实施方式中,确定当前时刻下的每个待追光目标的方式有多种,比如上述内容中,可以在预先确定的每个时间段的待追光目标中,确定所述当前时刻下的每个待追光目标,或者,接收选择指令,根据所述选择指令确定所述当前时刻下的每个待追光目标。
S103:确定该图像区域的深度信息。
作为一种实施方式,S101中采集到的图像为二维图像,也可以理解为,该图像中的像素点仅具有XY坐标值,则S102中确定出的图像区域也为二维图像区域。这种情况下,可以在场景中设置一台能够采集深度图像的设备,该设备采集到的深度图像与该二维图像中的画面内容一致。比如,该设备可以为TOF(Time of Flight,飞行时间)设备,通过计算光线发射和反射时间差或相位差,来计算算被拍摄景物的距离,从而得到深度信息。或者,该设备也可以为能够采集深度图像的双目相机,等等,具体不做限定。
该深度图像中的像素点可以仅具有Z坐标值。可以预先确定该二维图像与深度图像的映射关系,也就是确定XY坐标值与Z坐标值的映射关系。根据该映射关系,将S102中确定出的二维图像区域映射到深度图像中,便得到了该二维图像区域的深度信息,也就是得到了该二维图像区域中像素点的Z值。
作为另一种实施方式,S101中采集的图像可以为三维图像,该三维图像本身携带深度信息,也可以理解为,该图像中的像素点具有XYZ坐标值,则S102中确定出的图像区域也为三维图像区域。这种情况下,可以直接确定该三维图像区域的深度信息。
S104:根据该图像区域在该图像中的位置、以及该深度信息,确定该待追光目标在该预设场景中的位置。
该图像区域在图像中的位置也就是XY坐标值,深度信息也就是Z坐标值,可以将该图像区域的XYZ坐标值映射到真实世界坐标系中,也就得到了该待追光目标在该预设场景中的位置。
或者,也可以预先建立相机三维坐标系与该场景的对应关系,根据该对应关系,确定该图像区域的XYZ坐标值映射到场景中的位置,也就是该待追光目标在该场景中的位置。
S105:控制灯光设备对准所确定的位置进行打光。
作为一种实施方式,在S105之前可以包括:确定所述待追光目标对应的灯光设备及灯光参数;根据所述灯光参数,对所述灯光设备进行调整;这种情况下,S105为:控制调整后的灯光设备对准所确定的位置进行打光。
通常情况下,舞台场景中,灯光设备的数量不只一台,可以预先对各台灯光设备进行编号,或者利用其他方式进行标记。另外,灯光设备的灯光参数,比如,发射灯光的颜色、强度、灯光移动方式等,也是可以调整的。因此,在预先确定每个时间段的待追光目标的过程中,也可以确定对该待追光目标进行打光的灯光设备编号、以及灯光参数。这样,在确定出当前时刻下的待追光目标后,可以确定该待追光目标对应的灯光设备编号以及灯光参数,并根据该灯光参数,对该编号的灯光设备进行调整。在确定出该待追光目标的位置后,便控制该调整后的灯光设备对准所确定的位置进行打光。
在本实施方式中,能够同时利用不同的灯光设备对不同的待追光目标进行打光,互不干扰。
在上述实施例中,第一方面,在追光过程中,实时对每一时刻采集的图像进行分析,根据分析结果控制灯光设备打光,即使演出人员并未按照预先确定的移动轨迹移动,通过实时分析,仍能控制灯光设备对待追光演出人员所在的位置进行打光,提高了追光效果;第二方面,预先获取各待追光目标的特征模型,通过特征模型匹配图像中的目标,即使环境亮度发生变化、或者目标姿态发生变化,匹配准确度仍然较高;第三方面,结合深度信息确定待追光目标的位置,定位准确度较高;第四方面,在一些追光方案中,需要演出人员随身携带无线定位器,给演出带来了极大的不便,而本实施例中,演出人员不需要携带定位器,既降低了设备成本,又避免了这种不便。
图2为本发明实施例提供的追光方法的第二种流程示意图,包括:
S201:获取针对预设场景采集的当前帧图像。
S202:针对当前时刻下的每个待追光目标,判断该待追光目标是否存在于前一时刻下的待追光目标中;如果是,执行S203,如果否执行S204。
S203:利用跟踪算法,根据前一时刻下的该待追光目标在前一帧图像中的图像区域,确定当前时刻下的该待追光目标在当前帧图像中的图像区域。
S204:确定当前时刻下的该待追光目标的特征模型;识别当前帧图像中的每个目标区域;分别将每个目标区域与该特征模型进行匹配;将匹配成功的目标区域确定为该待追光目标所在的图像区域。
S205:确定每个图像区域的深度信息。
S206:根据每个图像区域在该图像中的位置及其深度信息,确定每个待追光目标在该预设场景中的位置。
S207:针对每个待追光目标,确定该待追光目标对应的灯光设备及灯光参数。
S208:根据该灯光参数,对该灯光设备进行调整。
S209:控制调整后的灯光设备对准该待追光目标在该预设场景中的位置进行打光。
假设上述待追光目标有多个,那么可以控制多个灯光设备,采用各自对应的灯光参数(例如,颜色、强度、灯光形状、移动速度)等,分别对每个追光目标进行追光。
与上述方法实施例相对应,本发明实施例还提供了一种追光装置。
图3为本发明实施例提供的一种追光装置的结构示意图,包括:
获取模块301,用于获取当前时刻针对预设场景采集的图像;
识别模块302,用于在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域;
第一确定模块303,用于确定所述图像区域的深度信息;
第二确定模块304,用于根据所述图像区域在所述图像中的位置、以及所述深度信息,确定所述待追光目标在所述预设场景中的位置;
控制模块305,用于控制灯光设备对准所确定的位置进行打光。
作为一种实施方式,识别模块302,可以包括:第一确定子模块、识别子模块、匹配子模块、第二确定子模块(图中未示出),其中,
第一确定子模块,用于确定所述当前时刻下的待追光目标的特征模型;
识别子模块,用于识别所述图像中的每个目标区域;
匹配子模块,用于分别将所述每个目标区域与所述特征模型进行匹配;
第二确定子模块,用于将匹配成功的目标区域确定为所述待追光目标所在的图像区域。
作为一种实施方式,所述第一确定子模块,具体可以用于:
在预先确定的每个时间段的待追光目标中,确定所述当前时刻下的待追光目标;或者,接收选择指令,根据所述选择指令确定所述当前时刻下的待追光目标;
在预先获取的每个目标的特征模型中,确定所述当前时刻下的待追光目标的特征模型。
作为一种实施方式,获取模块301,具体可以用于:
获取针对预设场景采集的当前帧图像;
识别模块302,具体可以用于:
针对所述当前时刻下的每个待追光目标,判断该待追光目标是否存在于前一时刻下的待追光目标中;
如果存在,利用跟踪算法,根据所述前一时刻下的该待追光目标在前一帧图像中的图像区域,确定所述当前时刻下的该待追光目标在所述当前帧图像中的图像区域;
如果不存在,确定所述当前时刻下的该待追光目标的特征模型;识别所述当前帧图像中的每个目标区域;分别将所述每个目标区域与所述特征模型进行匹配;将匹配成功的目标区域确定为该待追光目标所在的图像区域。
作为一种实施方式,获取模块301,具体可以用于:
获取当前时刻针对预设场景采集的二维图像;
识别模块302,具体可以用于:
在所述二维图像中,识别所述当前时刻下的待追光目标所在的二维图像区域;
第一确定模块303,具体可以用于:
获取所述当前时刻针对所述预设场景采集的深度图像;
根据所述二维图像与所述深度图像的映射关系,确定所述二维图像区域映射到所述深度图像中的深度信息。
作为一种实施方式,获取模块301,具体可以用于:
获取当前时刻针对预设场景采集的三维图像;
识别模块302,具体可以用于:
在所述三维图像中,识别所述当前时刻下的待追光目标所在的三维图像区域;
第一确定模块303,具体可以用于:
确定所述三维图像区域的深度信息。
作为一种实施方式,所述装置还可以包括:第三确定模块和调整模块(图中未示出),其中,
第三确定模块,用于确定所述待追光目标对应的灯光设备及灯光参数;
调整模块,用于根据所述灯光参数,对所述灯光设备进行调整;
控制模块305,具体可以用于:
控制调整后的灯光设备对准所确定的位置进行打光。
应用本发明图3所示实施例,针对追光过程中的每一时刻,实时获取该时刻采集的图像,在图像中识别该时刻下待追光目标所在的图像区域,根据该图像区域在该图像中的位置、以及该图像区域的深度信息,确定该时刻待追光目标在场景中的位置,控制灯光设备对准该位置进行打光;可见,本方案中,在追光过程中,实时对每一时刻采集的图像进行分析,根据分析结果控制灯光设备打光,即使演出人员并未按照预先确定的移动轨迹移动,通过实时分析,仍能控制灯光设备对待追光演出人员所在的位置进行打光,提高了追光效果。
本发明实施例还提供了一种电子设备,如图4所示,包括处理器401和存储器402,
存储器402,用于存放计算机程序;
处理器401,用于执行存储器402上所存放的程序时,实现上述任一种追光方法。
上述电子设备提到的存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明实施例还提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时现上述任一种追光方法。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于图3所示的追光装置实施例、图4所示的电子设备实施例、以及上述计算机可读存储介质实施例而言,由于其基本相似于图1-2所示的追光方法实施例,所以描述的比较简单,相关之处参见图1-2所示的追光方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (12)

1.一种追光方法,其特征在于,包括:
获取当前时刻针对预设场景采集的图像;
在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域;
确定所述图像区域的深度信息;
根据所述图像区域在所述图像中的位置、以及所述深度信息,确定所述待追光目标在所述预设场景中的位置;
控制灯光设备对准所确定的位置进行打光;
所述获取当前时刻针对预设场景采集的图像,包括:
获取针对预设场景采集的当前帧图像;
在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域,包括:
针对所述当前时刻下的每个待追光目标,判断该待追光目标是否存在于前一时刻下的待追光目标中;
如果存在,利用跟踪算法,根据所述前一时刻下的该待追光目标在前一帧图像中的图像区域,确定所述当前时刻下的该待追光目标在所述当前帧图像中的图像区域;
如果不存在,确定所述当前时刻下的该待追光目标的特征模型;识别所述当前帧图像中的每个目标区域;分别将所述每个目标区域与所述特征模型进行匹配;将匹配成功的目标区域确定为该待追光目标所在的图像区域。
2.根据权利要求1所述的方法,其特征在于,所述确定所述当前时刻下的待追光目标的特征模型,包括:
在预先确定的每个时间段的待追光目标中,确定所述当前时刻下的待追光目标;或者,接收选择指令,根据所述选择指令确定所述当前时刻下的待追光目标;
在预先获取的每个目标的特征模型中,确定所述当前时刻下的待追光目标的特征模型。
3.根据权利要求1所述的方法,其特征在于,所述当前帧图像获取当前时刻针对预设场景采集的图像,包括:
获取当前时刻针对预设场景采集的二维图像;
所述在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域,包括:
在所述二维图像中,识别所述当前时刻下的待追光目标所在的二维图像区域;
所述确定所述图像区域的深度信息,包括:
获取所述当前时刻针对所述预设场景采集的深度图像;
根据所述二维图像与所述深度图像的映射关系,确定所述二维图像区域映射到所述深度图像中的深度信息。
4.根据权利要求1所述的方法,其特征在于,所述获取当前时刻针对预设场景采集的图像,包括:
获取当前时刻针对预设场景采集的三维图像;
所述在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域,包括:
在所述三维图像中,识别所述当前时刻下的待追光目标所在的三维图像区域;
所述确定所述图像区域的深度信息,包括:
确定所述三维图像区域的深度信息。
5.根据权利要求1所述的方法,其特征在于,在所述控制灯光设备对准所确定的位置进行打光之前,还包括:
确定所述待追光目标对应的灯光设备及灯光参数;
根据所述灯光参数,对所述灯光设备进行调整;
所述控制灯光设备对准所确定的位置进行打光,包括:
控制调整后的灯光设备对准所确定的位置进行打光。
6.一种追光装置,其特征在于,包括:
获取模块,用于获取当前时刻针对预设场景采集的图像;
识别模块,用于在所述图像中,识别所述当前时刻下的待追光目标所在的图像区域;
第一确定模块,用于确定所述图像区域的深度信息;
第二确定模块,用于根据所述图像区域在所述图像中的位置、以及所述深度信息,确定所述待追光目标在所述预设场景中的位置;
控制模块,用于控制灯光设备对准所确定的位置进行打光;
所述获取模块,具体用于:
获取针对预设场景采集的当前帧图像;
所述识别模块,具体用于:
针对所述当前时刻下的每个待追光目标,判断该待追光目标是否存在于前一时刻下的待追光目标中;
如果存在,利用跟踪算法,根据所述前一时刻下的该待追光目标在前一帧图像中的图像区域,确定所述当前时刻下的该待追光目标在所述当前帧图像中的图像区域;
如果不存在,确定所述当前时刻下的该待追光目标的特征模型;识别所述当前帧图像中的每个目标区域;分别将所述每个目标区域与所述特征模型进行匹配;将匹配成功的目标区域确定为该待追光目标所在的图像区域。
7.根据权利要求6所述的装置,其特征在于,所述第一确定子模块,具体用于:
在预先确定的每个时间段的待追光目标中,确定所述当前时刻下的待追光目标;或者,接收选择指令,根据所述选择指令确定所述当前时刻下的待追光目标;
在预先获取的每个目标的特征模型中,确定所述当前时刻下的待追光目标的特征模型。
8.根据权利要求6所述的装置,其特征在于,所述获取模块,具体用于:
获取当前时刻针对预设场景采集的二维图像;
所述识别模块,具体用于:
在所述二维图像中,识别所述当前时刻下的待追光目标所在的二维图像区域;
所述第一确定模块,具体用于:
获取所述当前时刻针对所述预设场景采集的深度图像;
根据所述二维图像与所述深度图像的映射关系,确定所述二维图像区域映射到所述深度图像中的深度信息。
9.根据权利要求6所述的装置,其特征在于,所述获取模块,具体用于:
获取当前时刻针对预设场景采集的三维图像;
所述识别模块,具体用于:
在所述三维图像中,识别所述当前时刻下的待追光目标所在的三维图像区域;
所述第一确定模块,具体用于:
确定所述三维图像区域的深度信息。
10.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第三确定模块,用于确定所述待追光目标对应的灯光设备及灯光参数;
调整模块,用于根据所述灯光参数,对所述灯光设备进行调整;
所述控制模块,具体用于:
控制调整后的灯光设备对准所确定的位置进行打光。
11.一种电子设备,其特征在于,包括处理器和存储器,其中,
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-5任一所述的方法步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-5任一所述的方法步骤。
CN201711096626.7A 2017-11-09 2017-11-09 一种追光方法、装置及设备 Active CN109769326B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711096626.7A CN109769326B (zh) 2017-11-09 2017-11-09 一种追光方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711096626.7A CN109769326B (zh) 2017-11-09 2017-11-09 一种追光方法、装置及设备

Publications (2)

Publication Number Publication Date
CN109769326A CN109769326A (zh) 2019-05-17
CN109769326B true CN109769326B (zh) 2020-09-04

Family

ID=66449240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711096626.7A Active CN109769326B (zh) 2017-11-09 2017-11-09 一种追光方法、装置及设备

Country Status (1)

Country Link
CN (1) CN109769326B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110465105B (zh) * 2019-07-05 2023-01-24 长沙妙趣新媒体技术有限公司 一种用于舞蹈表演的智能追光方法及其系统
CN112149520B (zh) * 2020-09-03 2023-05-09 上海趋视信息科技有限公司 一种多目标管理方法、系统及装置
CN112414509A (zh) * 2020-11-30 2021-02-26 广东电网有限责任公司佛山供电局 一种配电房积水警报系统
CN113470602B (zh) * 2021-06-29 2023-09-29 广州番禺巨大汽车音响设备有限公司 音频播放控制卡拉ok音响的方法、装置及系统
CN113577796B (zh) * 2021-07-29 2023-08-08 深圳市远均集成科技开发有限公司 一种基于机器视觉的活动舞台现场智能云中控管理平台

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104456474A (zh) * 2014-11-26 2015-03-25 陈亮 智能追光机器及其追光系统
EP2942978A1 (en) * 2014-05-09 2015-11-11 Starkey Laboratories, Inc. Improved wireless streaming to hearing assistance devices
CN107093171A (zh) * 2016-02-18 2017-08-25 腾讯科技(深圳)有限公司 一种图像处理方法及装置、系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2942978A1 (en) * 2014-05-09 2015-11-11 Starkey Laboratories, Inc. Improved wireless streaming to hearing assistance devices
CN104456474A (zh) * 2014-11-26 2015-03-25 陈亮 智能追光机器及其追光系统
CN107093171A (zh) * 2016-02-18 2017-08-25 腾讯科技(深圳)有限公司 一种图像处理方法及装置、系统

Also Published As

Publication number Publication date
CN109769326A (zh) 2019-05-17

Similar Documents

Publication Publication Date Title
CN109769326B (zh) 一种追光方法、装置及设备
CN107466411B (zh) 二维红外深度感测
US11227368B2 (en) Method and device for controlling an electronic device based on determining a portrait region using a face region detection and depth information of the face region detected
JP5715833B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
CN108986164B (zh) 基于图像的位置检测方法、装置、设备及存储介质
JP6295645B2 (ja) 物体検出方法及び物体検出装置
JP5837508B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
US8989455B2 (en) Enhanced face detection using depth information
JP5873442B2 (ja) 物体検出装置および物体検出方法
JP5719230B2 (ja) 物体認識装置、物体認識装置の制御方法、およびプログラム
CN108200334B (zh) 图像拍摄方法、装置、存储介质及电子设备
KR101362631B1 (ko) 머리 인식 방법
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
CN110264493A (zh) 一种针对运动状态下的多目标对象追踪方法和装置
CN111382613B (zh) 图像处理方法、装置、设备和介质
WO2014080613A1 (ja) 色補正装置、色補正方法および色補正用プログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
US10055845B2 (en) Method and image processing system for determining parameters of a camera
CN110276831A (zh) 三维模型的建构方法和装置、设备、计算机可读存储介质
Raheja et al. Hand gesture pointing location detection
CN110910449B (zh) 识别物体三维位置的方法和系统
KR20230080938A (ko) 컨볼루션 블록 어텐션 모듈을 이용한 동작 인식 및 분류 방법 및 장치
KR102558806B1 (ko) 멀티카메라를 이용한 대상 추적 장치
WO2019212501A1 (en) Trained recognition models
KR20160072477A (ko) 주변 환경 모델링 방법 및 이를 수행하는 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant