CN112511764A - 移动图像整合方法及移动图像整合系统 - Google Patents

移动图像整合方法及移动图像整合系统 Download PDF

Info

Publication number
CN112511764A
CN112511764A CN201910872974.1A CN201910872974A CN112511764A CN 112511764 A CN112511764 A CN 112511764A CN 201910872974 A CN201910872974 A CN 201910872974A CN 112511764 A CN112511764 A CN 112511764A
Authority
CN
China
Prior art keywords
image
moving
area image
moving area
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910872974.1A
Other languages
English (en)
Inventor
杨朝勋
詹尚伦
吴俊樟
陈世泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Realtek Semiconductor Corp
Original Assignee
Realtek Semiconductor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Realtek Semiconductor Corp filed Critical Realtek Semiconductor Corp
Priority to CN201910872974.1A priority Critical patent/CN112511764A/zh
Publication of CN112511764A publication Critical patent/CN112511764A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

本发明公开了一种移动图像整合方法及移动图像整合系统。移动图像整合方法包含获取原始图像;依据原始图像,利用移动检测器检测第一移动区域图像及第二移动区域图像;依据第一移动区域图像及第二移动区域图像的相对位置,选择性地将第一移动区域图像及第二移动区域图像合并,以产生移动对象图像;及依据移动对象图像,由原始图像裁切出对应移动对象图像的子图像。移动对象图像的范围大于等于第一移动区域图像与第二移动区域图像的两范围的总和。第一移动区域图像、第二移动区域图像及移动对象图像为多边形图像。

Description

移动图像整合方法及移动图像整合系统
技术领域
本发明涉及一种移动图像整合方法及移动图像整合系统,尤指一种选择性地将多个移动区域图像合并,以产生完整的移动对象图像的移动图像整合方法及移动图像整合系统。
背景技术
随着科技日新月异,许多具有图像监控功能的消费性产品可提供云端辨识功能。例如,智能型手机或是网络摄影机可利用云端网络的运算资源而监控周遭环境。由于智能型手机或是网络摄影机需要将图像数据传送至云端服务器以执行云端辨识功能,故图像数据的传输带宽以及分辨率会变成云端辨识功能的运行时间以及运算复杂度的影响因素。
在目前的云端辨识功能的技术中,高画质的图像会导致优选的辨识结果,但也需要更多的传输与运算成本。换句话说,由于云端服务器必须通过网络接收图像数据,故当图像数据的传输次数增加或是发生网络拥塞(Network Congestion)的情况时,云端服务器会将其硬件资源分配于数据通信而导致无法实时执行云端辨识功能。在利用云端辨识功能辨识移动中的物体时(称为动作检测,Motion Detection),若移动中的物体只有一部分被检测到,会因图像完整性不足而辨识失败(或是发生无效辨识的结果)。并且,云端服务器也可能对相同的物体进行多次的重复辨识,增加无谓的辨识次数。
发明内容
本发明一实施例提出一种移动图像整合方法。移动图像整合方法包含获取原始图像,依据原始图像,利用移动检测器检测第一移动区域图像及第二移动区域图像,依据第一移动区域图像及第二移动区域图像的相对位置,选择性地将第一移动区域图像及第二移动区域图像合并,以产生移动对象图像,及依据移动对象图像,由原始图像裁切出对应移动对象图像的子图像。移动对象图像的范围大于等于第一移动区域图像与第二移动区域图像的两范围的总和。第一移动区域图像、第二移动区域图像及移动对象图像为多边形图像。
本发明一实施例提出一种移动图像整合系统。移动图像整合系统包含图像捕获设备、移动检测器、存储器及处理器。图像捕获设备用以获取原始图像。移动检测器耦接于图像捕获设备。存储器用以缓存图像数据。处理器耦接于移动检测器及存储器。图像捕获设备获取原始图像后,移动检测器依据原始图像,检测第一移动区域图像及第二移动区域图像,并将第一移动区域图像及第二移动区域图像缓存于存储器中。处理器依据第一移动区域图像及第二移动区域图像的相对位置,选择性地将第一移动区域图像及第二移动区域图像合并,以产生移动对象图像。处理器依据移动对象图像,由原始图像裁切出对应移动对象图像的子图像。移动对象图像的范围大于等于第一移动区域图像与第二移动区域图像的两范围的总和。第一移动区域图像、第二移动区域图像及移动对象图像为多边形图像。
附图说明
图1为本发明的移动图像整合系统的实施例的方框图。
图2为图1的移动图像整合系统中,移动检测器由原始图像中检测移动对象的示意图。
图3为图1的移动图像整合系统中,移动检测器产生包含第一移动区域图像及第二移动区域图像的移动检测图像的示意图。
图4为图1的移动图像整合系统中,判断第一移动区域图像及第二移动区域图像是否合并的示意图。
图5为图1的移动图像整合系统中,将第一移动区域图像及第二移动区域图像合并,以取得的移动对象图像的范围的示意图。
图6为图1的移动图像整合系统中,将第一移动区域图像及第二移动区域图像合并的第一种模式的示意图。
图7为图1的移动图像整合系统中,将第一移动区域图像及第二移动区域图像合并的第二种模式的示意图。
图8为图1的移动图像整合系统中,由原始图像裁切出对应移动对象图像的范围的子图像的示意图。
图9为图1的移动图像整合系统执行移动图像整合方法的流程图。
具体实施方式
图1为本发明的移动图像整合系统100的实施例的方框图。移动图像整合系统100包含图像捕获设备10、移动检测器(Motion Detector)11、存储器12及处理器13。图像捕获设备10用以获取原始图像。图像捕获设备10可为任何具有感光功能的装置,如相机、录像机等等。移动检测器11耦接于图像捕获设备10。移动检测器11可用图像帧差(FrameDifference)程序检测移动对象图像。图像帧差程序可将两帧或多帧的图像进行比对,以取得每一个对象图像的坐标偏移,进而检测移动对象的存在性。移动检测器11也可用背景模型(Background Modeling)建立程序,以检测移动对象图像。背景模型建立程序可利用数个图像帧,先产生固定对象所组成的背景模型,再利用像素的色调差检测移动对象的存在性以及范围。然而,本发明非局限移动检测器11检测移动对象的方法。存储器12用以缓存图像数据。存储器12可为硬盘、随机存取存储器或是闪存等任何数据缓存装置。处理器13耦接于移动检测器11及存储器12。在移动图像整合系统100中,图像捕获设备10获取原始图像后,移动检测器11可依据原始图像,检测第一移动区域图像及第二移动区域图像,并通过处理器13将第一移动区域图像及第二移动区域图像缓存于存储器12中。为了降低无谓的检测次数以及提升检测的精确度,处理器13可依据第一移动区域图像及第二移动区域图像的相对位置,选择性地将第一移动区域图像及第二移动区域图像合并,以产生移动对象图像。换句话说,移动对象图像的范围大于等于第一移动区域图像与第二移动区域图像的两范围的总和。接着,处理器13可依据移动对象图像,由原始图像裁切出对应移动对象图像的范围的子图像。最后,处理器13可以检测子图像的内容,以产生检测结果。在移动图像整合系统100中,第一移动区域图像、第二移动区域图像及移动对象图像可为多边形图像,例如矩形的图像。移动图像整合系统100将不同的对象图像进行合并以增加检测效率的方法于后文详述。
图2为移动图像整合系统100中,移动检测器11由原始图像IMG1中检测移动对象的示意图。在移动图像整合系统100中,图像捕获设备10可以产生原始图像IMG1。原始图像IMG1中可包含多个移动对象以及多个非移动对象。举例而言,在图2中,原始图像IMG1可为对应办公室的场景。在办公室中走动的人即为移动对象。在办公室中固定的桌椅即为非移动对象。然而,应当理解的是,人类在走动时,所有肢体的摆动幅度及其色调变化均不同。因此,移动检测器11未必能检测到「完整」的人类轮廓。例如,在图2中,人类在走动时,上身以及双手的摆动幅度及其色调变化特别明显,因此移动检测器11可判断人类的上身以及双手为第一移动对象Obj1。并且,人类在走动时,小腿的摆动幅度及其色调变化也特别明显,因此移动检测器11可判断人类的小腿为第二移动对象Obj2。然而,人类在走动时,大腿的摆动幅度及其色调变化不是特别明显,特别是穿着单色调的裤子。因此,移动检测器11判断人类的大腿为非移动对象。换句话说,在图2中,虽然实际上存在一个「完整的」人类图像走路的画面,然而,由于人类所有肢体的摆动幅度及其色调变化的差异性,移动检测器11可能仅会检测到「部分的」人类图像,如第一移动对象Obj1及第二移动对象Obj2。因此,为了避免增加无谓的辨识次数,移动图像整合系统100会将第一移动对象Obj1及第二移动对象Obj2对应的两区域图像进行图像处理,其细节描述于下。
图3为移动图像整合系统100中,移动检测器11产生包含第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2的移动检测图像IMG2的示意图。移动检测器11可用双色调记录第一移动对象Obj1及第二移动对象Obj2的范围,说明如下。在图像捕获设备10将原始图像IMG1输入至移动检测器11后,移动检测器11可将原始图像IMG1分为第一移动区域图像ObjIMG1、第二移动区域图像ObjIMG2及背景图像。第一移动区域图像ObjIMG1内包含第一移动对象Obj1(为了避免混淆,于此称为第一移动对象Obj1’)。第二移动区域图像ObjIMG2内包含第二移动对象Obj2(为了避免混淆,于此称为第二移动对象Obj2’)。并且,第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2可属于两个前景图像(ForegroundImage)。第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2具有第一灰度,如白色。背景图像具有第二灰度,如黑色。背景图像映射非移动对象且为单一色调,故背景图像的细节将会被屏蔽。然而,移动检测器11的信息记录方式也非限定于图3中使用黑白两色的像素信息记录方式。移动检测器11使用任何合理的电磁记录方式均属于本发明所揭露的范畴。并且,第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2的边界可依据第一移动对象Obj1’及第二移动对象Obj2’的轮廓决定。移动对象的范围越大,框选出的移动区域图像的范围也越大。相反的,移动对象的范围越小,框选出的移动区域图像的范围也越小。
并且,移动图像整合系统100的存储器12可用以缓存图像数据。图像数据为数字化的图像数据。举例而言,移动检测器11所产生的第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2的范围以及位置可用数字数据的形式存入存储器12中,说明如下。在图3中,处理器13可以取得第一移动区域图像ObjIMG1的矩形范围任一个顶点的二维坐标,如左上顶点A的坐标A(x1,y1)。并且,处理器13还可取得第一移动区域图像ObjIMG1的矩形范围的宽度W1及高度H1。换句话说,第一移动区域图像ObjIMG1的矩形范围以及位置可被数字化为顶点A的坐标A(x1,y1)、宽度W1及高度H1。这些数字数据将会缓存于存储器12中。类似地,处理器13可以取得第二移动区域图像ObjIMG2的矩形范围任一个顶点的二维坐标,如左上顶点B的坐标B(x2,y2)。并且,处理器13还可取得第二移动区域图像ObjIMG2的矩形范围的宽度W2及高度H2。换句话说,第二移动区域图像ObjIMG2的矩形范围以及位置可被数字化为顶点B的坐标B(x2,y2)、宽度W2及高度H2。这些数字数据将会缓存于存储器12中。
图4为移动图像整合系统100中,判断第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2是否合并的示意图。首先,处理器13可取得一条基线L。基线L可为相对于地表的水平线或垂直线。接着,处理器13可取得第一移动区域图像ObjIMG1的第一中心点C1,以及第二移动区域图像ObjIMG2的第二中心点C2。依据基线L及第一中心点C1,处理器13可取得第一中心点C1于基线L上的第一垂足点(Perpendicular Foot Point)F1。依据基线L及第二中心点C2,处理器13可取得第二中心点C2于基线L上的第二垂足点F2。处理器13可进一步取得第一垂足点F1及第二垂足点F2之间的距离D。根据距离D,处理器13可判断以及量化第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2的相对位置。在图4中,第一垂足点F1及第二垂足点F2之间的距离D相关于第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2的分离程度。第一垂足点F1及第二垂足点F2之间的距离D越大,表示第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2的分离程度较大。第一垂足点F1及第二垂足点F2之间的距离D越小,表示第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2的分离程度较小。
为了判断第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2是否属于同一个移动对象,处理器13可预先设定一个阈值。阈值可为与原始图像IMG1的尺寸比例相关的自定义值。例如,原始图像IMG1的尺寸为M×N(像素)时,阈值可设定为N/32至N/16范围内的数值,以检测人形图像。处理器13可以比较阈值与第一垂足点F1及第二垂足点F2之间的距离D,以选择性地将第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2合并。举例而言,当第一垂足点F1及第二垂足点F2之间的距离D小于等于阈值,表示第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2属于同一个移动对象。因此,处理器13可将第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2合并,以产生移动对象图像。反之,当第一垂足点F1及第二垂足点F2之间的距离D大于阈值,表示第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2非属于同一个移动对象。因此,处理器13将维持第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2的分离状态。
图5为移动图像整合系统100中,将第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2合并,以取得的移动对象图像ObjIMG3的范围的示意图。如前述提及,当第一垂足点F1及第二垂足点F2之间的距离D小于等于阈值,处理器13可将第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2合并,以产生移动对象图像ObjIMG3。因此,移动对象图像ObjIMG3的范围包含第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2的范围。并且,当距离D大于零时,移动对象图像ObjIMG3的范围会大于第一移动区域图像ObjIMG1与第二移动区域图像ObjIMG2的两范围的总和。因此,在后续依据移动对象图像ObjIMG3的范围将原始图像IMG1进行裁切的步骤中,由于引入额外的像素信息以将对应不同动作的第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2连接,故可增加图像检测以及图像辨识的效率。将第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2合并的细节描述于下。
图6为移动图像整合系统100中,将第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2合并的第一种模式的示意图。图7为移动图像整合系统100中,将第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2合并的第二种模式的示意图。在图6中,第一移动区域图像ObjIMG1为宽度W1及高度H1的矩形。第二移动区域图像ObjIMG2为宽度W2及高度H2的矩形。若第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2于第一轴向上(如X轴向上)具有第一重叠长度ΔW,则移动对象图像ObjIMG3于第一轴向上的长度W3等于第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2于第一轴向上的总长度(W1+W2)减去第一重叠长度ΔW。换句话说,在图6中,移动对象图像ObjIMG3为宽度W3=W1+W2-ΔW及高度H3的矩形。并且,如图3所示,若第一移动区域图像ObjIMG1的左上顶点A的坐标为A(x1,y1),且第二移动区域图像ObjIMG2的左上顶点B的坐标为B(x2,y2),图6中移动对象图像ObjIMG3的左上顶点C的坐标为C(x3,y3)可表示为C(x3,y3)=(min{x1,x2},max{y1,y2})。
类似地,在图7中,第一移动区域图像ObjIMG1为宽度W1及高度H1的矩形。第二移动区域图像ObjIMG2为宽度W2及高度H2的矩形。若第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2于第二轴向上(如Y轴向上)具有第二重叠长度ΔH,则移动对象图像ObjIMG3于第二轴向上的长度H3等于第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2于第二轴向上的总长度(H1+H2)减去第二重叠长度ΔH。换句话说,在图7中,移动对象图像ObjIMG3为宽度W3及高度H3=H1+H2-ΔH的矩形。并且,如图3所示,若第一移动区域图像ObjIMG1的左上顶点A的坐标为A(x1,y1),且第二移动区域图像ObjIMG2的左上顶点B的坐标为B(x2,y2),图7中移动对象图像ObjIMG3的左上顶点C的坐标为C(x3,y3)可表示为C(x3,y3)=(min{x1,x2},max{y1,y2})。
因此,依据图6以及图7,假设第一移动区域图像ObjIMG1的左上顶点A的坐标为A(x1,y1),为宽度W1及高度H1的矩形。第二移动区域图像ObjIMG2的左上顶点B的坐标为B(x2,y2),为宽度W2及高度H2的矩形。第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2于第一轴向上(如X轴向上)具有第一重叠长度ΔW。第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2于第二轴向上(如Y轴向上)具有第二重叠长度ΔH。当第一移动区域图像ObjIMG1与第二移动区域图像ObjIMG2合并后,所产生的移动对象图像ObjIMG3具有以下特性:
1.移动对象图像ObjIMG3的左上顶点C的坐标为C(x3,y3)可表示为C(x3,y3)=(min{x1,x2},max{y1,y2})。
2.移动对象图像ObjIMG3的宽度W3可表示为W3=W1+W2-ΔW。
3.移动对象图像ObjIMG3的高度H3可表示为H3=H1+H2-ΔH。
并且,移动对象图像ObjIMG3的顶点C的坐标C(x3,y3)、宽度W3及高度H3也可被缓存于存储器12中。
图8为移动图像整合系统100中,由原始图像IMG1裁切出对应移动对象图像ObjIMG3的范围的子图像SIMG的示意图。在前述步骤中,移动对象图像ObjIMG3的顶点C、宽度W3及高度H3可被产生,因此,处理器13可获取移动对象图像ObjIMG3的位置以及范围信息。接着,处理器13可依据移动对象图像ObjIMG3的位置以及范围信息,由原始图像IMG1裁切出子图像SIMG。应当理解的是,虽然移动检测器11起初检测第一移动对象Obj1及第二移动对象Obj2为两个「独立」的移动对象。第一移动对象Obj1及第二移动对象Obj2仅包含一小部分的人形信息。然而,由原始图像IMG1裁切出的子图像SIMG不仅包含了第一移动对象Obj1及第二移动对象Obj2,也包含了额外的图像信息。换句话说,第一移动对象Obj1及第二移动对象Obj2之间相连的动作图像信息也会在子图像SIMG之中。因此,在图8中,由于子图像SIMG包含大部分的人形图像信息,故可增加处理器13的辨识精确度,并也可以避免对相同的物体进行多次的重复辨识。
图9为移动图像整合系统100执行移动图像整合方法的流程图。移动图像整合方法的流程包含步骤S901至步骤S904。任何合理的技术变更都属于本发明所揭露的范畴。步骤S901至步骤S904描述于下:
步骤S901:获取原始图像IMG1;
步骤S902:依据原始图像IMG1,利用移动检测器11检测第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2;
步骤S903:依据第一移动区域图像ObjIMG1第二移动区域图像ObjIMG2的相对位置,选择性地将第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2合并,以产生移动对象图像ObjIMG3;
步骤S904:依据移动对象图像ObjIMG3,由原始图像IMG1裁切出对应移动对象图像ObjIMG3的子图像SIMG。
步骤S901至步骤S904的细节已于前文说明,故于此将不再赘述。并且,移动图像整合系统100执行移动图像整合方法的流程也可以加入一些额外的图像处理步骤。举例而言,移动图像整合系统100可以加入至少一种图像处理程序,如对第一移动区域图像ObjIMG1及第二移动区域图像ObjIMG2的像素进行腐蚀处理(Erosion Process)、膨胀处理(DilationProcess)、连通处理(Connected Component Process)。移动图像整合系统100也可以依比例调整第一移动区域图像ObjIMG1、第二移动区域图像ObjIMG2、移动对象图像ObjIMG3及/或子图像SIMG的尺寸,以平衡移动图像整合系统100执行图像处理的计算复杂度。在移动图像整合系统100中,通过利用步骤S901至步骤S904,在移动检测器11仅检测到一些不完整的动态对象的图像后,移动图像整合系统100会获取这些不完整的动态对象的图像之间的连接像素信息。因此,由于移动图像整合系统100最后获取的子图像中,包含较为完整的动态对象信息,故移动图像整合系统100也可提供较高的辨识准确度。
并且,移动图像整合系统100的处理器13可以用类神经网络来检测及辨识移动对象。例如,处理器13可包含卷积神经网络(Convolutional Neural Networks,CNN)的人形检测器。处理器13内的类神经网络可依据检测类别进行训练(Training)。并且,类神经网络被训练后,处理器13即可具有判断子图像SIMG是否包含对应检测类别的移动对象的能力。因此,在处理器13获取子图像SIMG的信息后,可利用已训练的类神经网络对子图像SIMG进行分析,以判断子图像SIMG是否包含对应检测类别的移动对象,如人形的移动检测对象。并且,图4中的基线L也可以依据不同的检测类别而有所调整。举例而言,当移动图像整合系统100的检测类别被设定为人形检测时,基线L可与地表平行。当移动图像整合系统100的检测类别被设定为车辆检测时,基线L可与地表垂直。移动图像整合系统100中任何合理的技术变更都属于本发明所揭露的范畴。
综上所述,本发明描述一种移动图像整合方法及移动图像整合系统,具有提升检测效率的效果。移动图像整合系统利用移动检测器对原始图像进行初步的移动对象图像检测。移动检测器未必能检测到完整的移动对象图像,可能仅检测出多个不完整的移动对象图像。为了避免增加无谓的辨识次数,移动图像整合系统可判断是否要将多个不完整的移动对象图像合并,以最大化选择图像范围的方式产生完整的移动对象图像。由于移动图像整合系统可以产生完整的移动对象图像,故移动图像整合系统可提供较高的辨识准确度。
以上所述仅为本发明的优选实施例,凡依本发明权利要求范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
【符号说明】
100 移动图像整合系统
10 图像捕获设备
11 移动检测器
12 存储器
13 处理器
IMG1 原始图像
Obj1及Obj1’ 第一移动对象
Obj2及Obj2’ 第二移动对象
IMG2 移动检测图像
ObjIMG1 第一移动区域图像
ObjIMG2 第二移动区域图像
A、B及C 顶点
H1、H2及H3 高度
W1、W2及W3 宽度
C1 第一中心点
C2 第二中心点
F1 第一垂足点
F2 第二垂足点
L 基线
D 距离
ObjIMG3 移动对象图像
ΔW 第一重叠长度
ΔH 第二重叠长度
SIMG 子图像
S901至S904 步骤。

Claims (10)

1.一种移动图像整合方法,包含:
获取一原始图像;
依据该原始图像,利用一移动检测器检测一第一移动区域图像及一第二移动区域图像;
依据该第一移动区域图像及该第二移动区域图像的相对位置,选择性地将该第一移动区域图像及该第二移动区域图像合并,以产生一移动对象图像;及
依据该移动对象图像,由该原始图像裁切出对应该移动对象图像的一子图像;
其中该移动对象图像的一范围大于等于该第一移动区域图像与该第二移动区域图像的两范围的总和,且该第一移动区域图像、该第二移动区域图像及该移动对象图像为多边形图像。
2.根据权利要求1所述的方法,其中,依据该原始图像,利用该移动检测器检测该第一移动区域图像及该第二移动区域图像包含:
将该原始图像输入至该移动检测器;及
该移动检测器将该原始图像分为该第一移动区域图像、该第二移动区域图像及一背景图像;
其中该第一移动区域图像及该第二移动区域图像属于两个前景图像。
3.根据权利要求2所述的方法,其中,该前景图像具有一第一灰度,该背景图像具有一第二灰度,且该第一灰度与该第二灰度不同。
4.根据权利要求1所述的方法,还包含:
取得一基线;
取得该第一移动区域图像的一第一中心点;
取得该第二移动区域图像的一第二中心点;
取得该第一中心点于该基线上的一第一垂足点;
取得该第二中心点于该基线上的一第二垂足点;及
依据该第一垂足点及该第二垂足点之间的一距离,判断该第一移动区域图像及该第二移动区域图像的相对位置。
5.根据权利要求4所述的方法,其中,该基线为相对于一地表的一水平线或一垂直线。
6.根据权利要求4所述的方法,还包含:
设定一阈值;及
比较该阈值与该第一垂足点及该第二垂足点之间的该距离,以选择性地将该第一移动区域图像及该第二移动区域图像合并。
7.根据权利要求6所述的方法,其中,若该第一垂足点及该第二垂足点之间的该距离小于等于该阈值,将该第一移动区域图像及该第二移动区域图像合并,以产生该移动对象图像,且该阈值为与该原始图像的一尺寸比例相关的一自定义值。
8.根据权利要求1所述的方法,其中,若该第一移动区域图像及该第二移动区域图像于一第一轴向上具有一第一重叠长度,该移动对象图像于该第一轴向上的一长度等于该第一移动区域图像及该第二移动区域图像于该第一轴向上的一总长度减去该第一重叠长度。
9.根据权利要求1所述的方法,其中,若该第一移动区域图像及该第二移动区域图像于一第二轴向上具有一第二重叠长度,该移动对象图像于该第二轴向上的一长度等于该第一移动区域图像及该第二移动区域图像于该第二轴向上的一总长度减去该第二重叠长度。
10.一种移动图像整合系统,包含:
一图像捕获设备,用以获取一原始图像;
一移动检测器,耦接于该图像捕获设备;
一存储器,用以缓存图像数据;及
一处理器,耦接于该移动检测器及该存储器;
其中,该图像捕获设备获取该原始图像后,该移动检测器依据该原始图像,检测一第一移动区域图像及一第二移动区域图像,并将该第一移动区域图像及该第二移动区域图像缓存于该存储器中,该处理器依据该第一移动区域图像及该第二移动区域图像的相对位置,选择性地将该第一移动区域图像及该第二移动区域图像合并,以产生一移动对象图像,并依据该移动对象图像,由该原始图像裁切出对应该移动对象图像的一子图像,该移动对象图像的一范围大于等于该第一移动区域图像与该第二移动区域图像的两范围的总和,且该第一移动区域图像、该第二移动区域图像及该移动对象图像为多边形图像。
CN201910872974.1A 2019-09-16 2019-09-16 移动图像整合方法及移动图像整合系统 Pending CN112511764A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910872974.1A CN112511764A (zh) 2019-09-16 2019-09-16 移动图像整合方法及移动图像整合系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910872974.1A CN112511764A (zh) 2019-09-16 2019-09-16 移动图像整合方法及移动图像整合系统

Publications (1)

Publication Number Publication Date
CN112511764A true CN112511764A (zh) 2021-03-16

Family

ID=74924051

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910872974.1A Pending CN112511764A (zh) 2019-09-16 2019-09-16 移动图像整合方法及移动图像整合系统

Country Status (1)

Country Link
CN (1) CN112511764A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090052740A1 (en) * 2007-08-24 2009-02-26 Kabushiki Kaisha Toshiba Moving object detecting device and mobile robot
US20110142283A1 (en) * 2009-12-10 2011-06-16 Chung-Hsien Huang Apparatus and method for moving object detection
CN102467738A (zh) * 2010-11-08 2012-05-23 北京大学 一种图像拼接方法及系统
CN102914267A (zh) * 2012-09-27 2013-02-06 无锡天授信息科技有限公司 一种运动目标尺寸检测系统及方法
US20140098996A1 (en) * 2011-06-07 2014-04-10 Panasonic Corporation Image display apparatus and image display method
CN103955949A (zh) * 2014-04-04 2014-07-30 哈尔滨工程大学 基于Mean-shift算法的运动目标检测方法
CN108230245A (zh) * 2017-12-26 2018-06-29 中国科学院深圳先进技术研究院 图像拼接方法、图像拼接装置及电子设备
US20190088005A1 (en) * 2018-11-15 2019-03-21 Intel Corporation Lightweight View Dependent Rendering System for Mobile Devices
US20190130582A1 (en) * 2017-10-30 2019-05-02 Qualcomm Incorporated Exclusion zone in video analytics

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090052740A1 (en) * 2007-08-24 2009-02-26 Kabushiki Kaisha Toshiba Moving object detecting device and mobile robot
US20110142283A1 (en) * 2009-12-10 2011-06-16 Chung-Hsien Huang Apparatus and method for moving object detection
CN102467738A (zh) * 2010-11-08 2012-05-23 北京大学 一种图像拼接方法及系统
US20140098996A1 (en) * 2011-06-07 2014-04-10 Panasonic Corporation Image display apparatus and image display method
CN102914267A (zh) * 2012-09-27 2013-02-06 无锡天授信息科技有限公司 一种运动目标尺寸检测系统及方法
CN103955949A (zh) * 2014-04-04 2014-07-30 哈尔滨工程大学 基于Mean-shift算法的运动目标检测方法
US20190130582A1 (en) * 2017-10-30 2019-05-02 Qualcomm Incorporated Exclusion zone in video analytics
CN108230245A (zh) * 2017-12-26 2018-06-29 中国科学院深圳先进技术研究院 图像拼接方法、图像拼接装置及电子设备
US20190088005A1 (en) * 2018-11-15 2019-03-21 Intel Corporation Lightweight View Dependent Rendering System for Mobile Devices

Similar Documents

Publication Publication Date Title
CN105447529B (zh) 一种服饰检测及其属性值识别的方法和系统
US20210279971A1 (en) Method, storage medium and apparatus for converting 2d picture set to 3d model
US6526161B1 (en) System and method for biometrics-based facial feature extraction
JPH10320588A (ja) 画像処理装置および画像処理方法
CN110381268B (zh) 生成视频的方法,装置,存储介质及电子设备
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
JP2008535116A (ja) 3次元レンダリング用の方法及び装置
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN111008935B (zh) 一种人脸图像增强方法、装置、系统及存储介质
CN109711246B (zh) 一种动态物体识别方法、计算机装置及可读存储介质
KR20220160066A (ko) 이미지 처리 방법 및 장치
KR20220007882A (ko) 단안 스틸 카메라 비디오에서의 레이어드 모션 표현 및 추출
KR20220024494A (ko) 사람의 단안 깊이 추정을 위한 방법 및 시스템
CN110599522A (zh) 一种视频序列中动态目标检测剔除方法
JP2008288684A (ja) 人物検出装置及びプログラム
KR101931220B1 (ko) 인체 부위 측정 장치 및 방법
TWI749365B (zh) 移動影像整合方法及移動影像整合系統
US11527090B2 (en) Information processing apparatus, control method, and non-transitory storage medium
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
CN112511764A (zh) 移动图像整合方法及移动图像整合系统
CN114511877A (zh) 一种行为识别方法、装置、存储介质及终端
US20220270337A1 (en) Three-dimensional (3d) human modeling under specific body-fitting of clothes
CN111652023A (zh) 嘴型的调整、直播方法、装置、电子设备和存储介质
WO2023024096A1 (zh) 图像处理方法、图像处理装置、拍摄设备和可读存储介质
CN107958238A (zh) 一种基于眼鼻嘴分类的人脸定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination