CN108932735B - 一种生成深度学习样本的方法 - Google Patents

一种生成深度学习样本的方法 Download PDF

Info

Publication number
CN108932735B
CN108932735B CN201810753123.0A CN201810753123A CN108932735B CN 108932735 B CN108932735 B CN 108932735B CN 201810753123 A CN201810753123 A CN 201810753123A CN 108932735 B CN108932735 B CN 108932735B
Authority
CN
China
Prior art keywords
image
initial
gradient
target image
grad
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810753123.0A
Other languages
English (en)
Other versions
CN108932735A (zh
Inventor
李元龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Zhongju Intelligent Technology Co ltd
Original Assignee
Guangzhou Zhongju Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Zhongju Intelligent Technology Co ltd filed Critical Guangzhou Zhongju Intelligent Technology Co ltd
Priority to CN201810753123.0A priority Critical patent/CN108932735B/zh
Publication of CN108932735A publication Critical patent/CN108932735A/zh
Application granted granted Critical
Publication of CN108932735B publication Critical patent/CN108932735B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像处理技术领域,公开了一种生成深度学习样本的方法。本发明包括以下步骤:采集纯色背景下拍摄的初始图像;从初始图像中获取到目标图像的位置及轮廓,并截取出目标图像;对截取出的目标图像进行数据增广,得到目标图像的初始数据集;从初始数据集中选取任一目标图像后,将当前目标图像随机放置于预设的背景图形中并进行泊松图形融合,然后记录当前目标图像在预设背景图像中的位置;重复步骤S4,形成深度学习的目标检测数据集。本发明减少了海量目标数据的准备时间成本、人力成本及硬件成本,生成优质的目标检测数据集,进而为深度学习提供了优质的样本,增加了目标检测网络的鲁棒性。

Description

一种生成深度学习样本的方法
技术领域
本发明属于图像处理技术领域,具体涉及一种生成深度学习样本的方法。
背景技术
在图像识别的多目标检测任务中,例如商品识别、招牌识别等,常使用深度学习的方法,其要求海量的训练样本数据,并且需要对图像中的目标做标注,但是往往采集数据和标注数据需要很高的成本。
同时,一般在训练样本集较小的情况下,会使用数据增广技术,即对训练图像进行旋转、裁剪、翻转等操作来扩大样本数据集,然而这种处理过于简单,没有增加背景的复杂程度,因此应用在目标检测任务中,效果不佳。
发明内容
为了解决现有技术存在的上述问题,本发明目的在于提供一种节省成本、增加了目标检测网络的鲁棒性、适用于各种场景的生成深度学习样本的方法。
本发明所采用的技术方案为:
一种生成深度学习样本的方法,包括以下步骤:
S1.采集纯色背景下拍摄的初始图像;
S2.从初始图像中获取到目标图像的位置及轮廓,并截取出目标图像;
S3.对截取出的目标图像进行数据增广,得到目标图像的初始数据集;
S4.从初始数据集中选取任一目标图像后,将当前目标图像随机放置于预设的背景图形中并进行泊松图形融合,然后记录当前目标图像在预设背景图像中的位置;
S5.重复步骤S4,形成深度学习的目标检测数据集。
作为优选,所述的步骤S2中,首先计算初始图像的形态学梯度,接着进行阈值分割,然后获取到目标图像的位置及轮廓。
作为优选,计算初始图像的形态学梯度时,根据公式:
dst(x,y)=max{src(x-r:x+r,y-r:y+r)}-min{src(x-r:x+r,y-r:y+r)};
其中,src为初始图像,src(x-r:x+r,y-r:y+r)为方形邻域,方形邻域的四个角坐标分别为(x+r,y+r)、(x-r,y-r)、(x+r,y-r)及(x-r,y+r),dst(x,y)即为该方形邻域内的最大值与最小值的差。
作为优选,所述的步骤S3中,进行数据增广时,对截取出的目标图像进行几何变换操作和/或像素变换操作;所述的初始数据集中的目标图像的数量为截取出的目标图像的数量的千倍以上。
作为优选,所述的几何变换操作包括旋转操作、翻转操作、裁剪操作及仿射操作;所述的像素变换操作包括加噪操作、透视操作、亮度操作及对比度操作。
作为优选,所述的步骤S4中,进行泊松融合时,步骤如下:
S41.分别计算背景图像的梯度与当前目标图像,其中,梯度包括x方向的x梯度及y方向的y梯度;
S42.在背景图像中随机选取放置当前目标图像的位置,将当前位置的背景图像的梯度替换成目标图像的梯度,得到初始融合图像的初始梯度mix_grad_x和mix_grad_y,然后将目标图像复制至当前位置,得到初始融合图像mix;
S43.通过迭代法对初始融合图像进行更新操作,当前后两次更新操作中初始融合图像的差值小于预设参数时结束更新操作,得到融合图像及其梯度,并记录融合图像及其梯度与当前目标图像在融合图像中的位置。
作为优选,所述的步骤S41中,计算背景图像的梯度时,采用的公式为:
bg_grad_x=filter(bg,kx),kx=[0,-1,1],bg_grad_y=filter(bg,ky),ky=[0;-1;1],
其中,bg_grad_x是背景图像的初始x方向的梯度,bg_grad_y是背景图像的初始y方向的梯度,filter(*,*)是滤波操作;
计算目标图像的梯度时,采用的公式为:
obj_grad_x=filter(obj,kx),obj_grad_y=filter(obj,ky),
其中,obj_grad_x是目标图像的初始x方向的梯度,obj_grad_y是目标图像的初始y方向的梯度,filter(*,*)是滤波操作。
作为优选,所述的步骤S43中,通过Jacobi迭代法对初始融合图像mix进行更新操作。
作为优选,所述的步骤S43中,通过Jacobi迭代法对初始融合图像进行更新操作,具体如下:
S431.采用以下公式计算初始融合图像的散度lap:
lap=filter(mix_grad_x,kx)+filter(mix_grad_y,ky);
S432.结束更新操作时,前后两次更新操作中初始融合图像的差值需满足以下公式:
maxabsdiff(mix,premix)<epsilon,premix=(filter(mix,k)+lap)/4,
其中,epsilon为预设参数,k=[0,1,0;1,0,1;0,1,0],maxabsdiff(*,*)是求前后两次更新操作中初始融合图像的差值的最大值,并根据该最大值判断是否停止更新操作,premix为前次初始融合图像。
本发明的有益效果为:
1)只需预先拍摄少量的目标图像和背景图像即可实现目标检测数据集的建立,由此减少了海量目标数据的准备时间成本及人力成本;
2)自动化地完成数据制造,最终生成海量的目标检测数据集,经试验,使用生成的目标检测数据集训练检测网络,在真实拍摄的测试集中召回率可以超过80%,进一步大大节省了图像标注的时间成本及人力成本;
3)无需依赖GPU进行数据处理,降低了由于图像处理造成的硬件成本;
4)采用了截取、增广、融合三个步骤,生成优质的目标检测数据集,进而为深度学习提供了优质的样本;
5)背景图像可以替换为各种场合所需的背景图像,便于制定在特定场合的目标检测数据集;
6)使用改进的泊松融合方法,结合其它图像处理方法,让目标图像自然融入背景图像中,减少了最终目标检测数据集的噪声,增加了目标检测网络的鲁棒性。
附图说明
图1是本发明的结构框图。
具体实施方式
下面结合附图及具体实施例对本发明做进一步阐释。
实施例:
如图1所示,本实施例提供一种生成深度学习样本的方法,包括以下步骤:
S1.采集纯色背景下拍摄的初始图像;初始图像可以为1张,也可以为多张。
S2.从初始图像中获取到目标图像的位置及轮廓,并截取出目标图像;
本实施例中,步骤S2中,首先计算初始图像的形态学梯度,接着进行阈值分割,然后获取到目标图像的位置及轮廓。
本实施例中,计算初始图像的形态学梯度时,根据公式:
dst(x,y)=max{src(x-r:x+r,y-r:y+r)}-min{src(x-r:x+r,y-r:y+r)};
其中,src为初始图像,src(x-r:x+r,y-r:y+r)为方形邻域,方形邻域的四个角坐标分别为(x+r,y+r)、(x-r,y-r)、(x+r,y-r)及(x-r,y+r),dst(x,y)即为该方形邻域内的最大值与最小值的差;一般情况下,r=3.
S3.对截取出的目标图像进行数据增广,得到目标图像的初始数据集;
本实施例中,步骤S3中,进行数据增广时,对截取出的目标图像进行几何变换操作和/或像素变换操作;初始数据集中的目标图像的数量为截取出的目标图像的数量的千倍以上。
其中,几何变换操作包括旋转操作、翻转操作、裁剪操作及仿射操作;像素变换操作包括加噪操作、透视操作、亮度操作及对比度操作。
S4.从初始数据集中选取任一目标图像后,将当前目标图像随机放置于预设的背景图形中并进行泊松图形融合,然后记录当前目标图像在预设背景图像中的位置;
本实施例中,步骤S4中,进行泊松融合时,步骤如下:
S41.分别计算背景图像的梯度与当前目标图像,其中,梯度包括x方向的x梯度及y方向的y梯度;
S42.在背景图像中随机选取放置当前目标图像的位置,将当前位置的背景图像的梯度替换成目标图像的梯度,得到初始融合图像的初始梯度mix_grad_x和mix_grad_y,然后将目标图像复制至当前位置,得到初始融合图像mix;
S43.通过迭代法对初始融合图像进行更新操作,当前后两次更新操作中初始融合图像的差值小于预设参数时结束更新操作,得到融合图像及其梯度,并记录融合图像及其梯度与当前目标图像在融合图像中的位置。
本实施例中,步骤S41中,计算背景图像的梯度时,采用的公式为:
bg_grad_x=filter(bg,kx),kx=[0,-1,1],bg_grad_y=filter(bg,ky),ky=[0;-1;1],
其中,bg_grad_x是背景图像的初始x方向的梯度,bg_grad_y是背景图像的初始y方向的梯度,filter(*,*)是滤波操作;
计算目标图像的梯度时,采用的公式为:
obj_grad_x=filter(obj,kx),obj_grad_y=filter(obj,ky),
其中,obj_grad_x是目标图像的初始x方向的梯度,obj_grad_y是目标图像的初始y方向的梯度,filter(*,*)是滤波操作。
本实施例中,步骤S42中,计算初始融合图像mix的初始梯度时,具体如下:
随机选择一个区域α,将当前位置的背景图像的梯度替换成目标图像的梯度,将当前位置的背景图像的像素替换成目标图像的像素,即对于融合图像的初始x梯度mix_grad_x,融合图像的初始y梯度mix_grad_y,融合图像mix的每一个像素取值如下:
Figure BDA0001726078300000071
Figure BDA0001726078300000072
Figure BDA0001726078300000073
本实施例中,步骤S43中,通过Jacobi迭代法对初始融合图像mix进行更新操作。
本实施例中,步骤S43中,通过Jacobi迭代法对初始融合图像进行更新操作,具体如下:
S431.采用以下公式计算初始融合图像的散度lap:
lap=filter(mix_grad_x,kx)+filter(mix_grad_y,ky);
S432.结束更新操作时,前后两次更新操作中初始融合图像的差值需满足以下公式:
maxabsdiff(mix,premix)<epsilon,premix=(filter(mix,k)+lap)/4,
其中,epsilon为预设参数,k=[0,1,0;1,0,1;0,1,0],maxabsdiff(*,*)是求前后两次更新操作中初始融合图像的差值的最大值,并根据该最大值判断是否停止更新操作,premix为前次初始融合图像。
S5.重复步骤S4,形成深度学习的目标检测数据集。
本发明不局限于上述可选的实施方式,任何人在本发明的启示下都可得出其他各种形式的产品。上述具体实施方式不应理解成对本发明的保护范围的限制,本发明的保护范围应当以权利要求书中界定的为准,并且说明书可以用于解释权利要求书。

Claims (9)

1.一种生成深度学习样本的方法,其特征在于:包括以下步骤:
S1.采集纯色背景下拍摄的初始图像;
S2.从初始图像中获取到目标图像的位置及轮廓,并截取出目标图像;
S3.对截取出的目标图像进行数据增广,得到目标图像的初始数据集;
S4.从初始数据集中选取任一目标图像后,将当前目标图像随机放置于预设的背景图形中并进行泊松图形融合,然后记录当前目标图像在预设背景图像中的位置;
S5.重复步骤S4,形成深度学习的目标检测数据集。
2.根据权利要求1所述的生成深度学习样本的方法,其特征在于:所述的步骤S2中,首先计算初始图像的形态学梯度,接着进行阈值分割,然后获取到目标图像的位置及轮廓。
3.根据权利要求2所述的生成深度学习样本的方法,其特征在于:计算初始图像的形态学梯度时,根据公式:
dst(x,y)=max{src(x-r:x+r,y-r:y+r)}-min{src(x-r:x+r,y-r:y+r)};
其中,src为初始图像,src(x-r:x+r,y-r:y+r)为方形邻域,方形邻域的四个角坐标分别为(x+r,y+r)、(x-r,y-r)、(x+r,y-r)及(x-r,y+r),dst(x,y)即为该方形邻域内的最大值与最小值的差。
4.根据权利要求1所述的生成深度学习样本的方法,其特征在于:所述的步骤S3中,进行数据增广时,对截取出的目标图像进行几何变换操作和/或像素变换操作;所述的初始数据集中的目标图像的数量为截取出的目标图像的数量的千倍以上。
5.根据权利要求4所述的生成深度学习样本的方法,其特征在于:所述的几何变换操作包括旋转操作、翻转操作、裁剪操作及仿射操作;所述的像素变换操作包括加噪操作、透视操作、亮度操作及对比度操作。
6.根据权利要求3所述的生成深度学习样本的方法,其特征在于:所述的步骤S4中,进行泊松融合时,步骤如下:
S41.分别计算背景图像的梯度与当前目标图像的梯度,其中,梯度包括x方向的x梯度及y方向的y梯度;
S42.在背景图像中随机选取放置当前目标图像的位置,将当前位置的背景图像的梯度替换成目标图像的梯度,得到初始融合图像的初始梯度mix_grad_x和mix_grad_y,然后将目标图像复制至当前位置,得到初始融合图像mix;
S43.通过迭代法对初始融合图像mix进行更新操作,当前后两次更新操作中初始融合图像mix的差值小于预设参数时结束更新操作,得到融合图像及其梯度,并记录融合图像及其梯度与当前目标图像在融合图像中的位置。
7.根据权利要求6所述的生成深度学习样本的方法,其特征在于:所述的步骤S41中,计算背景图像的梯度时,采用的公式为:
bg_grad_x=filter(bg,kx),kx=[0,-1,1],bg_grad_y=filter(bg,ky),ky=[0;-1;1],
其中,bg_grad_x是背景图像的初始x方向的梯度,bg_grad_y是背景图像的初始y方向的梯度,filter(*,*)是滤波操作;
计算目标图像的梯度时,采用的公式为:
obj_grad_x=filter(obj,kx),obj_grad_y=filter(obj,ky),
其中,obj_grad_x是目标图像的初始x方向的梯度,obj_grad_y是目标图像的初始y方向的梯度,filter(*,*)是滤波操作。
8.根据权利要求7所述的生成深度学习样本的方法,其特征在于:所述的步骤S43中,通过Jacobi迭代法对初始融合图像mix进行更新操作。
9.根据权利要求8所述的生成深度学习样本的方法,其特征在于:所述的步骤S43中,通过Jacobi迭代法对初始融合图像进行更新操作,具体如下:
S431.采用以下公式计算初始融合图像的散度lap:
lap=filter(mix_grad_x,kx)+filter(mix_grad_y,ky);
S432.结束更新操作时,前后两次更新操作中初始融合图像的差值需满足以下公式:
maxabsdiff(mix,premix)<epsilon,premix=(filter(mix,k)+lap)/4,
其中,epsilon为预设参数,k=[0,1,0;1,0,1;0,1,0],maxabsdiff(*,*)是求前后两次更新操作中初始融合图像的差值的最大值,并根据该最大值判断是否停止更新操作,premix为前次初始融合图像。
CN201810753123.0A 2018-07-10 2018-07-10 一种生成深度学习样本的方法 Active CN108932735B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810753123.0A CN108932735B (zh) 2018-07-10 2018-07-10 一种生成深度学习样本的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810753123.0A CN108932735B (zh) 2018-07-10 2018-07-10 一种生成深度学习样本的方法

Publications (2)

Publication Number Publication Date
CN108932735A CN108932735A (zh) 2018-12-04
CN108932735B true CN108932735B (zh) 2021-12-28

Family

ID=64447235

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810753123.0A Active CN108932735B (zh) 2018-07-10 2018-07-10 一种生成深度学习样本的方法

Country Status (1)

Country Link
CN (1) CN108932735B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784672A (zh) * 2018-12-25 2019-05-21 上海交通大学 一种针对电网异常的实时监测报警系统及方法
CN109948562B (zh) * 2019-03-25 2021-04-30 浙江啄云智能科技有限公司 一种基于x射线图像的安检系统深度学习样本生成方法
CN109948565B (zh) * 2019-03-26 2021-05-25 浙江啄云智能科技有限公司 一种用于邮政业的违禁品不开箱检测方法
CN110084307B (zh) * 2019-04-30 2021-06-18 东北大学 一种基于深度强化学习的移动机器人视觉跟随方法
CN110060265A (zh) * 2019-05-15 2019-07-26 北京艺泉科技有限公司 一种从书画文物图像中分割并提取印章的方法
CN110288614B (zh) * 2019-06-24 2022-01-11 睿魔智能科技(杭州)有限公司 图像处理方法、装置、设备及存储介质
CN110322440B (zh) * 2019-07-08 2023-01-13 东北大学 一种细胞显微图像数据扩充的方法
CN110503146B (zh) * 2019-08-21 2021-12-14 杭州比智科技有限公司 数据增强方法、装置、计算设备及计算机存储介质
CN113012054B (zh) * 2019-12-20 2023-12-05 舜宇光学(浙江)研究院有限公司 基于抠图的样本增强方法和训练方法及其系统和电子设备
CN113342236A (zh) * 2020-02-18 2021-09-03 北京四维图新科技股份有限公司 一种数据处理方法和装置、电子设备、存储介质
CN111145177B (zh) * 2020-04-08 2020-07-31 浙江啄云智能科技有限公司 图像样本生成方法、特定场景目标检测方法及其系统
CN111524100B (zh) * 2020-04-09 2023-04-18 武汉精立电子技术有限公司 一种缺陷图像样本生成方法、装置及面板缺陷检测方法
CN112016630B (zh) * 2020-09-03 2024-03-19 平安科技(深圳)有限公司 基于图像分类模型的训练方法、装置、设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102903093A (zh) * 2012-09-28 2013-01-30 中国航天科工集团第三研究院第八三五八研究所 一种基于链码掩模的泊松图像融合方法
US20140368701A1 (en) * 2013-06-12 2014-12-18 Lilong SHI Cloning image data patch in hole of pixel array (patch and clone)
CN104952089B (zh) * 2014-03-26 2019-02-15 腾讯科技(深圳)有限公司 一种图像处理方法及系统
CN105096287A (zh) * 2015-08-11 2015-11-25 电子科技大学 一种改进的多次泊松图像融合方法
CN106204646A (zh) * 2016-07-01 2016-12-07 湖南源信光电科技有限公司 基于bp神经网络的多运动目标跟踪方法
CN107274345A (zh) * 2017-06-07 2017-10-20 众安信息技术服务有限公司 一种中文打印字符图像合成方法及装置
CN107680071B (zh) * 2017-10-23 2020-08-07 深圳市云之梦科技有限公司 一种人脸与身体融合处理的方法及系统
CN108156370A (zh) * 2017-12-07 2018-06-12 Tcl移动通信科技(宁波)有限公司 利用本地图片作为背景的拍照方法、存储介质及移动终端
CN108171748B (zh) * 2018-01-23 2021-12-07 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法

Also Published As

Publication number Publication date
CN108932735A (zh) 2018-12-04

Similar Documents

Publication Publication Date Title
CN108932735B (zh) 一种生成深度学习样本的方法
Kuznichov et al. Data augmentation for leaf segmentation and counting tasks in rosette plants
CN105894499B (zh) 一种基于双目视觉的空间物体三维信息快速检测方法
CN112288658A (zh) 一种基于多残差联合学习的水下图像增强方法
US7929804B2 (en) System and method for tracking objects with a synthetic aperture
WO2018053952A1 (zh) 一种基于场景样本库的影视图像深度提取方法
CN112102201B (zh) 图像阴影反光消除方法、装置、计算机设备及存储介质
CN110415193A (zh) 煤矿低照度模糊图像的复原方法
CN112669280A (zh) 一种基于lsd算法的无人机倾斜航拍直角像控点目标检测方法
CN110517348B (zh) 基于图像前景分割的目标物体三维点云重建方法
CN102629325A (zh) 图像特征提取方法和装置及图像拷贝检测方法和系统
CN104104911B (zh) 全景图像生成过程中的时间戳消除和重置方法及系统
CN110827375B (zh) 一种基于微光图像的红外图像真彩着色方法及系统
CN112465984A (zh) 一种基于双层过滤的单目相机序列图像三维重构方法
CN111145216A (zh) 一种视频图像目标的跟踪方法
CN116363168A (zh) 一种基于超分辨网络的遥感视频目标跟踪方法及系统
CN110533619A (zh) 一种基于暗通道先验的图像去雾改进方法
CN111105394B (zh) 一种检测发光小球特征信息的方法及装置
CN114663299A (zh) 适用于煤矿井下的图像去雾模型的训练方法及其装置
CN112672052A (zh) 一种图像数据增强方法、系统、电子设备及存储介质
CN109314776B (zh) 图像处理方法、图像处理设备及存储介质
KR101631023B1 (ko) 이웃 기반의 강도 보정 장치, 백그라운드 획득 장치 및 그 방법
CN111369612A (zh) 一种三维点云图像生成方法及设备
US20100166296A1 (en) Method and program for extracting silhouette image and method and program for constructing three dimensional model
CN110852228B (zh) 监控视频中的动态背景提取及前景物体检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant