CN108010105A - 图像处理设备、图像处理方法和存储介质 - Google Patents

图像处理设备、图像处理方法和存储介质 Download PDF

Info

Publication number
CN108010105A
CN108010105A CN201711066028.5A CN201711066028A CN108010105A CN 108010105 A CN108010105 A CN 108010105A CN 201711066028 A CN201711066028 A CN 201711066028A CN 108010105 A CN108010105 A CN 108010105A
Authority
CN
China
Prior art keywords
image
unit
background
captured
processing equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711066028.5A
Other languages
English (en)
Other versions
CN108010105B (zh
Inventor
川野敦史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017150018A external-priority patent/JP7039208B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN108010105A publication Critical patent/CN108010105A/zh
Application granted granted Critical
Publication of CN108010105B publication Critical patent/CN108010105B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种图像处理设备、图像处理方法和存储介质。为了针对进行隐私保护的图像选择适当的背景图像,图像处理设备获取所拍摄图像,并且从该所拍摄图像中提取与预定的被摄体相对应的被摄体区域。该图像处理设备基于所拍摄图像来从多个背景图像中选择处理所要使用的背景图像,并且进行用于针对所选择的背景图像来使所提取的被摄体区域模糊化的处理。

Description

图像处理设备、图像处理方法和存储介质
技术领域
本发明涉及用于保护监视照相机所拍摄到的图像上的隐私的图像处理设备、图像处理方法和存储介质。
背景技术
当前,监视照相机安装在许多区域。与此同时,监视照相机拍摄到的视频图像中所包括的个人隐私的保护变得越来越重要。日本专利5834193公开了用于通过使用人体检测结果来生成人体区域被遮罩的视频图像的技术。日本专利4578044公开了如下技术,其中利用该技术,接收到监视模块所提取的各图像之间的差异区域的轮廓信息的接收单元将该轮廓信息与背景图像合成,以显示合成图像。
在利用遮罩图像来替换基于日本专利5834193中所论述的识别处理的结果所生成的遮罩区域的内部的技术中,如果识别处理失败,则被摄体暴露的可能性高。此外,由于日本专利4578044中所论述的技术是用于将轮廓信息与固定背景合成的技术,因此没有考虑在照相机所覆盖的监视区域中实际发生的变化(以下适当地称为现实世界的环境变化)。因而,用户难以识别该环境变化。
发明内容
根据本发明的方面,一种图像处理设备,包括:获取单元,用于获取所拍摄图像;提取单元,用于从所述所拍摄图像中提取与预定的被摄体相对应的被摄体区域;选择单元,用于基于所述所拍摄图像,来从多个背景图像中选择处理所要使用的背景图像;以及处理单元,用于针对所述选择单元所选择的背景图像,使所述提取单元所提取的被摄体区域模糊化。
根据本发明的方面,一种图像处理方法,包括以下步骤:获取所拍摄图像;从所述所拍摄图像中提取与预定的被摄体相对应的被摄体区域;基于所述所拍摄图像,来从多个背景图像中选择处理所要使用的背景图像;以及进行用于针对所选择的背景图像来使所提取的被摄体区域模糊化的处理。
根据本发明的方面,一种存储介质,其存储程序,所述程序用于使计算机用作:获取单元,用于获取所拍摄图像;提取单元,用于从所述所拍摄图像中提取与预定的被摄体相对应的被摄体区域;选择单元,用于基于所述所拍摄图像,来从多个背景图像中选择处理所要使用的背景图像;以及处理单元,用于进行用于针对所述选择单元所选择的背景图像来使所述提取单元所提取的被摄体区域模糊化的处理。
通过以下参考附图对典型实施例的说明,本发明的其它特征将变得明显。
附图说明
图1是示出图像处理设备的硬件结构的框图。
图2是示出图像处理设备的软件结构的示例的框图。
图3是示出图像处理设备的处理的流程图。
图4是示出所拍摄图像的示例的图。
图5是示出被摄体的遮罩区域的示例的图。
图6是示出隐私保护图像的示例的图。
图7是示出图像处理设备的软件结构的框图。
图8A~8C是各自示出背景图像的选择的示例的图。
图9是示出图像处理设备的软件结构的框图。
具体实施方式
以下将参考附图来说明本发明的典型实施例。
图1是示出图像处理设备100的硬件结构的框图。
中央处理单元(CPU)11进行连接至系统总线14的各装置的控制。
只读存储器(ROM)12存储基本输入/输出系统(BIOS)程序和引导程序。
随机存取存储器(RAM)13用作CPU 11的主存储装置。
键盘控制器(KBC)15执行与来自诸如鼠标等的指示装置(PD)19和来自键盘(KB)20的信息的输入有关的处理。
包含视频存储器的显示控制单元(CRTC)16根据来自CPU 11的指示来在视频存储器中进行描绘,并且将视频存储器中所描绘的图像数据作为视频信号输出至阴极射线管(CRT)21。尽管图1示出CRT 21作为显示装置,但可以使用任何类型的显示装置(例如,液晶显示装置)。
盘控制器(DKC)17进行向硬盘(HDD)22的访问。
网络接口卡(NIC)18连接至网络,并且经由该网络进行信息通信。
HDD 22存储OS程序和在OS上工作的各种应用的程序。HDD 22是存储区域的示例。
在上述结构中,在图像处理设备100变为ON(开启)的情况下,CPU 11根据ROM 12所存储的引导程序来将OS程序从HDD 22载入RAM 13。这样,图像处理设备100实现各装置的功能。
图像处理设备100的CPU 11基于ROM 12或HDD 22所存储的程序来执行处理。因而,实现了(以下所述的)图2、7和9中的图像处理设备100的软件结构、以及(以下所述的)图3的流程图中的处理。
在第一典型实施例中,将说明图像处理设备100的信息处理。在该信息处理中,基于输入图像和背景图像各自中的除物体区域以外的部分之间的相似度来选择背景图像,将所选择的背景图像与遮罩区域的遮罩图像合成,并且生成合成图像(以下称为隐私保护图像)。因而,人物变模糊或被遮罩。
图2是示出根据第一典型实施例的图像处理设备100的软件结构的示例的框图。图像处理设备100包括图像获取单元101、遮罩区域提取单元102、物体提取单元103、背景管理单元104、图像合成单元(模糊化处理单元)105和输出单元106。
图像获取单元101按预定间隔从诸如配备有透镜和传感器的照相机等的摄像单元顺次获取图像,并且将这些图像提供至遮罩区域提取单元102和状态获取单元203。该摄像单元可以配置在图像处理设备100中,或者可以经由网络等可通信地连接至图像处理设备100。
遮罩区域提取单元102提取作为隐私保护对象的被摄体遮罩区域。遮罩区域提取单元102基于遮罩区域提取所用的背景图像和图像获取单元101所获取到的图像之间的差异来提取遮罩区域。在背景图像上,不存在图像处理设备100的摄像区域中的被摄体。以下将详细说明用于对遮罩区域提取所用的背景图像以及遮罩区域进行提取的方法。遮罩区域提取所用的背景图像是如下的图像,其中该图像是按与图像获取单元101所获取到的图像的视角相等的视角所拍摄到的,并且不包括隐私保护对象。从图像处理设备100的处理开始起,遮罩区域提取单元102将从图像获取单元101获取到的图像存储在图像存储单元(未示出)中。在将预定个数(例如,100个)图像存储在图像存储单元中的阶段,遮罩区域提取单元102对图像存储单元中所存储的图像的像素值求平均,以生成遮罩区域提取所用的背景图像。此外,在生成遮罩区域提取所用的背景图像之后,每次从图像获取单元101获取图像时,遮罩区域提取单元102将各图像存储在图像存储单元中并且删除图像存储单元中所存储的最旧图像。然后,遮罩区域提取单元102对图像存储单元中所存储的图像的像素值求平均,以更新遮罩区域提取所用的背景图像。换句话说,遮罩区域提取单元102使用通过根据来自图像获取单元101的图像的获取时间点而使用预定个数(例如,100个)图像所生成的平均图像,来作为遮罩区域提取所用的背景图像。可选地,根据物体识别方法(例如,模式匹配),遮罩区域提取单元102从图像获取单元101所获取到的多个图像中获取物体区域,并且对物体区域被去除的多个图像的像素值进行合成,以生成遮罩区域提取所用的背景图像。如上所述,可以使用用于生成不包括隐私保护的对象的图像的任何方法。遮罩区域提取单元102中所描绘的遮罩区域提取所用的背景图像不同于背景管理单元104中所描绘的背景图像。之后,遮罩区域提取单元102将如下的像素确定为遮罩以提取遮罩区域,其中在这些像素中,从图像获取单元101获取到的图像和遮罩区域提取所用的背景图像之间的亮度值的差超过阈值(例如,10%以上)。遮罩区域提取单元102可以执行能够通过图像处理来提取隐私保护对象的区域(被摄体区域)的任何处理。例如,遮罩区域提取单元102获取所存储的过去图像和从图像获取单元101获取到的最新图像之间的差异区域,并且执行用于在该差异区域上搜索人物的特征(形状或颜色)的处理(模式匹配处理)。在存在人物的特征的情况下,遮罩区域提取单元102提取出该差异区域作为被摄体区域。
物体提取单元103从图像获取单元101所获取到的最新图像中提取物体区域。物体提取单元103存储从图像获取单元101获取到的过去图像,并且计算所存储的过去图像和从图像获取单元101获取到的最新图像之间的差异区域以提取物体区域。物体提取单元103将最新图像和所提取的物体区域的物体区域信息发送至背景管理单元104。物体提取单元103可以使用诸如背景相减法或模板匹配法等的任何提取方法来提取物体区域,只要利用该方法可以提取出物体区域即可。因此,该方法不限于上述方法。
背景管理单元104管理多个背景图像。这多个背景图像是按与图像获取单元101所获取到的图像的地方和视角相同的地方和视角、并且在该视角内按不同的时间带和不同的状态所拍摄到的一个或多个图像。以商店的入口作为示例,在诸如早晨、白天、傍晚和夜晚等的不同时间带中,并且按视角内的不同状态(诸如商店入口的卷帘关闭或打开的状态、以及门关闭或打开的状态等),拍摄到一个或多个图像。背景管理单元104将这些背景图像作为图像文件存储在图像存储单元(未示出)中。此外,背景管理单元104通过使用最新图像和背景图像中的、除物体提取单元103所提取的物体区域以外的区域(以下称为判断区域)之间的相似度,来选择最接近物体提取单元103所处理的最新图像的背景图像。例如,在物体提取单元103提取图像的右半部分区域作为物体的情况下,物体提取单元103选择最新图像的左半部分区域和背景图像的左半部分区域之间的相似度最高的背景图像。在该选择中,物体提取单元103通过使用快速鲁棒特征(Speed-Up Robust Features,SURF),根据特征点来从最新图像和背景图像的判断区域中提取位置和特征矢量。这些特征点是判断区域内的亮度变化量大的部分。物体提取单元103测量最新图像和背景图像的特征矢量之间的欧几里德距离,并且使最新图像和背景图像的特征矢量彼此关联,使得该距离变得最小。物体提取单元103选择相似度最小的背景图像作为最接近的背景图像。这里,相似度是相应特征量的距离的总和与相应位置处的色差分量的总和的合计。这样,物体提取单元103可以通过比较判断区域的相似度,来选择采用接近摄像环境的状态的时间带和状态的背景图像。例如,在提取图像的右半部分区域作为物体的情况下,物体提取单元103选择在最新图像的左半部分区域和背景图像的左半部分区域之间相似度最高的背景图像。在该选择中,物体提取单元103通过使用快速鲁棒特征(SURF),来按特征点从最新图像和背景图像的判断区域中提取位置和特征矢量。这些特征点是判断区域内的亮度变化量大的部分。物体提取单元103测量最新图像和背景图像的特征矢量之间的欧几里德距离,并且使最新图像和背景图像的特征矢量彼此关联,使得该距离变得最小。物体提取单元103选择相似度最小的背景图像作为最接近的背景图像。这里,相似度是相应特征矢量的距离的总和与相应位置处的色差分量的总和的合计。这样,物体提取单元103可以通过比较判断区域之间的相似度,来选择采用接近最新图像拍摄环境的时间带和状态的背景图像。背景管理单元104通过判断最新图像中的除物体区域信息所表示的物体区域以外的部分与各背景图像中的除物体区域信息所表示的物体区域以外的部分之间的相似度、即除物体区域以外的部分之间的相似度,来选择背景图像。特征点的提取方法不限于SURF,并且可以使用用于提取诸如根据“加速分段测试特征”(features from accelerated segment test,FAST)所获得的角(corner)特征等的特征点的任何方法。此外,相似度判断不限于用于比较图像的相应点处的特征的方法,并且可以使用用于判断相似图像的任何方法。图像合成单元105将背景管理单元104所选择的背景图像的像素中的与遮罩区域提取单元102所提取的遮罩图像相对应的像素的颜色改变为预定颜色(例如,蓝色)。这样,图像合成单元105生成隐私保护图像。可选地,图像合成单元105生成如下的遮罩图像,其中在该遮罩图像中,遮罩区域提取单元102所提取的遮罩区域的颜色改变为预定颜色(例如,蓝色),并且除遮罩区域以外的部分的颜色改变为第二预定颜色(例如,白色)。然后,图像合成单元105可以使遮罩图像与背景管理单元104所选择的背景图像进行α混合(α-blend),以生成隐私保护图像。
输出单元106将图像合成单元105所生成的隐私保护图像以有线或无线方式连接至与图像处理设备100相连接的外部设备。此外,输出单元106可以将隐私保护图像输出至HDD 22或CRT 21。
接着,将说明信息处理设备100中的信息处理的流程。
图3是示出图像处理设备100的如下信息处理的示例的流程图,其中该信息处理用于根据连续输入的图像生成保护图像,并且输出该保护图像。
在开始该处理之后,在步骤S101中,图像获取单元101获取图像。图像获取单元101将所获取到的图像存储在诸如RAM 13或HDD 22等的存储器中。图4示出图像获取单元101所获取到的图像的示例。
在步骤S102中,遮罩区域提取单元102从图像获取单元101所获取到的图像中提取被摄体的遮罩区域。图5示出遮罩区域提取单元102所提取的被摄体的遮罩区域的示例。
在步骤S103中,物体提取单元103从图像获取单元101所获取到的图像中提取物体区域。
在步骤S104中,背景管理单元104选择接近图像获取单元101所获取到的图像的背景图像。
在步骤S105中,图像合成单元105将背景管理单元104所选择的背景图像与遮罩区域提取单元102所提取的遮罩区域的遮罩图像进行合成,以生成隐私保护图像。图6示出图像合成单元105所生成的隐私保护图像的示例。
在步骤S106中,输出单元106将隐私保护图像输出至外部设备。在步骤S107中,输出单元106判断是否从PD 19或KB 20接收到结束指示。如果判断为接收到了结束指示(步骤S107中为“是”),则输出单元106结束图3所示的流程图。如果判断为没有接收到结束指示(步骤S107中为“否”),则处理返回至步骤S101。
在根据本典型实施例的信息处理中,图像处理设备100选择接近输入图像的背景图像,并且将所选择的背景图像与遮罩区域的遮罩图像进行合成。因而,可以向用户提供保护了隐私并且考虑到环境变化的优选的合成图像。
在第二典型实施例中,将说明图像处理设备100的、用于使用摄像状态来选择背景图像并且生成隐私保护图像的信息处理。
图7是示出根据第二典型实施例的图像处理设备100的软件结构的示例的框图。利用相同的附图标记来表示第一典型实施例和第二典型实施例中的相同组件,并且省略了针对这些组件的说明。这同样适用于以下所述的其它附图。
状态获取单元203根据图像获取单元101所获取到的图像来估计摄像状态。摄像状态表示摄像的视角内的状态。该状态是基于从各种设置获取到的摄像信息以及/或者通过分析图像并检测特定物体可以估计的图像信息而确定的。从各种设置获取到的摄像信息包括摄像单元的时刻设置和摄像单元的设置,诸如摄像时间带、季节和照度条件等。关于摄像时间带,早晨为6:00AM~10:00AM,白天为10:00AM~5:00PM,傍晚为5:00PM~7:00PM,并且夜晚为7:00PM~6:00AM。摄像时间带是基于从与图像获取单元101相连接的摄像单元获取到的摄像时间而从早晨、白天、傍晚和夜晚中选择的。此外,关于季节,分别定义与春、夏、秋和冬相对应的日期,并且季节是基于从摄像单元获取到的日期而从春、夏、秋或冬中所选择的。照度条件是基于从图像获取单元101获取到的图像整体的亮度值的增益值和直方图通过规则判断而估计出并获取到的。规则判断是基于用于判断直方图和增益值的条件的组合来进行的。例如,将亮度范围设置为0~255,并且按0~7的8级设置增益值。在直方图的众数值为128以上并且增益值为3以下的情况下,判断为照度充足,并且在直方图的众数值为64以下并且增益值为4以上的情况下,判断为照度低。摄像单元的设置是从摄像时的白平衡设置、曝光设置和曝光时间设置中获取到的。此外,通过分析图像并检测特定物体可以估计的摄像信息是通过从图像中检测雨滴或雪并且估计天气所获取到的。将天气分类为晴、雨和雪。在没有检测到雨或雪的情况下,将天气估计为晴,在检测到雨滴的情况下,将天气估计为雨,并且在检测到降雪的情况下,将天气估计为雪。状态获取处理不限于上述处理。状态获取处理可以是能够根据所拍摄图像来估计摄像状态的任何处理。背景管理单元204管理多个背景图像和各背景图像的摄像状态。这多个背景图像是按与图像获取单元101所获取到的图像的地方和视角相同的地方和视角、并且在该视角内按不同的时间带和不同的状态所拍摄到的一个或多个图像。背景图像的类型与第一典型实施例所述的类型相同。背景管理单元204将这些背景图像作为图像文件并且将摄像状态作为元数据文件存储在图像存储单元(未示出)中。此外,背景管理单元204通过规则判断来从多个背景图像中选择最接近从状态获取单元203获取到的摄像状态的背景图像。图8A~8C是各自示出使用白平衡和照度的背景图像的选择的示例的图。本典型实施例中的规则判断条件如下:从状态获取单元203获取到的摄像状态和背景图像之间的白平衡值的差最小、并且照度条件相同。图8A示出图像获取单元101所获取到的最新图像和状态获取单元203所获取到的摄像状态。图8B和8C示出所设置的背景图像和这些背景图像的摄像状态。背景管理单元204根据规则来判断最新图像的摄像状态和背景图像上所设置的摄像状态,并且选择背景图像。在图8A~8C的示例中,背景管理单元204选择符合规则的图8B的背景图像作为背景图像。在图8A~8C的示例中,背景管理单元204基于白平衡和照度条件选择了背景图像,但规则判断条件可以包括摄像信息的其它项,诸如相同的摄像时间带和相同的天气等。此外,规则判断不仅可以通过各条件的逻辑与(AND)来进行,而且还可以通过各条件的逻辑和来进行。例如,背景管理单元204选择满足白平衡值的差最小和摄像时间带相同中的任一个的背景图像。
由于第二典型实施例的信息处理与根据第一典型实施例的图3所示的流程相同,因此省略了针对该信息处理的说明。
在根据本典型实施例的信息处理中,图像处理设备100选择接近现实世界状态的背景图像,并且将遮罩区域的遮罩图像与背景图像合成。结果,可以同时实现隐私保护以及与现实世界有关的信息的提供。
在第三典型实施例中,将说明图像处理设备100的用于估计摄像状态的信息处理。除第二典型实施例中的装置以外,还使用传感器。
图9是示出根据第三典型实施例的图像处理设备100的软件结构的示例的框图。传感器单元301获取包括安装有摄像单元的环境的温度、湿度和照度的传感器信息,并且将该传感器信息发送至状态获取单元302。
状态获取单元302基于图像获取单元101所获取到的图像和传感器单元301所获取到的传感器信息来估计摄像状态。
背景管理单元303管理多个背景图像和各背景图像的摄像状态。然后,背景管理单元303从多个背景图像中选择与状态获取单元302所获取到的摄像状态最相似的背景图像作为最接近的背景图像。
在第四典型实施例中,说明如下的图像处理设备100:除根据第一典型实施例的结构外,还使用通过将遮罩图像与遮罩区域提取用的背景图像进行合成而生成的隐私保护图像。在本典型实施例中,将说明与第一典型实施例的不同之处。
通过将遮罩图像与第一典型实施例所述的所准备的背景图像进行合成来生成第一隐私保护图像。通过将遮罩图像与本典型实施例所述的遮罩区域提取用的背景图像进行合成来生成第二隐私保护图像。
第一隐私保护图像和第二隐私保护图像各自具有优点和缺点。第一隐私保护图像是通过将作为隐私保护对象的被摄体的遮罩区域与不包括隐私保护对象的背景图像进行合成所生成的。由于该原因,其优点是:可以从视觉上识别出被摄体的形状和移动,并且被摄体没有暴露。然而,从所准备的背景图像中选择最接近输入图像的图像。因而,其缺点是:被摄体的背景与输入图像相似,但没有表现最新的背景状态。另一方面,第二隐私保护图像是通过使用最新的输入图像所生成的。因而,其优点是:不同于第一隐私保护图像,第二隐私保护图像具有相对忠实地表现最新的背景状态的被摄体背景。然而,第二隐私保护图像的缺点是:在遮罩区域提取用的背景图像上被摄体暴露的情况下,生成被摄体的隐私未被保护的图像,因而可能无法实现隐私保护。作为被摄体暴露的情况,可以考虑两个情况。一个情况是:被摄体固定并且存在于生成平均图像所需的存储图像的相同位置。另一情况是:利用物体识别方法未能检测到被摄体。
根据以上的优点和缺点,通过利用上述优点来切换隐私保护图像,因而更优选地,可以实现隐私保护和与现实世界有关的信息的提供。
因此,在本典型实施例中,图像合成单元105还包括面部检测单元(未示出),并且对遮罩区域提取用的背景图像进行面部检测处理。然后,图像合成单元105在检测到面部的情况下生成第一隐私保护图像,并且在没有检测到面部的情况下生成第二隐私保护图像。不限于面部检测单元,并且可以使用用于从遮罩区域提取用的背景图像中提取隐私保护对象的任何方法。可选地,可以使用诸如人物检测单元等的其它检测单元。
其它实施例
在本发明中,将实现根据上述典型实施例的一个或多个功能的程序经由网络或存储介质供给至系统或设备。本发明还可以通过该系统或设备的计算机中的一个或多个处理器加载并执行程序的处理来实现。此外,本发明还可以由实现一个或多个功能的电路(例如,专用集成电路(ASIC))来实现。
以上说明了本发明的典型实施例,但本发明不限于这些特定典型实施例。
例如,图像处理设备100的软件结构的一部分或全部可被作为硬件结构安装在图像处理设备100上。此外,图像处理设备100的硬件结构仅是示例,并且PD 19、KB 20、CRT 21和HDD 22可以是图像处理设备100的外部硬件。
在根据上述典型实施例的处理中,可以针对经过了隐私保护的图像选择适当的背景图像。
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
尽管已经参考典型实施例说明了本发明,但是应该理解,本发明不限于所公开的典型实施例。所附权利要求书的范围符合最宽的解释,以包含所有这类修改、等同结构和功能。

Claims (13)

1.一种图像处理设备,其特征在于,包括:
获取单元,用于获取所拍摄图像;
提取单元,用于从所述所拍摄图像中提取与预定的被摄体相对应的被摄体区域;
选择单元,用于基于所述所拍摄图像,来从多个背景图像中选择处理所要使用的背景图像;以及
处理单元,用于针对所述选择单元所选择的背景图像,使所述提取单元所提取的被摄体区域模糊化。
2.根据权利要求1所述的图像处理设备,其中,所述多个背景图像包括按与所述获取单元所获取到的图像的地方和视角相同的地方和视角而拍摄到的多个图像。
3.根据权利要求1所述的图像处理设备,其中,
所述选择单元基于所述多个背景图像和所述所拍摄图像之间的相似度,来从所述多个背景图像中选择处理所要使用的背景图像,以及
所述处理单元提取用于合成遮罩图像的遮罩区域,并且所述处理单元根据所述遮罩区域的所述遮罩图像和所选择的背景图像来生成保护图像。
4.根据权利要求1所述的图像处理设备,其中,所述选择单元通过使用基于所述所拍摄图像的物体区域信息的相似度,来从所述多个背景图像中选择背景图像。
5.根据权利要求4所述的图像处理设备,其中,还包括第一获取单元,所述第一获取单元用于获取所述所拍摄图像的物体区域信息,
其中,所述选择单元通过使用基于所述所拍摄图像的物体区域信息的相似度,来选择背景图像。
6.根据权利要求5所述的图像处理设备,其中,所述第一获取单元从所述所拍摄图像中去除物体区域,并且所述选择单元通过使用所述所拍摄图像的去除了所述物体区域的区域和所述多个背景图像中的相应区域之间的相似度,来选择背景图像。
7.根据权利要求1所述的图像处理设备,其中,所述选择单元通过使用基于所述所拍摄图像的摄像状态的相似度,来从所述多个背景图像中选择背景图像。
8.根据权利要求1所述的图像处理设备,其中,还包括第二获取单元,所述第二获取单元用于获取所述所拍摄图像的摄像状态。
9.根据权利要求7所述的图像处理设备,其中,所述选择单元通过使用基于所述所拍摄图像的摄像状态和用于拍摄所述所拍摄图像的摄像单元的传感器信息的相似度,来从所述多个背景图像中选择背景图像。
10.根据权利要求9所述的图像处理设备,其中,还包括感测单元,所述感测单元用于获取所述摄像单元的所述传感器信息,
其中,所述选择单元通过使用基于所述所拍摄图像的摄像状态和所述传感器信息的相似度,来从所述多个背景图像中选择背景图像。
11.根据权利要求1所述的图像处理设备,其中,还包括输出单元,所述输出单元用于输出保护图像。
12.一种图像处理方法,其特征在于,包括以下步骤:
获取所拍摄图像;
从所述所拍摄图像中提取与预定的被摄体相对应的被摄体区域;
基于所述所拍摄图像,来从多个背景图像中选择处理所要使用的背景图像;以及
进行用于针对所选择的背景图像来使所提取的被摄体区域模糊化的处理。
13.一种存储介质,其存储程序,其特征在于,所述程序用于使计算机用作:
获取单元,用于获取所拍摄图像;
提取单元,用于从所述所拍摄图像中提取与预定的被摄体相对应的被摄体区域;
选择单元,用于基于所述所拍摄图像,来从多个背景图像中选择处理所要使用的背景图像;以及
处理单元,用于进行用于针对所述选择单元所选择的背景图像来使所述提取单元所提取的被摄体区域模糊化的处理。
CN201711066028.5A 2016-11-02 2017-11-02 图像处理设备、图像处理方法和存储介质 Active CN108010105B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016215302 2016-11-02
JP2016-215302 2016-11-02
JP2017150018A JP7039208B2 (ja) 2016-11-02 2017-08-02 画像処理装置、画像処理方法及びプログラム
JP2017-150018 2017-08-02

Publications (2)

Publication Number Publication Date
CN108010105A true CN108010105A (zh) 2018-05-08
CN108010105B CN108010105B (zh) 2022-03-01

Family

ID=60382028

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711066028.5A Active CN108010105B (zh) 2016-11-02 2017-11-02 图像处理设备、图像处理方法和存储介质

Country Status (3)

Country Link
US (1) US10970896B2 (zh)
EP (2) EP3582186A1 (zh)
CN (1) CN108010105B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112995491A (zh) * 2019-12-13 2021-06-18 阿里巴巴集团控股有限公司 视频生成方法、装置、电子设备及计算机存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11354786B2 (en) * 2017-10-10 2022-06-07 Robert Bosch Gmbh Method for masking an image of an image sequence with a mask, computer program, machine-readable storage medium and electronic control unit
US11074504B2 (en) * 2017-11-15 2021-07-27 Google Llc Instance segmentation
JP7030534B2 (ja) * 2018-01-16 2022-03-07 キヤノン株式会社 画像処理装置および画像処理方法
JP7106282B2 (ja) * 2018-01-30 2022-07-26 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN109214280B (zh) * 2018-07-27 2021-10-01 北京三快在线科技有限公司 基于街景的店铺识别方法、装置、电子设备及存储介质
US11527265B2 (en) 2018-11-02 2022-12-13 BriefCam Ltd. Method and system for automatic object-aware video or audio redaction
CN112887481B (zh) * 2021-01-26 2022-04-01 维沃移动通信有限公司 图像处理方法及装置
WO2022198525A1 (en) * 2021-03-24 2022-09-29 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method of improving stability of bokeh processing and electronic device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105407261A (zh) * 2014-08-15 2016-03-16 索尼公司 图像处理装置、方法以及电子设备
JP2016115214A (ja) * 2014-12-16 2016-06-23 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5834193B2 (ja) 1975-08-27 1983-07-25 昭和工事 (株) ホウフツ素化合物含有廃水の処理方法
US6335985B1 (en) * 1998-01-07 2002-01-01 Kabushiki Kaisha Toshiba Object extraction apparatus
US6434271B1 (en) * 1998-02-06 2002-08-13 Compaq Computer Corporation Technique for locating objects within an image
US7136525B1 (en) * 1999-09-20 2006-11-14 Microsoft Corporation System and method for background maintenance of an image sequence
SE519700C2 (sv) 1999-12-23 2003-04-01 Wespot Ab Bilddatabehandling
US20070177800A1 (en) * 2006-02-02 2007-08-02 International Business Machines Corporation Method and apparatus for maintaining a background image model in a background subtraction system using accumulated motion
JP4499693B2 (ja) * 2006-05-08 2010-07-07 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP5213627B2 (ja) * 2008-10-07 2013-06-19 キヤノン株式会社 画像処理装置及び画像処理方法
US8515124B2 (en) * 2010-02-04 2013-08-20 Electronics And Telecommunications Research Institute Method and apparatus for determining fake image
US8548256B2 (en) * 2010-07-01 2013-10-01 Intellectual Ventures Fund 83 Llc Method for fast scene matching
KR101669820B1 (ko) * 2010-07-02 2016-10-27 삼성전자주식회사 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법
KR101884337B1 (ko) * 2012-04-26 2018-08-01 삼성전자주식회사 영상 인식 방법 및 장치
KR20140039649A (ko) * 2012-09-24 2014-04-02 삼성전자주식회사 다시점 영상 생성 방법 및 다시점 영상 디스플레이 장치
JP6414066B2 (ja) * 2013-08-27 2018-10-31 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
US9659350B2 (en) * 2014-01-31 2017-05-23 Morpho, Inc. Image processing device and image processing method for image correction, and non-transitory computer readable recording medium thereof
US9693023B2 (en) * 2014-02-05 2017-06-27 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system, and monitoring method
JP5834193B2 (ja) 2014-02-05 2015-12-16 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
EP2981063B1 (en) * 2014-07-31 2020-03-04 Samsung Electronics Co., Ltd Method of modifying image including photographing restricted element, and device for performing the method
KR20160064337A (ko) * 2014-11-27 2016-06-08 삼성전자주식회사 컨텐트 제공 방법 및 장치
US10282877B2 (en) * 2016-02-02 2019-05-07 Adobe Inc. Generating content aware image fill with geometrical constraints

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105407261A (zh) * 2014-08-15 2016-03-16 索尼公司 图像处理装置、方法以及电子设备
JP2016115214A (ja) * 2014-12-16 2016-06-23 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YASUTOMO KAWANISHI ET.AL: "Background image generation by preserving lighting condition of outdoor scenes", 《PROCEDIA SOCIAL AND BEHAVIORAL SCIENCES》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112995491A (zh) * 2019-12-13 2021-06-18 阿里巴巴集团控股有限公司 视频生成方法、装置、电子设备及计算机存储介质
CN112995491B (zh) * 2019-12-13 2022-09-16 阿里巴巴集团控股有限公司 视频生成方法、装置、电子设备及计算机存储介质

Also Published As

Publication number Publication date
EP3582186A1 (en) 2019-12-18
US10970896B2 (en) 2021-04-06
EP3319045B1 (en) 2019-07-24
CN108010105B (zh) 2022-03-01
EP3319045A1 (en) 2018-05-09
US20180122117A1 (en) 2018-05-03

Similar Documents

Publication Publication Date Title
CN108010105A (zh) 图像处理设备、图像处理方法和存储介质
JP4648981B2 (ja) 非動作検出方法
KR101964397B1 (ko) 정보처리장치 및 정보처리방법
CN110889312B (zh) 活体检测方法和装置、电子设备、计算机可读存储介质
KR101308368B1 (ko) 홍채 품질 측정을 갖는 홍채 인식 시스템
WO2016084072A1 (en) Anti-spoofing system and methods useful in conjunction therewith
CN109389135A (zh) 一种图像筛选方法及装置
CN103379279B (zh) 被摄体区域检测装置及其方法、图像摄取装置及显示装置
CN110232359B (zh) 滞留物检测方法、装置、设备及计算机存储介质
CN107172354A (zh) 视频处理方法、装置、电子设备及存储介质
CN102231844B (zh) 基于结构相似度和人眼视觉的视频图像融合性能评价方法
CN110069983A (zh) 基于显示媒质的活体识别方法、装置、终端及可读介质
CN108171135A (zh) 人脸检测方法、装置及计算机可读存储介质
KR20090044957A (ko) 도난 및 방치 감시 시스템 및 도난 및 방치 검출 방법
JP7039208B2 (ja) 画像処理装置、画像処理方法及びプログラム
Petrovic Multilevel image fusion
CN109034004A (zh) 一种基于人脸识别的身份核验方法及装置
JP2019164422A (ja) 人物照合装置
CN112258592A (zh) 一种人脸可见光图的生成方法及相关装置
CN105320925B (zh) 图像捕获中的特征检测
Apewokin et al. Embedded real-time surveillance using multimodal mean background modeling
WO2022120532A1 (en) Presentation attack detection
JP2001167273A (ja) 顔面検出方法及びその装置、コンピュータ可読媒体
Ibrahim et al. Background subtraction on gait videos containing illumination variates
JP4831344B2 (ja) 目の位置の検出方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant