CN110832498B - 使图像中的对象的面部特征模糊 - Google Patents
使图像中的对象的面部特征模糊 Download PDFInfo
- Publication number
- CN110832498B CN110832498B CN201880043346.6A CN201880043346A CN110832498B CN 110832498 B CN110832498 B CN 110832498B CN 201880043346 A CN201880043346 A CN 201880043346A CN 110832498 B CN110832498 B CN 110832498B
- Authority
- CN
- China
- Prior art keywords
- image
- facial features
- head
- candidate regions
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 127
- 238000000034 method Methods 0.000 claims abstract description 91
- 238000004590 computer program Methods 0.000 claims description 9
- 210000003128 head Anatomy 0.000 description 70
- 230000015654 memory Effects 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000036541 health Effects 0.000 description 8
- 238000012015 optical character recognition Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 6
- 238000002591 computed tomography Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000002604 ultrasonography Methods 0.000 description 4
- 238000005266 casting Methods 0.000 description 3
- 239000003814 drug Substances 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013503 de-identification Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000002715 modification method Methods 0.000 description 2
- 239000011022 opal Substances 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000002603 single-photon emission computed tomography Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000002610 neuroimaging Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/635—Overlay text, e.g. embedded captions in a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
提供了一种用于使图像中的对象的一个或多个面部特征模糊的计算机实施的方法(200)。在图像中检测对象的头部(202),并且在图像中识别对象的一个或多个面部特征的位置(204)。基于一个或多个面部特征的位置来确定待修改的图像的区域(206)。所确定的区域包括一个或多个面部特征所位于的头部的部分。在所确定的区域内修改所述图像以使一个或多个面部特征模糊(208)。
Description
技术领域
本公开涉及图像处理的领域,并且具体涉及用于使图像中的对象的面部特征模糊的方法和装置。
背景技术
跨研究社群对医学成像数据的共享对于跨学科研究和确保科学有效性至关重要。尽管鼓励对数据的共享,但是其并不广泛,因为存在与分发医学数据相关联的潜在隐私侵犯行为。诸如“健康保险可移植性和责任法案隐私(HIPAA)的法规针对取消从待共享的医学数据中识别受保护的健康信息(PHI)指定了严格的准则,并且指定了待保护的隐私健康信息的组成。然而,没有公认的方法来对临床数据对象(诸如图像)取消识别。因此,许多机构在数据共享方面采取保守的规避风险的立场。
医学数字成像和通信(DICOM)标准已经被普遍用于存储、查看和传输医学成像中的信息。在根据DICOM标准对图像进行编码的成像试验中,数据对象的复杂性和DICOM标准的灵活性使得满足隐私保护目标尤其困难。DICOM文件包含两个主要部分:具有多种数据元素(即,数据字段)的文件头(header),以及保持所有像素数据的可查看图像。能够使用多种标准来压缩像素数据,包括JPEG、无损JPEG、JPEG 2000和行程编码(RLE)。图像可能包含嵌入式(烙印)文本,诸如医学注释或患者信息。图像还可能包含二级捕获、屏幕快照(例如,分析结果屏幕)或扫描文档(请求或报告),其可能会泄露关于患者的个人信息。另外,可以通过将DICOM体积中的图像重建为三维图像(例如,对象面部的三维图像)来推断患者。
文件头标签取消识别的领域是一个非常成熟的领域,并且许多第三方工具为DICOM标签的匿名化提供了支持。然而,这些工具中的大多数工具都没有能力来取消识别嵌入在DICOM图像中的PHI文本信息,诸如嵌入文本(例如,作为像素数据的部分的文本,诸如形成装置的显示器的屏幕快照的部分的文本)以及能用于识别对象的面部特征。存在从表面或体积绘制的计算机断层摄影(CT)和磁共振(MR)图像执行面部识别并且能够实现中等成功的技术。因此,为了保护对象的身份,需要对DICOM图像中的面部特征进行模糊,然后才能够将其分发进行研究或其他目的。
US 2006/0124949公开了一种损伤外观算法,其中,阈值处理和距空气的距离以及距患者身体的已知参考点的距离的组合被用于识别表示皮肤组织的体素,并且通过对局部组的体素的强度求平均并且应用于相同区域,或者通过使用一系列连接的直线来表示皮肤组织而不是形成表示皮肤组织的平滑轮廓,来完成损伤外观。然而,尽管能够通过采用这种损伤外观算法来保护患者可识别信息,但是该算法仅仅保留除了皮肤之外的组织中的临床数据,因此不能够对包括皮肤的图像的任何部分进行临床分析。
因此,需要一种用于使图像中的对象的面部特征以及嵌入文本模糊的经改进的方法和装置。
发明内容
如上所述,在能够对图像进行共享以用于研究、归档或其他目的之前,需要移除医学图像中受保护的健康信息(PHI),诸如面部特征和/或嵌入文本。尽管当前的方案有效地从DICOM文件头中移除了患者可识别信息,但是使面部特征和/或嵌入文本模糊的有效方法却不太先进。具体地,不能够在没有丢失对用于执行对图像的可靠分析可能有用或者甚至重要的信息的风险的情况下保护患者可识别信息。因此,期望提供一种克服了现有问题的用于使图像中的对象的面部特征模糊的经改进的装置。
因此,根据第一方面,提供了一种用于使图像中的对象的一个或多个面部特征模糊的计算机实施的方法。所述方法包括:检测所述图像中的对象的头部;识别所述图像中的对象的一个或多个面部特征的位置;并且基于所述一个或多个面部特征的位置来确定待修改的图像的区域。所确定的区域包括所述一个或多个面部特征所位于的头部的部分。所述方法还包括:在所确定的区域内修改所述图像以使一个或多个面部特征模糊。
在一些实施例中,识别可以包括:检测所述图像中的对象的头部的皮肤表面;并且识别一个或多个面部特征在在图像中所述对象的头部的检测到的皮肤表面上的位置。在一些实施例中,检测所述图像中的对象的头部的皮肤表面可以包括:确定针对图像中的对象的头部的凸包;针对所述凸包的表面上的一个或多个点,追踪向内朝向图像中的对象的头部的中心的路径;并且检测对象的头部的皮肤表面,在所述皮肤表面中,检测到图像中的具有大于针对所述图像的背景水平的值的分量。
在一些实施例中,识别两个或更多个面部特征的位置并且基于至少两个面部特征的位置之间的距离乘以预定义比率的值来确定待修改的图像的区域。在一些实施例中,所述预定义比率可以定义在至少两个面部特征的位置之间的距离与在至少两个面部特征的位置和至少一个或多个其他特征的位置之间的距离的关系。
在一些实施例中,所述方法还可以包括:基于图像中的对象的头部的倾斜来调节待修改的图像的区域。
在一些实施例中,所述图像是通过从处在图像的所确定的区域内的头部的部分向外延伸多个突起以使一个或多个面部特征模糊来修改的。在一些实施例中,所述图像是通过将一个或多个向外延伸的突起设置为不同的灰度值来进一步修改的。
在一些实施例中,所述方法还可以包括:针对与对象的个人信息有关的文本在图像中识别一个或多个候选区域;确定在图像的一个或多个识别的候选区域中的图像的至少一个特征;基于在图像的一个或多个识别的候选区域中的图像的至少一个确定的特征来从候选区域中选择包括与对象的个人信息有关的文本的区域;并且在所选择的区域内修改图像以使与对象的个人信息有关的文本模糊。
在一些实施例中,所述至少一个特征可以包括以下中的任意一项或多项:针对图像的一个或多个识别的候选区域中的分量集合的凸包;在包括文本的一个或多个识别的候选区域中的分量的数量与整幅图像中的分量的数量的比率;在一个或多个识别的候选区域中图像的几何偏心率;在一个或多个识别的候选区域中图像中的分量的坚固性(solidity);以及在一个或多个识别的候选区域中图像的强度。
在一些实施例中,识别一个或多个候选区域可以包括:检测所述图像中的包括具有相同值的连接分量的一个或多个区域;并且将具有大于预定义尺寸的尺寸的区域识别为背景区域,并且将其余区域识别为针对与对象的个人信息有关的文本的候选区域。
在一些实施例中,选择可以包括:将至少一个确定的特征与指示包括与个人信息有关的文本的区域的一个或多个存储的特征进行比较;并且基于所述比较来从候选区域中选择包括与对象的个人信息有关的文本的区域。
在一些实施例中,所述方法可以包括:在所选择的区域内执行文本识别以识别与对象的个人信息有关的文本在所选择的区域内的位置。在该实施例中,修改所述图像可以包括:在所选择的区域内在所识别的位置处修改所述图像以使与对象的个人信息有关的文本模糊。
根据第二方面,提供了一种包括计算机可读介质的计算机程序产品,所述计算机可读介质具有嵌入在其中的计算机可读代码,所述计算机可读代码被配置为使得在由合适的计算机或处理器运行时使所述计算机或处理器执行如上文所描述的方法。
根据第三方面,提供了一种包括处理器的装置。所述处理器被配置为执行如上文所描述的方法。
根据上文所描述的各方面和实施例,解决了现有技术的局限性。具体地,根据上文所描述的各方面和实施例,在基于一个或多个面部特征的位置而设置的区域内修改图像,其中,所述区域包括一个或多个面部特征所位于的头部的部分。以这种方式,保护了对象的身份,同时对象的其他部分(例如,包括对象的头部的未模糊部分或头部的内部)保持可见,并且因此能够用于研究、归档、临床分析或其他目的。
因此,提供了一种用于克服现有问题的用于使图像中的对象的面部特征模糊的经改进的方法和装置。
附图说明
为了更好地理解本发明,并且为了更清楚地示出本发明可以如何实施,现在仅通过范例的方式来参考附图,在附图中:
图1是根据实施例的用于使图像中的对象的面部特征模糊的装置的框图;
图2图示了根据实施例的用于使图像中的对象的一个或多个面部特征模糊的方法;
图3图示了根据实施例的经修改的图像;
图4图示了根据示例性实施例的用于使图像中的对象的一个或多个面部特征模糊的方法;
图5图示了根据另一实施例的用于使图像中的对象的一个或多个面部特征模糊的方法;
图6图示了根据另一实施例而修改的图像;
图7图示了根据示例性实施例的用于使图像中的对象的一个或多个面部特征以及与对象的个人信息有关的文本模糊的方法;并且
图8是根据示例性实施例的用于使图像中的对象的面部特征模糊的装置的框图。
具体实施方式
如上所述,提供了一种用于使图像中的对象的面部特征模糊的经改进的方法和装置,其克服了现有问题。
图1示出了根据实施例的能够用于使图像中的对象的一个或多个面部特征模糊的装置100的框图。在本文所公开的任意实施例中,图像能够是二维图像、三维图像或者任何其他维度图像。图像包括多个(或一组)分量。在图像是二维图像的实施例中,分量是像素。在图像是三维图像的实施例中,分量是体素。
图像例如能够是医学图像。医学图像的示例包括但不限于:计算机断层摄影(CT)图像(例如,来自CT扫描)、单光子发射计算机断层摄影(SPECT)图像(例如,来自SPECT扫描)、正电子发射断层摄影(PET)图像(例如,来自PET扫描)、磁共振(MR)图像(例如,来自磁共振成像MRI扫描)、超声(US)图像(例如,来自超声扫描),或者可能存在对象的面部特征的任何其他图像。在一些实施例中,图像可以是医学数字成像和通信(DICOM)格式、柔性图像传输系统(FITS)数据格式、神经影像信息技术倡议(NIfTI)数据格式或者任何其他格式。尽管已经针对图像类型提供了示例,但是本领域技术人员将意识到,在本文中所提供的教导可以等同地应用于其中可能存在对象的面部特征的任何其他类型的图像。
参考图1,装置100包括处理器102,处理器102控制装置100的操作并且能够实施在本文中所描述的方法。处理器102能够包括一个或多个处理器、处理单元、多核处理器或模块,其被配置或编程为以在本文中所描述的方式来控制装置100。在具体实现方式中,处理器102能够包括多个软件和/或硬件模块,其各自被配置为执行或者用于执行在本文中所描述的方法的个体步骤或多个步骤。
简言之,装置100的处理器102被配置为检测所述图像中的对象的头部并且在图像中识别对象的一个或多个面部特征的位置。处理器102还被配置为基于一个或多个面部特征的位置来确定待修改的图像的区域。所确定的区域包括一个或多个面部特征所位于的头部的部分。处理器102还被配置为在所确定的区域内修改所述图像以使一个或多个面部特征模糊。
这具有使面部特征模糊的技术效果,使得不能够例如通过使用面部识别技术从图像中确认对象的身份,而对象的其他部分(或者具体是对象的头部的未模糊部分)保持可见。以这种方式,图像被匿名化,使得其能够被分发以用于研究、存档、临床分析或其他目的,而无需使个体的身份可用但是其他信息仍保持可用。
在一些实施例中,如在图1中所图示的,装置100还可以包括至少一个用户界面104。备选地或另外地,至少一个用户界面104可以在装置100的外部(即,与装置100分离或远离)。例如,至少一个用户界面104可以是另一设备的部分。用户界面104可以用于向装置100的用户(例如,医学护理提供者、医学护理专家、护理人员、对象或任何其他用户)提供从根据本文的实施例的方法得到的信息。处理器102可以被配置为控制一个或多个用户界面104以提供从根据本文的实施例的方法得到的信息。例如,处理器102可以被配置为控制一个或多个用户界面104以绘制(或输出或显示)具有一个或多个经模糊的面部特征的经修改的图像。备选地或另外地,用户界面104可以被配置为接收用户输入。换言之,用户界面104可以允许装置100的用户手动地输入指令、数据或信息。处理器102可以被配置为从一个或多个用户界面104获取用户输入。
用户界面104可以是使得能够向装置100的用户绘制(或输出或显示)信息、数据或信号的任意用户界面。备选地或另外地,用户界面104可以是使得装置100的用户能够提供用户输入、与装置100交互和/或控制装置100的任意用户界面。例如,用户界面104可以包括一个或多个开关、一个或多个按钮、小键盘、键盘、触摸屏或应用(例如,在平板计算机或智能手机上)、显示屏、图形用户界面(GUI)或其他视觉绘制部件、一个或多个扬声器、一个或多个麦克风或任意其他音频部件、一个或多个灯、提供触觉反馈(例如,振动功能)的部件,或者任何其他用户界面或者用户界面的组合。
在一些实施例中,如在图1中所图示的,装置100还可以包括存储器106,存储器106被配置为存储能够由处理器102运行以执行在本文中所描述的方法的程序代码。备选地或另外地,一个或多个存储器106可以在装置100的外部(即,与装置100分离或远离)。例如,一个或多个存储器106可以是另一设备的部分。存储器106能够用于存储由装置100的处理器102获取或进行或者从装置100外部的任意接口、存储器或设备获取或进行的图像、信息、数据、信号和测量结果。例如,存储器106可以用于存储具有一个或多个经模糊的面部特征的经修改的图像。处理器102可以被配置为控制存储器106以存储具有一个或多个经模糊的面部特征的经修改的图像。
在一些实施例中,如在图1中所图示的,装置100还可以包括通信接口(或电路)108,通信接口108用于使得装置100能够与装置100内部或外部的任何接口、存储器和设备进行通信。通信接口108可以无线地或者经由有线连接与任何接口、存储器和设备进行通信。例如,在一个或多个用户界面104在装置100外部的实施例中,通信接口108可以无线地或者经由有线连接与一个或多个外部用户界面104进行通信。类似地,在一个或多个存储器106在装置100外部的实施例中,通信接口108可以无线地或者经由有线连接与一个或多个外部存储器106进行通信。
将意识到,图1仅仅示出了例示说明本公开的该方面所需的部件,并且在实际的实现方式中,装置100可以包括所示部件的额外部件。例如,装置100可以包括用于对装置100供电的电池或其他电源,或者包括用于将装置100连接至市电电源的单元。
图2图示了根据实施例的用于使图像中的对象的一个或多个面部特征模糊的计算机实施的方法200。所图示的方法200通常能够由装置100的处理器102执行或者在其控制下执行。如先前提到的,图像可以是包括多个像素(或像素数据)的二维图像、包括多个体素(或体素数据)的三维图像、或者任何其他类型的图像和任何格式的图像。
简言之,参考图2,所述方法包括:检测所述图像中的对象的头部(在图2的框202处);在图像中识别对象的一个或多个面部特征的位置(在图2的框204处);并且基于一个或多个面部特征的位置来确定待修改的图像的区域(在图2的框206处)。所确定的区域包括一个或多个面部特征所位于的头部的部分。所述方法还包括在所确定的区域内修改所述图像以使一个或多个面部特征模糊(在图2的框208处)。
更详细地,在图2的框202处,检测所述图像中的对象的头部(以及任选地,颈部)。本领域技术人员将意识到能够通过其检测所述图像中的对象的头部的各种技术。然而,作为示例,可以使用基于图集的配准技术。通常,基于图集的技术使用手动标记的图像(例如,包括头部的图像,其中,头部由专业人员进行了标记)的训练集来训练学习算法,以在包含头部的先前看不见的图像中识别头部。尽管已经提供了针对头部检测方法的示例,但是应当理解,可以使用适于在图像中检测头部的任何其他方法,并且本领域技术人员将了解这样的方法。
在图2的框204处,在图像中识别对象的一个或多个面部特征(或面部界标)的位置。在一些实施例中,可以在图像中识别对象的两个或更多个面部特征的位置。面部特征(或面部界标)可以包括以下中的任意一个或多个(即,任何单个或任何组合):眼睛、一对眼睛、鼻子、嘴巴、耳朵、一对耳朵或任何其他面部特征或面部特征的组合。
在一些实施例中,识别对象的一个或多个面部特征可以包括:在图像中检测对象的头部的皮肤表面,并且然后在图像中识别对象的头部的所检测到的皮肤表面上的一个或多个面部特征的位置。在一些实施例中,可以通过确定(或计算或形成)针对图像中的对象的头部的凸包(convex hull)在图像中检测对象的头部的皮肤表面。凸包也可以被称为凸包络。凸包的数学概念对于本领域技术人员将是熟悉的,并且本领域技术人员将意识到能够使用各种算法来确定(或计算或形成)针对几何对象的凸包,在这种情况下其是图像中的对象的头部。
然而,简略地,针对点的集合的凸包是能够定义的最小多边形,使得针对集合中的任意两个点,能够在这两个点之间绘制完全位于多边形内的线。尽管已经提供了用于确定针对图像中的对象的头部的凸包的示例,但是应当理解,能够使用适合于确定针对图像中的对象的头部的凸包的任何其他方法,并且本领域技术人员将了解这样的方法。
在一些实施例中,可以通过假设图像的分量(亦即,二维图像的像素或三维图像的体素)的值高于与图像中的对象的头部相对应的预定义阈值并且图像的分量的值低于与图像中的背景相对应的预定义阈值来确定(或计算或形成)针对图像中的对象的头部的凸包。因此,可以将针对图像中的对象的头部的凸包确定(或计算或形成)为值高于预定义阈值的分量的凸包。所述预定义阈值也可以被称为最小阈值。
将理解的是,针对预定义阈值的适当值将取决于图像的类型和图像中的分量(例如,像素或体素)值的范围。在一些实施例中,可以通过试错法来设置针对所述预定义阈值的适当值。在一些实施例中,可以执行校准步骤以设置所述预定义阈值。例如,用户可以手动地突出或选择表示背景区域的图像的区域(在二维图像实施例中)或图像的体积(在三维图像实施例中)。然后,可以使用被突出或选择为表示图像中的背景的分量的值来设置针对所述预定义阈值的适当水平。在一些实施例中,可以自动地检测图像中的背景。例如,可以假设图像的特定部分(诸如一个或多个边缘部分)表示图像中的背景。
如上文所描述的,可以确定(或计算或形成)针对所述对象的头部的凸包。图像中针对所述对象的头部的凸包可以是多边形。多边形可以覆盖(并且例如围绕或完全包围)对象的头部。在一些实施例中,然后可以通过从凸包的表面(或周界)上的一个或多个点向内朝向头部中心的射线透射在图像中检测对象的头部的皮肤表面,直到检测到皮肤表面。换言之,对于凸包上的一个或多个点,追踪向内朝向头部的中心(或投射或投影)的射线(或路径)。可以通过确定凸包的质心来识别头部的中心。
然后,在图像中检测到包括皮肤的分量(即,皮肤分量)的情况下,在图像中检测对象的头部的皮肤表面。例如,对于凸包上的一个或多个点,追踪向内朝向头部的中心(诸如朝向凸包的质心)的射线(或路径)。然后,在二维图像中检测到包含皮肤的像素(即,皮肤像素)的情况下,或者在三维图像中检测到包含皮肤的体素(即,皮肤体素)的情况下,在图像中检测对象的头部的皮肤表面。皮肤分量(例如,皮肤像素或皮肤体素)是其值大于图像的背景水平的那些分量。通过以在本文中所描述的方式从凸包的表面进行射线投射,能够确定皮肤的表面(例如,围绕头部的整个圆周)。射线投射的概念将对于本领域技术人员而言是熟悉的,并且本领域技术人员将了解能够使用各种算法来从凸包的表面朝向头部的中心进行射线投射。
因此,以上文所描述的方式,能够在图像中检测对象的头部的皮肤表面。如先前提到的,然后可以在图像中识别一个或多个面部特征在对象的头部的检测到的皮肤表面上的位置。在一些实施例中,可以使用界标检测来识别一个或多个面部特征在对象的头部的检测到的皮肤表面上的位置。在示例中,基于界标检测来识别左眼位置和右眼位置。将理解的是,能够使用适合于在图像中识别一个或多个面部特征的位置的任何方法,并且本领域技术人员将了解能够在图像中识别一个或多个面部特征的位置的各种技术。
通常,一旦在框204处确定了面部特征的位置,就能够使用特征的位置和类型来确定头部的取向。例如,如果在框204处确定了鼻子的位置,则能够使用鼻子的位置来确定皮肤表面(或凸包)的哪一部分对应于头部的前部。类似地,如果在框204处确定了眼睛的位置,则能够使用眼睛的位置来确定皮肤表面(或凸包)的哪一侧对应于对象的面部。因此,在一些实施例中,还可以基于识别出的面部特征的位置和类型来确定头部的取向。
在图2的框206处,基于一个或多个面部特征的位置来确定待修改的图像的区域。换言之,基于一个或多个面部特征的位置来设置(或定义)掩膜边界。所确定的待修改的图像的区域包括一个或多个面部特征所位于的头部的部分。在一些实施例中,所确定的待被修改的区域包括包围面部中包含可识别面部特征的部分的区域(诸如体积或表面)。在一些实施例中,例如,所确定的待修改的区域可以涵盖以下中的一个或多个(即,一个或者其任意组合):眼睛、一对眼睛、耳朵、一对耳朵、鼻子、嘴巴或任何其他面部特征或面部特征的组合。在一些实施例中,所确定的待修改的区域可以例如包括包围眼睛、鼻子和嘴巴的区域。
在一些实施例中,一个或多个特征的确定的位置能够与特定比例的对象面部相组合,以便确定待修改的图像的区域,所述区域可以是完全覆盖所有可识别面部特征的区域。例如,在其中在图像中识别出对象的两个或更多个面部特征的位置的实施例中,可以基于至少两个面部特征的位置之间的距离乘以预定义比率的值来设置待修改的区域。所述预定义比率可以被称为黄金比率。所述黄金比率可以例如具有1.6的值(或者更具体地,1.618)。预定义(或黄金)比率定义了在至少两个面部特征的位置之间的距离与在该至少两个面部特征和一个或多个其他特征之间的距离的关系。因此,在一些实施例中,可以在图2的框206处确定在至少两个面部特征的位置之间的距离。在至少两个面部特征的位置之间的距离提供了对图像中的对象的头部的尺寸(或比例)的指示。
由于在至少两个面部特征的位置之间的距离和预定义比率能够用于确定在至少两个面部特征的位置和一个或多个其他特征的位置之间的距离,因此能够根据在至少两个面部特征的位置之间的距离和预定义比率来确定待修改的图像的适当大小的区域。例如,在一些实施例中,可以在框206处确定对象的眼睛的位置之间的距离。然后,由于预定义比率定义了眼睛之间的距离与眼睛和鼻子之间的距离的关系,因此能够基于眼睛的位置之间的距离和预定义比率来确定待修改的区域。以这种方式,能够确定待修改区域包含鼻子和眼睛两者,而不必确定鼻子的位置。
因此,预定义(或黄金)比率定义了面部的不同特征的相对比例。例如,在一些实施例中,女性对象的眼睛与嘴巴之间的距离可以被假定为女性对象的面部长度的大约36%。类似地,女性对象的眼睛之间的距离可以被假定为女性对象的面部宽度的大约46%。因此,通过确定至少两个面部特征之间的距离,能够使用预定义(或黄金)比率来确定待修改的图像的区域。
在一些实施例中,在图2的框206处确定待修改的图像的区域还能够包括基于对象面部的倾斜来调节待修改的区域。在一些实施例中,通过假设面部在预定义最大倾斜与预定义最小倾斜之间倾斜来调节待修改的区域。例如,在一些实施例中,假设面部相对于竖直方向倾斜+/-10度。因此,所述方法可以包括使图像的体积模糊,所述体积对应于在最大倾斜与最小倾斜之间包含面部表面的所有可能位置的体积。例如,在一些实施例中,能够从眼睛的位置和分离、预定义(或黄金)比率和假定的倾斜范围来提取体积。通过以这种方式调节待修改的图像的区域以考虑对象面部的可能倾斜,确保了在图像中使下唇和下巴模糊。将理解,在此所指示的对象面部倾斜的范围仅仅是示例性的,并且可以假设任何其他合适的倾斜范围。
因此,以上文所描述的方式,在图2的框206处确定待修改的图像的区域。然后,在图2的框208处,在所确定的区域内修改图像以使一个或多个面部特征模糊。因此,在设置的修改边界内修改图像。以这种方式,图像中的对象的可识别特征被模糊,从而使图像匿名化并且保护对象的隐私,而图像的其他部分则保持不模糊。参考图2所描述的方法因此能够被实施为取消识别或掩盖面部信息。
在一些实施例中,可以通过从处在所确定的区域内的对象的头部的部分向外延伸(或生长)多个突起(例如,射线或钟乳石结构)来修改图像,以便使一个或多个面部特征模糊。例如,多个突起可以从面部表面分量延伸(或生长),该面部表面分量是二维图像中的像素或三维图像中的体素。在一些实施例中,可以通过修改在所确定的区域内具有随机噪声值的对象的头部的部分上的图像中的分量(即,二维图像中的像素或三维图像中的体素)来延伸(或生长)突起。这形成了含噪声的面部层,所述面部层用作掩膜,以取消识别或掩盖图像中的面部信息。通过向外延伸多个突起,对象的头部上的可识别面部特征(或者可以识别对象的那些特征)被模糊,而不使对象的头部上的不可识别特征(或者不能识别对象的那些特征)被模糊。这确保了保留最大量的数据,同时还确保了使对象面部表面上的可识别特征完全模糊。
根据一些实施例,能够通过将一个或多个向外延伸的突起设置为不同的灰度值来进一步修改图像。以这种方式,从图像上去除了潜在肤色或着色的任何指示。
图3图示了根据实施例的以上文所描述的方式修改的图像300的示例。如在图3中所示的,图像300包括可以用于识别人的面部特征。因此,根据在本文中所描述的方法,通过从处在所确定的区域内的对象的头部的部分向外延伸多个突起302以便使一个或多个面部特征模糊来修改图像。以这种方式,面部特征被模糊,并且所得到的图像能够被分发以用于研究、存档或其他目的,而不能从图像300中导出对象的身份。
图4图示了根据示例实施例的用于使图像中的对象的一个或多个面部特征模糊的计算机实施的方法400。所图示的方法400通常能够由装置100的处理器102执行或者在其控制下执行。
在图4的框402处,图像被加载到装置100中。在图像为DICOM格式的实施例中,能够使用DICOM读取器来加载图像。本领域技术人员将了解合适的DICOM读取器。
在图4的框404处,分析图像以在图像中检测对象的头部(在该示例实施例中,还包括颈部)。换言之,执行相对于图2的框202的先前所描述的方法,在此将不重复所述方法,但是将理解,能够以先前所描述的方式来检测对象的头部(和颈部)。如果在图像中未检测到对象的头部和颈部,则所述方法结束。另一方面,如果在图像中检测到对象的头部和颈部,则所述方法移至图4的框406。在图4的框406处,构造针对检测到的头部的凸包。如上文关于图2详细描述的,利用预定义(或最小)阈值来计算凸包,以确定皮肤过渡的背景。例如,如果分量(亦即,二维图像实施例中的像素或三维图像实施例中的体素)的值低于预定义阈值,则将所述分量确定为背景分量;并且如果所述分量的值高于预定义阈值,则将所述分量确定为头部或颈部的部分。因此,凸包被构造为包括具有高于预定义阈值的值的分量的位置。
在图4的框406处构造凸包之后,如先前参考图2所描述的,在框408处确定凸包的质心。在图2的框410处,在图像中识别对象的一个或多个面部特征的位置。换言之,执行了先前关于图2的框204所描述的方法,在此将不再重复所述方法,但是将理解,能够以先前描述的方式在图像中识别对象的一个或多个面部特征的位置。在图4的示例性实施例中,针对其识别位置的一个或多个特征是对象的眼睛。因此,在图4的框410处,在图像中识别对象的眼睛的位置。
在框412处,识别眼睛之间的距离(即,左眼与右眼之间的距离),并且在框414处,基于眼睛的识别的位置来确定待修改的图像的区域。换言之,执行先前关于图2的框206所描述的方法,在此将不重复所述方法,但是将理解,可以以前述方式基于一个或多个面部特征的位置(在该示例性实施例中为眼睛的位置)来确定待修改的图像的区域。更具体而言,在图4的示例性实施例中,基于眼睛的识别的位置之间的距离乘以预定义比率(亦即,黄金比率)的值来设置待修改的区域。因此,实际上,所述黄金比率被用作乘数。
如先前所描述的,在图4的框416处,假设对象的面部的倾斜(或面部倾斜)。然后,调节待修改图像的所确定的区域,以便考虑(或补偿)面部倾斜。例如,在一些实施例中,基于眼睛之间的距离并且通过假设面部从眼睛的中心沿着垂直方向延伸与眼睛的分离成比例的长度,来确定待修改的图像的所确定的区域。然而,如果面部倾斜,则不能够再假设该面部垂直地延伸,而必须考虑该面部的斜率。在框416处,使用适当的三角关系对此进行补偿。
在图4的框418处,通过从凸包的周界到质心的射线投射来确定皮肤的表面,如先前参考图2所描述的。一旦确定了皮肤的适当区域以进行修改,则在所确定的区域内修改所述图像以使一个或多个面部特征模糊。换言之,执行先前关于图2的框208所描述的方法,在此将不重复所述方法,但是将理解,能够以先前所描述的方式在所确定的区域内修改所述图像。具体地,在图4的示例性实施例中,通过从在所确定的区域内的对象的头部的部分向外延伸多个突起(或者更具体地,钟乳石结构)来修改图像,以便使一个或多个面部特征模糊。
同样地,根据图4的示例性实施例,在框422处进一步修改图像以使皮肤表面进一步模糊。更具体而言,修改与向外延伸的突起(或钟乳石结构)相对应的分量(亦即,二维图像实施例中的像素或三维图像实施例中的体素)以使皮肤表面进一步模糊。对向外延伸的突起的修改可以例如包括将一个或多个向外延伸的突起设置为不同的灰度值灰度或者使向外延伸的突起中的一个或多个向外延伸的突起的肤色值随机化。
在图4的框424处,存储经修改的图像。例如,在该示例性实施例中,使用DICOM编写器将经修改的图像作为经更新的DICOM图像保存到文件中。DICOM编写器将是本领域技术人员熟悉的。
以这种方式,如在图3所示地修改图像,以使图像中的对象的可识别面部特征模糊,并且能够将所得到的图像分发用于研究、存档或其他目的,而不能从图像中导出对象的身份。
图5图示了根据另一实施例的用于使图像中的对象的一个或多个面部特征模糊的计算机实施的方法500。所图示的方法500通常能够由装置100的处理器102执行或者在其控制下执行。
参考图5,在框502、504、506和508处,分别执行根据框202、204、206和208的方法,在此将不重复所述方法,但是将理解应用关于图2的描述。除了如先前参考附图描述的使面部特征模糊之外,在图5中所图示的方法还使嵌入在图像中的文本模糊。
简要而言,参考图5,能够通过针对与对象的个人信息有关的文本在图像中识别一个或多个候选区域(在图5的框510处),在图像的一个或多个识别的候选区域中确定图像的至少一个特征(在图5的框512处),基于在图像的一个或多个识别的候选区域中的图像的至少一个确定的特征来从候选区域中选择包括与对象的个人信息有关的文本的区域(在图5的框514处),并且在所选择的区域内修改图像以使与对象的个人信息有关的文本模糊(在图5的框516处),来使嵌入文本模糊。在本文所公开的任意实施例中,与对象的个人信息有关的文本能够例如包括受保护的健康信息(PHI)。
更具体而言,在图5的框510处,针对与对象的个人信息有关的文本在图像中识别一个或多个候选区域。所述一个或多个候选区域可以例如是图像中更可能找到文本的区域。例如,所述一个或多个候选区域可以包括围绕图像的边缘的一个或多个区域(即,图像的一个或多个边缘区域)。
在一些实施例中,可以使用连接分量分析来针对与对象的个人信息有关的文本在图像中识别一个或多个候选区域。例如,可以在图像中检测包括具有相同值的连接分量的一个或多个区域,并且可以将具有大于预定义尺寸的尺寸的那些区域识别为背景区域,而不是文本区域,而其余区域可以被识别为针对与对象的个人信息有关的文本的候选区域。应当理解,连接分量是图像中具有相同值的彼此连接的那些分量。因此,例如,在二维图像中的连接分量是具有相同值的像素簇,其沿着任意面或角相互连接,而在三维图像中的连接分量是具有相同值的体素簇,其沿着任何面、边或角相互连接。
在一些实施例中,连接分量分析可以包括根据图像中分量(亦即,二维图像中的像素或三维图像中的体素)的强度值来对分量进行分组。这能够基于这样的假设,即:具有相同或相似强度值的连接分量将与同一对象(或者在这种情况下,相同的字母或文本的部分)相关。因此,在一些实施例中,具有相同或相似强度值的一组或多组连接分量可以被识别为针对与对象的个人信息有关的文本的图像的一个或多个候选区域。在一些实施例中,可以将具有在强度值的预定范围内(例如,在第一预定强度值与第二预定强度值之间)的强度值的一组或多组连接分量识别为针对与对象的个人信息有关的文本的图像的一个或多个候选区域。将理解的是,可以基于针对包含文本的连接分量所期望的强度值和/或基于与不包含文本(或包括背景或其他图像数据)的连接分量的强度值相比包含文本的连接分量的相对强度值来设置强度值的范围(或者第一预定强度值和第二预定强度值)。
以这种方式,能够针对与对象的个人信息有关的文本而识别出图像的一个或多个候选区域。尽管已经提供了用于连接分量分析的示例,但是本领域技术人员将意识到能够使用各种其他连接分量分析技术来识别一个或多个候选区域。
然后,在图5的框512处,在图像的一个或多个识别的候选区域中确定图像的至少一个特征。在一些实施例中,至少一个特征可以涉及与一个户或多个候选区域中的分量(亦即,二维图像实施例中的像素或三维图像实施例中的体素)相关联的一个或多个(例如,几何)属性。在一些实施例中,至少一个特征可以涉及能够用于区分文本的不同分量(诸如字母、字符、数字或文本的任何其他分量,或文本的分量的任何组合)的一个或多个(例如,几何)属性。因此,在图5的框512处,能够从图像的一个或多个识别出的候选区域中提取分量信息(诸如表面像素或表面体素)信息。
至少一个特征的示例包括但不限于以下中的任意一项或其组合:图像的一个或多个识别的候选区域中分量集合的多于一个凸包(即,凸包的任意一个或任意组合),在包括文本的一个或多个识别的候选区域中的分量的数量与整幅图像中的分量的数量的比率(或者包括文本的分量的范围),在一个或多个识别的候选区域中图像的几何偏心率(例如,在一个或多个候选区域中的图像的椭圆的焦点之间的距离与一个或多个候选区域中的图像的主轴长度的比率),在一个或多个识别的候选区域中的图像中的分量的坚固性(例如,坚固性是指定凸包中的分量也在一个或多个候选区域中的比例的标量值),以及在一个或多个识别的候选区域中的图像的强度。将理解的是,可以以先前相对于图2的框204所描述的方式来确定凸包,或者可以使用任何其他合适的技术来确定凸包。
返回到图5,在框514处,基于图像的一个或多个识别的候选区域中图像的至少一个确定的特征,来从一个或多个识别的候选区域中选择包括与对象的个人信息有关的文本的区域。在一些实施例中,对区域的选择能够包括:将至少一个确定的特征与指示包括与个人信息有关的文本的区域的一个或多个存储的特征进行比较,并且基于所述比较从一个或多个识别的候选区域中选择包括与对象的个人信息有关的文本的区域。在一些实施例中,将至少一个确定的特征与指示包括文本的区域的一个或多个存储的特征进行比较能够包括:基于针对每个候选区域导出的图像至少一个特征,使用机器学习来预测哪些候选区域包含与对象的个人信息有关的文本。在使用机器学习的实施例中,能够使用训练数据集合来执行机器学习,所述训练数据集合包括指示与个人信息有关的文本的存在的存储特征。
在其中在图像的一个或多个识别的候选区域中确定图像的连接分量的至少一个特征的实施例中,可以基于在图像的一个或多个识别的候选区域中图像的连接分量的至少一个确定的特征,来从候选区域中选择包括与对象的个人信息有关的文本的区域。
因此,以上文所描述的方式,从一个或多个识别的候选区域中选择包括与对象的个人信息有关的文本的区域。然后,在图5的框516处,在所选择的区域内修改图像以使与对象的个人信息有关的文本模糊。在一些实施例中,可以通过应用不透明的掩膜或者使所选择的区域内的图像变黑而使与对象的个人信息有关的文本模糊来修改图像。例如,可以通过将所选择的区域中的分量的强度设置为单个值来使与对象的个人信息有关的文本模糊。
在本文中所描述的涉及使与对象的个人信息有关的文本模糊的任意实施例中,尽管未图示,但是所述方法还可以包括:在所选择的区域内执行文本识别,以在所选择的区域内识别与对象的个人信息有关的文本的(更精确的)位置。更具体而言,光学字符识别(OCR)库可以被用于识别与和个人信息有关的文本相匹配的文本字符,以在所选择的区域内定位与对象的个人信息有关的文本。在这些实施例中,可以通过在所识别的位置处的所选择的区域内修改图像以使与对象的个人信息有关的文本模糊来修改图像。
图6图示了原始图像600(左侧)和以上文参照图5所描述的方式修改的相同图像600(右侧)的示例。如在图6中所图示,图像600在所选择的区域内被修改,以使与对象的个人信息有关的文本模糊。以这种方式,在图像中能够使可识别的面部特征和嵌入的文本两者模糊。
图7图示了根据示例性实施例的用于使图像中的对象的一个或多个面部特征以及与对象的个人信息有关的文本模糊的计算机实施的方法700。所图示的方法700通常能够由装置100的处理器102来执行或者在其控制下执行。
在图7的框702处,从图像获取分量数据,或者在该示例性实施例中,从图像获取像素数据。然后,在图7的框704至框714处,可以在图像的水平、垂直和倾斜边缘上执行一系列形态学操作,以去除属于图像中的背景的大分量。
在图7的框716处,对图像执行连接分量分析,以针对与对象的个人信息有关的文本在图像中识别一个或多个候选区域。换言之,执行了先前关于图5的框510所描述的方法,在此将不重复所述方法,但是将理解的是,能够以先前所描述的方式来执行连接分量分析。一旦识别出了一个或多个候选区域,则在图7的框718处,在图像的一个或多个识别的候选区域中确定图像的至少一个特征。换言之,执行先前关于图5的框512所描述的方法,在此将不重复所述方法,但是将理解的是,可以以先前所描述的方式在图像的一个或多个识别的候选区域中确定图像的至少一个特征。所述至少一个特征可以包括先前关于图5的框512提到的特征中的任意一个或多个特征(即,任意单个特征或组合)。
在图7的框718处,从一个或多个候选区域中提取所确定的至少一个特征。在图7的框720处,通过学习算法使用训练集合来学习最佳阈值,以识别包含真实文本的候选区域。以这种方式,能够去除图像的区域中的假阳性候选区域(即,与文本不对应的区域)。
在图7的框722处,基于在图像的一个或多个识别的候选区域中的图像的至少一个确定的特征,从一个或多个识别的候选区域中选择包括与对象的个人信息有关的文本的区域。换言之,执行先前关于图5的框514所描述的方法,在此将不再重复所述方法,但是将理解的是,能够以先前所描述的方式来选择包括与对象的个人信息有关的文本的区域。
在图7的框724处,在所选择的区域内执行文本识别以在所选择的区域内识别与对象的个人信息有关的文本的(更精确的)位置。更具体而言,光学字符识别(OCR)库被用于识别文本字符。然后,在框726处,根据对所选择的区域的OCR扫描的结果来定位与受保护健康信息(PHI)相关的文本,以在与OCR库中存储的PHI文本相匹配的这些区域中定位文本。然后,在图7的框728处,针对PHI文本生成掩膜,并且通过将掩膜应用于在所识别的位置处的所选择的区域来修改图像,由此使与对象的个人信息有关的文本模糊,如先前关于图5的框516所描述的。
图8示出了根据示例性实施例的装置800的框图,装置800能够用于以在本文中所描述的方式使医学图像中的受保护健康信息匿名化。在该示例性实施例中的装置800是医学数字成像和通信(DICOM)分析器。DICOM分析器能够支持三种类型的取消识别过程,亦即:文件头标签取消识别、嵌入文本取消识别和面部掩膜取消识别。这避免了在执行所有三种类型的取消识别中的重复努力。取消识别过程能够由用户选择。备选地,取消识别过程能够是自动化的并且能够在没有人工干预的情况下运行。
所述装置包括:DICOM文件存储装置830,其被配置为存储包括图像的DICOM文件;隔离区834,其被配置为隔离次级图像(例如,不是来自成像设备而是由技术人员使用后处理应用而创建的DICOM图像对象);以及DICOM读取器832,其被配置为读取DICOM文件的图像(例如,其中,的图像不是次级图像)。一旦DICOM读取器已经读取了包括图像的DICOM文件,则DICOM文件头814被发送到基于文件头的匿名化模块808,其从DICOM图像的文件头中去除信息。
基于文件头的匿名化模块808包括至少一个取消识别模块820,取消识别模块820包括多个子模块。用于取消识别的子模块包括:被配置为移除UID信息的用户标识信息(UID)模块822,被配置为取消识别患者特定信息(诸如姓名、年龄、日期、时间、地址等)的患者模块818,被配置为取消识别与用于拍摄图像的设备的型号或制造商有关的供应商特定信息的设备模块816,被配置为取消识别与患者就诊相关联的纵向数据有关的日期信息的访问模块824,被配置为在DICOM文件头中添加散列代码并且替换标识符信息的散列模块826,被配置为通过移动DICOM文件头中的日期和时间信息来取消识别日期的日期模块828,被配置为解释DICOM文件头中的像素数据相关标签的解释模块836,以及被配置为取消识别与对患者执行的流程相关的标签的过程模块864。这些取消识别模块被用于使用文件头修改方法从图像文件头中去除可以识别对象的个人信息,由此取消识别对象。本领域技术人员将意识到可以使用合适的文件头修改方法。取消识别模块所使用的参数被存储在配置文件802中,并且取消识别特征模块810包括具有与在图像中忽略804、移除806或修改812特征相对应的动作的标签。
来自图像的三维(3D)体积数据(或体素数据)840被发送到基于图像的匿名化单元838的面部特征取消识别模块852,由此,如先前关于图2和图4所描述的,使用头部/颈部检测模块842和面部掩膜模块854从图像中去除面部特征。在图像中未检测到头部或颈部的情况下,保留原始数据856。来自图像的像素数据844被发送到基于图像的匿名化单元838的烙印文本取消识别模块858,其中,在模块846处检测到烙印(即,嵌入)文本,如先前关于图5和图7所描述的。如果检测到与对象的个人信息有关的文本,则文本掩膜模块860修改图像以掩盖图像中包括与对象的个人信息有关的文本的区域,如先前参考图5和图7所描述的。否则,保留原始数据862。
将理解的是,图1的装置100的处理器102可以包括面部特征取消识别模块852、烙印文本取消识别模块858,或者包括面部特征取消识别模块852和烙印文本取消识别模块858两者的基于图像的匿名化单元838。
由装置800的基于图像的匿名化单元838产生的经修改的图像被输出到DICOM编写器848,DICOM编写器848输出匿名化的DICOM图像850。以这种方式,装置800通过从DICOM文件头去除受保护的健康信息并且通过使与对象个人信息有关的面部特征和嵌入文本模糊来产生完全匿名化的图像。
因此,提供了一种用于使图像中的对象的一个或多个面部特征模糊的经改进的方法和装置。根据在本文中所描述的各方面和实施例,能够防止对对象的识别并且保护私人信息。
还提供了一种包括计算机可读介质的计算机程序产品,所述计算机可读介质具有嵌入在其中的计算机可读代码,所述计算机可读代码被配置为使得在由合适的计算机或处理器运行时使所述计算机或处理器执行在本文中所述的一种或多种方法。因此,将意识到,本公开还适用于适于将实施例付诸实践的计算机程序,特别是载体上或载体中的计算机程序。所述程序可以是源代码、目标代码、代码中间源和目标代码的形式,诸如部分编译的形式,或者适合用于实施根据在本文中所描述的实施例的方法的任何其他形式。
还应当意识到,这样的程序可以具有许多不同的架构设计。例如,可以将实施所述方法或系统的功能的程序代码细分为一个或多个子例程。在这些子例程之间分配功能的许多不同方式对于技术人员将是显而易见的。子例程可以一起存储在一个可执行文件中以形成自包含程序。这样的可执行文件可以包括计算机可执行指令,例如,处理器指令和/或解释器指令(例如,Java解释器指令)。备选地,一个或多个或者所有子例程可以被存储在至少一个外部库文件中,并且可以被静态地或动态地(例如,在运行时)与主程序链接。主程序包含对子例程中的至少一个子例程的至少一个调用。子例程还可以包括彼此调用的函数。
与计算机程序产品有关的实施例包括与在本文中所阐述的方法中的至少一种方法的每个处理阶段相对应的计算机可执行指令。这些指令可以被细分为子例程和/或被存储在可以静态地或动态地链接的一个或多个文件中。与计算机程序产品有关的另一实施例包括与在本文中所阐述的系统和/或产品中的至少一个的每个单元相对应的计算机可执行指令。这些指令可以被细分为子例程和/或被存储在可以静态地或动态地链接的一个或多个文件中。
计算机程序的载体可以是能够承载程序的任何实体或设备。例如,载体可以包括数据存储装置,诸如ROM,例如CD ROM或半导体ROM,或者磁记录介质,例如硬盘。此外,载体可以是可传输载体,诸如电信号或光信号,其可以经由电缆或光缆或者通过无线电或其他方式来传送。当程序被嵌入在这样的信号中时,载体可以由这样的电缆或其他设备或单元构成。备选地,载体可以是其中嵌入有程序的集成电路,所述集成电路适于执行相关方法或者在相关方法的执行中使用。
通过研究附图、公开内容和所附的权利要求,本领域技术人员可以理解和实现所公开的实施例的变型。在权利要求中,词语“包括”不排除其他元件或步骤,并且不定冠词“一”或“一个”不排除多个。单个处理器或其他单元可以实现权利要求中所记载的若干项的功能。事实上,在互不相同的从属权利要求中记载某些措施并不意味着不能够有利地使用这些措施的组合。计算机程序可以被存储/分布在合适的介质上,例如与其他硬件一起提供或者作为其一部分而提供的光学存储介质或固态介质,但是也可以以其他形式分发,诸如经由互联网或其他有线或无线电信系统。权利要求中的任何附图标记都不应当被解释为限制范围。
Claims (14)
1.一种用于使图像中的对象的一个或多个面部特征模糊的计算机实施的方法,所述方法包括:
检测(202、502)所述图像中的所述对象的头部;
识别(204、504)所述图像中的所述对象的两个或更多个面部特征的位置;
基于所述两个或更多个面部特征的所述位置并基于所述两个或更多个面部特征的位置之间的距离乘以预定义比率的值来确定(206、506)待修改的所述图像的区域,其中,所确定的区域包括所述一个或多个面部特征所位于的所述头部的部分;并且
在所确定的区域内修改(208、508)所述图像以使所述两个或更多个面部特征模糊。
2.根据权利要求1所述的方法,其中,识别(204)包括:
检测所述图像中的所述对象的所述头部的皮肤表面;并且
识别所述一个或多个面部特征在所述图像中的所述对象的所述头部的所检测到的皮肤表面上的位置。
3.根据权利要求2所述的方法,其中,检测所述图像中的所述对象的所述头部的所述皮肤表面包括:
确定针对所述图像中的所述对象的所述头部的凸包;
针对所述凸包的表面上的一个或多个点,追踪向内朝向所述图像中的所述对象的所述头部的中心的路径;并且
检测所述对象的所述头部的所述皮肤表面,在所述皮肤表面处,检测到所述图像的具有大于针对所述图像的背景水平的值的分量。
4.根据权利要求1所述的方法,其中,所述预定义比率定义所述至少两个面部特征的所述位置之间的所述距离与所述至少两个面部特征的所述位置和至少一个或多个其他特征的位置之间的距离的关系。
5.根据权利要求1-4中的任一项所述的方法,所述方法还包括:
基于所述图像中的所述对象的所述头部的倾斜来调节待修改的所述图像的所述区域。
6.根据权利要求1-4中的任一项所述的方法,其中,所述图像是通过从处在所述图像的所确定的区域内的所述头部的所述部分向外延伸多个突起以使所述一个或多个面部特征模糊来修改的。
7.根据权利要求6所述的方法,其中,所述图像是通过将向外延伸的突起中的一个或多个突起设置为不同的灰度值来进一步修改的。
8.根据权利要求1-4中的任一项所述的方法,所述方法还包括:
针对与所述对象的个人信息有关的文本来识别(510)所述图像的一个或多个候选区域;
确定(512)所述图像的一个或多个识别的候选区域中的所述图像的至少一个特征;
基于所述图像的所述一个或多个识别的候选区域中的所述图像的至少一个确定的特征,从所述候选区域中选择(514)包括与所述对象的个人信息有关的文本的区域;并且
在所选择的区域内修改(516)所述图像以使与所述对象的个人信息有关的所述文本模糊。
9.根据权利要求8所述的方法,其中,所述至少一个特征包括以下中的任意一项或多项:
针对所述图像的所述一个或多个识别的候选区域中的分量集合的凸包;
在包括文本的所述一个或多个识别的候选区域中的分量的数量与整幅图像中的分量的数量的比率;
在所述一个或多个识别的候选区域中的所述图像的几何偏心率;
在所述一个或多个识别的候选区域中的所述图像中的所述分量的坚固性;以及
在所述一个或多个识别的候选区域中的所述图像的强度。
10.根据权利要求8所述的方法,其中,识别(510)一个或多个候选区域包括:
检测所述图像中的包括具有相同值的连接分量的一个或多个区域;并且
将具有大于预定义尺寸的尺寸的区域识别为背景区域,并且将其余区域识别为针对与所述对象的个人信息有关的文本的候选区域。
11.根据权利要求8所述的方法,其中,选择(514)包括:
将所述至少一个确定的特征与指示包括与个人信息有关的文本的区域的一个或多个存储的特征进行比较;并且
基于所述比较从所述候选区域中选择包括与所述对象的个人信息有关的文本的所述区域。
12.根据权利要求1-4中的任一项所述的方法,其中,所述方法包括:
在所选择的区域内执行文本识别以识别与所述对象的个人信息有关的所述文本在所选择的区域内的位置;并且
其中,修改所述图像包括:
在所选择的区域内在所识别的位置处修改所述图像,以使与所述对象的个人信息有关的所述文本模糊。
13.一种包括计算机可读介质的计算机程序产品,所述计算机可读介质具有嵌入在其中的计算机可读代码,所述计算机可读代码被配置为使得在由合适的计算机或处理器运行时使所述计算机或处理器执行根据权利要求1至12中的任一项所述的方法。
14.一种包括处理器的装置,其中,所述处理器被配置为执行根据权利要求1至12中的任一项所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17178705 | 2017-06-29 | ||
EP17178705.4 | 2017-06-29 | ||
PCT/EP2018/067508 WO2019002521A1 (en) | 2017-06-29 | 2018-06-28 | MASKING FACIAL CHARACTERISTICS OF A SUBJECT IN AN IMAGE |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110832498A CN110832498A (zh) | 2020-02-21 |
CN110832498B true CN110832498B (zh) | 2024-04-12 |
Family
ID=59269837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880043346.6A Active CN110832498B (zh) | 2017-06-29 | 2018-06-28 | 使图像中的对象的面部特征模糊 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11138778B2 (zh) |
EP (1) | EP3646234A1 (zh) |
JP (1) | JP7191050B2 (zh) |
CN (1) | CN110832498B (zh) |
WO (1) | WO2019002521A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11011257B2 (en) * | 2018-11-21 | 2021-05-18 | Enlitic, Inc. | Multi-label heat map display system |
US11605177B2 (en) | 2019-06-11 | 2023-03-14 | Cognex Corporation | System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same |
US11335021B1 (en) | 2019-06-11 | 2022-05-17 | Cognex Corporation | System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same |
JP2021051471A (ja) * | 2019-09-24 | 2021-04-01 | キヤノンメディカルシステムズ株式会社 | 匿名化装置、匿名化システム |
CN114586033A (zh) * | 2019-10-31 | 2022-06-03 | 美国西门子医学诊断股份有限公司 | 用于在自动化诊断分析系统中对患者进行表征期间保护患者信息的方法和装置 |
CN111179157B (zh) * | 2019-12-30 | 2023-09-05 | 东软集团股份有限公司 | 医学影像中面部区域的处理方法、装置及相关产品 |
JP2021128499A (ja) * | 2020-02-13 | 2021-09-02 | 株式会社エクォス・リサーチ | 動画処理装置、脈拍数測定装置、動画処理プログラム、及び脈拍数測定プログラム |
JP2023003557A (ja) * | 2021-06-24 | 2023-01-17 | 国立大学法人 東京大学 | 情報処理システム、情報処理方法及びプログラム |
US11606513B2 (en) * | 2021-06-29 | 2023-03-14 | Lenovo (Singapore) Pte. Ltd. | Apparatus, method, and program product for enhancing privacy via facial feature obfuscation |
JP7421525B2 (ja) | 2021-08-27 | 2024-01-24 | 株式会社モリタ製作所 | 画像処理装置、画像処理システム、画像処理方法、画像処理プログラム |
WO2023036717A1 (en) | 2021-09-13 | 2023-03-16 | Koninklijke Philips N.V. | Data de-identification |
WO2023118026A1 (en) * | 2021-12-21 | 2023-06-29 | Koninklijke Philips N.V. | System for creating composite camera images for body surface area modeling and de-identification of patients in ultrasound imaging exams |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103914676A (zh) * | 2012-12-30 | 2014-07-09 | 杭州朗和科技有限公司 | 一种在人脸识别中使用的方法和装置 |
CN105407261A (zh) * | 2014-08-15 | 2016-03-16 | 索尼公司 | 图像处理装置、方法以及电子设备 |
CN106327506A (zh) * | 2016-08-05 | 2017-01-11 | 北京三体高创科技有限公司 | 一种基于概率分区合并的三维模型分割方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3768743B2 (ja) | 1999-09-20 | 2006-04-19 | 株式会社東芝 | ドキュメント画像処理装置及びドキュメント画像処理方法 |
US6823203B2 (en) | 2001-06-07 | 2004-11-23 | Koninklijke Philips Electronics N.V. | System and method for removing sensitive data from diagnostic images |
US7026658B2 (en) | 2003-03-13 | 2006-04-11 | Samsung Sdi, Co., Ltd. | Electrical conductors in an electroluminescent display device |
US7627152B2 (en) | 2003-11-26 | 2009-12-01 | Ge Medical Systems Information Technologies, Inc. | Image-based indicia obfuscation system and method |
JP4135656B2 (ja) | 2004-02-20 | 2008-08-20 | コニカミノルタビジネステクノロジーズ株式会社 | 画像領域判定方法、画像処理装置およびプログラム |
JP2007044239A (ja) | 2005-08-10 | 2007-02-22 | Toshiba Corp | 医用画像診断装置、医用画像処理装置及び医用画像処理プログラム |
US8781162B2 (en) * | 2011-01-05 | 2014-07-15 | Ailive Inc. | Method and system for head tracking and pose estimation |
US8098904B2 (en) * | 2008-03-31 | 2012-01-17 | Google Inc. | Automatic face detection and identity masking in images, and applications thereof |
JP2009278325A (ja) | 2008-05-14 | 2009-11-26 | Seiko Epson Corp | 画像処理装置、画像処理方法、およびプログラム |
US8306283B2 (en) * | 2009-04-21 | 2012-11-06 | Arcsoft (Hangzhou) Multimedia Technology Co., Ltd. | Focus enhancing method for portrait in digital image |
CN103890810B (zh) * | 2011-10-25 | 2018-02-06 | 索尼公司 | 图像处理设备、方法 |
US9147178B2 (en) | 2012-01-16 | 2015-09-29 | International Business Machines Corporation | De-identification in visual media data |
US10204117B2 (en) | 2013-06-04 | 2019-02-12 | Synaptive Medical (Barbados) Inc. | Research picture archiving communications system |
US9679194B2 (en) * | 2014-07-17 | 2017-06-13 | At&T Intellectual Property I, L.P. | Automated obscurity for pervasive imaging |
US9830505B2 (en) * | 2014-11-12 | 2017-11-28 | International Business Machines Corporation | Identifying and obscuring faces of specific individuals in an image |
US20160203264A1 (en) | 2015-01-09 | 2016-07-14 | Intelemage, Llc | Systems, methods, and computer program products for processing medical images to address privacy concerns |
-
2018
- 2018-06-28 US US16/619,111 patent/US11138778B2/en active Active
- 2018-06-28 CN CN201880043346.6A patent/CN110832498B/zh active Active
- 2018-06-28 JP JP2019571681A patent/JP7191050B2/ja active Active
- 2018-06-28 WO PCT/EP2018/067508 patent/WO2019002521A1/en unknown
- 2018-06-28 EP EP18737557.1A patent/EP3646234A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103914676A (zh) * | 2012-12-30 | 2014-07-09 | 杭州朗和科技有限公司 | 一种在人脸识别中使用的方法和装置 |
CN105407261A (zh) * | 2014-08-15 | 2016-03-16 | 索尼公司 | 图像处理装置、方法以及电子设备 |
CN106327506A (zh) * | 2016-08-05 | 2017-01-11 | 北京三体高创科技有限公司 | 一种基于概率分区合并的三维模型分割方法 |
Non-Patent Citations (3)
Title |
---|
"An Automatic System to Detect and Extract Text in Medical Images for De-identification";Yingxuan Zhu1 et al.;《Processings of SPIE》;第762803-1-762803-8页 * |
"Model-Based Face De-Identification";Ralph Gross et al.;《Proceedings of the 2006 Conference on Computer Vision and Pattern Recognition Workshop》;第1-8页 * |
Ralph Gross et al.."Model-Based Face De-Identification".《Proceedings of the 2006 Conference on Computer Vision and Pattern Recognition Workshop》.2006,第1-8页. * |
Also Published As
Publication number | Publication date |
---|---|
JP2020525926A (ja) | 2020-08-27 |
EP3646234A1 (en) | 2020-05-06 |
US20200118317A1 (en) | 2020-04-16 |
US11138778B2 (en) | 2021-10-05 |
JP7191050B2 (ja) | 2022-12-16 |
WO2019002521A1 (en) | 2019-01-03 |
CN110832498A (zh) | 2020-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110832498B (zh) | 使图像中的对象的面部特征模糊 | |
US12002131B2 (en) | Image color adjustment method and system | |
Masoudi et al. | Quick guide on radiology image pre-processing for deep learning applications in prostate cancer research | |
Wang et al. | Smartphone-based wound assessment system for patients with diabetes | |
Milchenko et al. | Obscuring surface anatomy in volumetric imaging data | |
US10679740B2 (en) | System and method for patient privacy protection in medical images | |
US9633482B2 (en) | Apparatus and method for restricting image data visualization | |
US20160232703A1 (en) | System and method for image processing | |
EP3438869A1 (en) | Anonymizing data | |
CN114365181A (zh) | 使用机器学习自动检测和替换图像中的识别信息 | |
Chu et al. | Perception enhancement using importance-driven hybrid rendering for augmented reality based endoscopic surgical navigation | |
CN111179157B (zh) | 医学影像中面部区域的处理方法、装置及相关产品 | |
US10433796B2 (en) | Selecting transfer functions for displaying medical images | |
US11403809B2 (en) | System and method for image rendering | |
Gopalachari et al. | Design and Implementation of Brain Tumor Segmentation and Detection Using a Novel Woelfel Filter and Morphological Segmentation | |
US11164309B2 (en) | Image analysis and annotation | |
CN113344942A (zh) | 人体按摩区域分割方法、装置、系统及计算机存储介质 | |
CN111627529A (zh) | Vrds 4d医学影像处理方法及产品 | |
US11593518B2 (en) | Medical image processing apparatus and medical image processing method | |
US20230178218A1 (en) | Systems and methods for robust and automatic face de-identification for ct and mri | |
der Goten et al. | Conditional de-identification of 3d magnetic resonance images | |
WO2024083817A1 (en) | De-identifying sensitive information in 3d a setting | |
Lisnichenko et al. | 3D artifact localization using connected components | |
US20170061676A1 (en) | Processing medical volume data | |
CN114364323A (zh) | 基于vrds ai静脉影像的识别方法及产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |