CN113168511A - 基于选择性隐私和/或位置跟踪来生成遮蔽图像的方法和装置 - Google Patents
基于选择性隐私和/或位置跟踪来生成遮蔽图像的方法和装置 Download PDFInfo
- Publication number
- CN113168511A CN113168511A CN201980076188.9A CN201980076188A CN113168511A CN 113168511 A CN113168511 A CN 113168511A CN 201980076188 A CN201980076188 A CN 201980076188A CN 113168511 A CN113168511 A CN 113168511A
- Authority
- CN
- China
- Prior art keywords
- feature
- displayable
- image
- features
- geographic location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 52
- 238000003860 storage Methods 0.000 claims description 22
- 230000000873 masking effect Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 6
- 238000012800 visualization Methods 0.000 description 49
- 238000012790 confirmation Methods 0.000 description 38
- 230000000007 visual effect Effects 0.000 description 37
- 238000004891 communication Methods 0.000 description 33
- 238000012545 processing Methods 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 6
- 239000000969 carrier Substances 0.000 description 5
- 238000000018 DNA microarray Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000000737 periodic effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
- G06F21/6254—Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/70—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
- G06F21/82—Protecting input, output or interconnection devices
- G06F21/84—Protecting input, output or interconnection devices output devices, e.g. displays or monitors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
- G06T5/75—Unsharp masking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2111—Location-sensitive, e.g. geographical location, GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Bioethics (AREA)
- Computer Security & Cryptography (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
选择性地生成遮蔽图像的示例包括:卷积神经网络检测器,其用于检测由相机捕获的图像中的第一特征和第二特征;特征识别器,其用于通过将图像的第一特征和第二特征与存储在存储器中的参考特征图像进行比较,来确定第一特征是可显示特征而第二特征是不可显示特征;以及模糊生成器,其用于生成遮蔽图像以显示可显示特征并遮蔽不可显示特征。
Description
技术领域
本公开总体上涉及图像处理,并且更具体地,涉及基于选择性隐私和/或位置跟踪来生成遮蔽图像。
背景技术
通常跟踪资产以识别其在不同时间处的位置,并评估其在不同位置之间的进度。例如,经由快递运送的包裹可以被提供有带有条形码的运送标签,该条形码可以在沿着其运送路线的不同点处进行扫描。以这种方式,可以在用户可访问的数据库中更新包裹的位置,以识别包裹的途中状态。
附图说明
图1示出了固定跟踪器的示例可视化跟踪网络,所述固定跟踪器用于基于选择性隐私来生成标签载体(tag bearer)的遮蔽图像和/或用于跟踪标签载体的位置。
图2是与图1的示例云服务通信的图1的固定跟踪器的示例实施方式。
图3示出了可以由图1和2的固定跟踪器用于生成与标签载体相关联的遮蔽图像的基于图像内像素位置和像素尺寸信息的操作的示例序列。
图4是图1和2的遮蔽管理器的示例实施方式的框图,该遮蔽管理器用于基于选择性隐私和来自单个相机的原始图像来生成遮蔽图像。
图5是一个或多个遮蔽管理器的框图,这些遮蔽管理器用于基于选择性隐私和来自多个相机的原始图像来生成遮蔽图像。
图6是代表示例机器可读指令的流程图,这些指令可以被执行以实现图1和2的固定跟踪器和/或图1-5的遮蔽管理器,以用于基于标签载体的选择性隐私、地理位置、和/或观察时间来生成遮蔽图像。
图7是被构造为执行图6的机器可读指令的处理器平台,所述指令用于实现图1和2的固定跟踪器和/或图1-5的遮蔽管理器,以用于根据本公开的教导基于标签载体的选择性隐私、地理位置和/或观察时间,来生成遮蔽图像。
这些图不是按比例绘制的。相反,出于清楚的目的,可以在附图中放大不同的所示方面。只要有可能,相同的附图标记将贯穿附图和随附书面描述用于指代相同或相似的部件。
具体实施方式
本文所公开的示例基于选择性隐私来生成遮蔽图像和/或以跟踪标签载体的位置。如本文所使用的,标签载体被定义为携带或佩戴具有可以经由无线通信进行扫描的标签标识符(ID)的标签的任何人、对象和/或车辆。这样的无线通信可以是射频(RF)通信(例如,超宽带(UWB)无线通信、RF标识符(RFID)通信、无线通信、无线通信、Wi-Fi无线通信、蜂窝网络通信等)、光通信(例如,图像传感器、红外等)等。在本文所公开的示例中,可以使用适于由被跟踪标签载体承载的任何外形规格来实现标签。例如,标签可以被实现为可以位于人、对象和/或车辆上的附着标签。附加地或可替代地,标签可以被实现为具有与信用卡、政府颁发的ID卡、企业颁发的ID卡、就业ID卡等实质上类似尺寸的卡,使得该卡可以被人携带或佩戴和/或位于要被跟踪的对象和/或车辆中。在一些示例中,该标签可以被实现为可以被植入人类的生物芯片。以这种方式,可以根据本公开的教导来使用示例生物芯片,以跟踪需要预防性监测的人(例如,具有痴呆症的人等)的行踪。在一些示例中,生物芯片可以被植入动物(例如,宠物、动物园动物和/或野生动物)。
本文所公开的示例可以通过在不同时间点处捕获标签载体的图像和/或视频和/或确定在那些不同时间处的标签载体的地理位置,来监测标签载体的可见状态和位置。本文所公开的示例可以基于订阅模型来向用户提供对这样的可见状态和位置信息的访问,在该订阅模型中,用户注册以访问这种信息。这样的基于订阅的服务可以是较大的服务(例如,快递服务)的特征,其中,消费者(例如,发货人和/或收货人)被提供有对其途中货物或包裹的可视化状态和/或位置信息的访问,作为运送协议的一部分。另外地或可替代地,这样的基于订阅的服务可以是独立的服务,其中,人们注册以根据费用协议或某个其它协议(例如,广告驱动服务、保险补贴服务、政府补贴服务等)来访问标签载体的可视化状态和/或位置信息。
本文所公开的示例使用固定跟踪器来实现以细粒度细节并且在否则不允许这种跟踪的位置中跟踪标签载体。例如,即使在城市峡谷中,本文所公开的固定跟踪器也能够提供标签载体的地理信息,在所述城市峡谷中,全球定位系统(GPS)信息由于使来自GPS卫星的信号衰减的建筑物或其它障碍物而不可用。本文所公开的示例固定跟踪器还能够以由固定跟踪器基于选择性隐私遮蔽生成的遮蔽的可视化捕获(例如,遮蔽图像和/或视频)的形式,来提供标签载体的保护隐私的可视化确认,以保护出现在可视化捕获中的非跟踪主体的人、对象、和/或车辆的身份和隐私。
图1示出了固定跟踪器102a-d的示例可视化跟踪网络100,以基于选择性隐私来生成标签载体的遮蔽图像和/或以跟踪标签载体的位置。在所示的示例中,可视化跟踪网络100跟踪示例标签载体104的可视化确认和位置。所示的示例的标签载体104是处于多个人106附近的车辆。在所示的示例中,固定跟踪器102a-d被固定地定位在固定位置处,并且因此与对应的固定地理位置相关联。例如,固定跟踪器102a-d可以被安装在电线杆、建筑物、路标、广告牌、天线塔等上。在一些示例中,固定跟踪器102a-d彼此实质上类似或相同。因此,对第一固定跟踪器102a的以下详细描述可以应用于任何或所有其它跟踪器。
图1中示出了示例固定跟踪器102a的详细视图。如图所示,示例固定跟踪器102a被提供有示例相机110、示例无线收发器112(例如,超宽带(UWB)无线收发器、RF标识符(RFID)收发器、无线收发器、无线收发器、Wi-Fi无线收发器、蜂窝通信收发器等)、示例地理位置检测器(GEO)114、示例遮蔽管理器(MMGR)116、以及示例模糊生成器118。在所示的示例中,相机110、无线收发器112、遮蔽管理器116、以及模糊生成器118被提供在相同的外壳中,以在制造时形成固定跟踪器102a。在一些示例中,无线收发器112、遮蔽管理器116、以及模糊生成器118可以在制造时被实现在相机110的外壳中。在一些这样的示例中,在相机110中组合的组件形成固定跟踪器102a并且被安装在相机110的外壳中。然而,在其它示例中,无线收发器112、遮蔽管理器116、以及模糊生成器118可以在制造时之后作为售后附加设备被提供。售后附加设备可以是没有相机110但能够由消费者通信地耦合到相机110的固定跟踪器102a。以这种方式,相机110可以与固定跟踪器102a分开购买,并且可以在售后装配中与固定跟踪器102a通信地放置和/或连接到固定跟踪器102a。
图1的示例相机110捕获标签载体(例如,标签载体104)的图像/视频。示例无线收发器112与位于标签载体104上的无线标签122无线地通信,以肯定地识别标签载体104。例如,无线收发器112可以接收无线标签122的唯一标识符(例如,响应于对其的请求)。示例地理位置检测器114提供地理位置坐标作为标签载体104的近似地理位置。例如,地理位置坐标可以被编程或存储在地理位置检测器114的存储器中,或者地理位置检测器114可以被配备有GPS接收器并且被安装在接收GPS信号的位置处,以连续地或作为启动例程的一部分生成和存储地理位置坐标。
在所示的示例中,固定跟踪器102a-d经由有线或无线通信介质124互连,并且与云服务126通信。例如,固定跟踪器102a-d可以经由诸如互联网之类的公共网络和/或经由专用网络来与云服务126通信。所示的示例的固定跟踪器102a-d实现了与物眼(eyes ofthings,EOT)平台互操作的EOT设备,利用该EOT平台,互联网上的计算机(例如,服务器、客户端设备、电器等)可以经由应用编程接口(API)进行通信以访问环境、人、对象、车辆等的可视化捕获。例如,云服务126可以实现这种EOT平台来收集和/或提供对可视化捕获的访问。在一些示例中,这样的可视化捕获可以是由EOT设备和/或EOT平台进行机器视觉处理的结果,以对可视化捕获中的特征进行提取、识别、修改等,以使得这样的可视化捕获对于生成关于可视化捕获的主体的感兴趣的信息更有用。
在图1的所示的示例中,标签载体104附近的人106出现在相机110的视野中。因此,由相机110提供的可视化捕获包括标签载体104和人106。然而,所示的示例的人106尚未同意他们的跟踪,或者否则不是固定跟踪器102a-d跟踪的主体。为了保护在相机110的视野内的人106的身份和隐私,同时为标签载体104提供跟踪信息,示例固定跟踪器102a包括遮蔽管理器116和模糊生成器118。示例遮蔽管理器116控制由示例模糊生成器118对可视化捕获的遮蔽。以这种方式,模糊生成器118可以通过在可视化捕获上生成和/或定位隐私遮蔽来生成遮蔽的可视化捕获以遮蔽的可视化捕获中的特征,使得隐私遮蔽是模糊、遮掩、混淆、隐蔽或隐藏未被跟踪的特征中的至少一种,同时维持被跟踪标记载体的可视性。示例模糊生成器118通过更改和/或替换可视化捕获中的位置处的可视化捕获的像素,来生成遮蔽的可视化捕获,遮蔽的可视化捕获包括在可视化捕获中不可视或不可辨别的不可显示特征。例如,模糊生成器118可以生成隐私遮蔽,该隐私遮蔽将可视化捕获的像素更换为那些像素颜色值的修改版本,使得隐私遮蔽在不可显示特征处创建模糊效果。另外地或可替代地,模糊生成器118可以生成隐私遮蔽,该隐私遮蔽将不可显示特征处的可视化捕获的像素更换为不基于可视化捕获的原始像素颜色值的像素颜色值。在这样的示例中,隐私遮蔽可以显示为纯色、彩色图案和/或叠加在不可显示特征上的随机颜色。附加地或可替代地,模糊生成器118可以生成描画可视化捕获中的不可显示特征的轮廓(例如,使用边缘检测或模糊遮蔽尺寸)的隐私遮蔽,并且模糊生成器118基于隐私遮蔽来从可视化捕获中裁剪掉所描画的特征。在本文所公开的示例中,遮蔽的可视化捕获被称为遮蔽图像。这样的遮蔽图像可以基于由相机输出的静止图像捕获,或者可以基于由相机输出的运动视频捕获的帧。
在图1的所示的示例中,由于相机110捕获图像或视频(例如,监视视频),遮蔽管理器116和模糊生成器118中的本地处理生成隐私遮蔽,以将相机110的视野中的人106遮蔽或模糊为不可显示特征(例如,基于分析面部来确认人106是不可显示的)。这创建了可移动的选择加入(opt-in)透明气泡,其中,被跟踪标签载体104被选择为在结果遮蔽图像中是可显示的。在所示的示例中,代替输出示出人106和标签载体104的原始未处理的可视化捕获,固定跟踪器102a向云服务126提供透明气泡细节(例如,遮蔽图像、位置信息、时间戳信息等)。客户端设备128然后可以访问示例遮蔽图像132,该示例遮蔽图像132以可视/可显示的形式示出标签载体104,但是经由由模糊生成器118生成的示例隐私遮蔽134来将人106隐蔽为不可显示的。示例隐私遮蔽134使用包括以下各项的任何合适的遮蔽效果来遮蔽不可显示特征:模糊、纯色覆盖、彩色图案覆盖、随机颜色覆盖、裁剪掉不可显示特征等。因此,模糊生成器118不限于模糊不可显示特征。相反,模糊生成器118可以为隐私遮蔽134生成任何类型的遮蔽效果。
在本文所公开的示例中,在将标签载体104的可视化捕获发送到云服务126之前,通过由固定跟踪器102a中的模糊生成器118生成遮蔽图像132,来在标签载体104的可视化捕获的传输期间保护不可显示特征(例如,人106)的身份或隐私。因此,即使在固定跟踪器102a和云服务126之间的传输期间,由第三方拦截了遮蔽图像132,根据遮蔽图像132,不可显示特征的图像对于第三方也不可辨别或不可见。以这种方式,受到隐私问题影响的身份或其它特征不被无意地暴露于连接到互联网的其它联网设备或计算机,这些联网设备或计算机可能在传输期间恶意地或无意地访问遮蔽图像132。本文所公开的示例的这样的隐私保护特征对于生成可视化跟踪系统是有用的,这些可视化跟踪系统符合关于个人信息隐私保护的政府和/或行业法规。可以使用本文所公开的示例来促进服从的这种政府法规的示例是欧洲联盟(EU)通用数据保护条例(GDPR),该条例旨在协调跨欧洲的数据隐私法,以关于数据隐私保护和授权所有EU公民,以及重塑跨EU地区的组织处理数据隐私的方式。
另外,在固定跟踪器102a中而不是在云服务126处生成诸如遮蔽图像132之类的遮蔽图像卸载了来自云服务126的处理要求。例如,机器视觉分析和隐私遮蔽生成过程的处理要求被分配到多个固定跟踪器(例如,固定跟踪器102a-d),使得每个固定跟踪器可以将其处理能力用于可视化捕获的机器视觉分析并且生成遮蔽图像,使得云服务126不需要被配备有执行这样的机器视觉分析和隐私遮蔽生成过程所需的重要的附加CPU(中央处理单元)、GPU(图形处理单元)、和/或存储器资源,以用于从大量联网相机接收的大量可视化捕获。另外,当在分布式固定跟踪器上并行执行而不是在诸如云服务126之类的中心位置中串行执行时,机器视觉分析和隐私遮蔽生成过程可以被更快地完成。
尽管主要参考固定跟踪器102a描述了图1的示例,但是任何或所有示例固定跟踪器102b-d可以被实现为以与固定跟踪器102a实质上类似或相同的方式操作。可替代地,在其它示例中,固定跟踪器102a是主设备,而固定跟踪器102b-d是从设备。在一些这样的方法中,固定跟踪器102a处理来自固定跟踪器102b-d中的相机的可视化捕获,并且与云服务126通信。在这样的示例中,固定跟踪器102b-d不需要被提供有无线收发器112、地理位置检测器114、遮蔽管理器116、和/或模糊生成器118。相反,固定跟踪器102b-d经由有线接口与固定跟踪器102a通信,并且固定跟踪器102a被配置为处理与固定跟踪器102a-d的网络的那些组件相对应的操作。在一些示例中,与固定跟踪器102a-d实质上类似或相同的固定跟踪器的网络被分布在每个街道路口处或选择路口(例如,处理货运或快递交通的路口)处的区域上。
图2示出了被示出为与图1的云服务126通信的图1的示例固定跟踪器102a的示例实施方式。在操作中,当示例无线收发器112确认标签载体104在其附近存在时(例如,经由周期性或非周期性无线探测消息),固定跟踪器102a利用标签ID(TID)查询202查询云服务126,以请求关于标签122的标签ID被注册用于跟踪的确认。例如,如果云服务126的订阅者已经签约以跟踪标签载体104的状态,则可以在示例标签ID数据库204中注册标签122的TID以用于跟踪。示例标签ID数据库204存储了与对应的订阅者相关联的多个标签ID记录。标签ID记录包括标识标签ID的数据字段,对于这些标签ID,可以将其标签载体的可视化捕获作提供为对订阅者可显示的。基于标签ID的订阅状态,云服务126返回可显示性响应206,以通知固定跟踪器102a该标签ID是否与要被跟踪并且可显示用于在可视化捕获中示出的标签载体相关联。如果标签122的标签ID被注册用于跟踪,则固定跟踪器102a向云服务126提供标签载体104的可视化捕获。如上面结合图1所描述的,这样的可视化捕获可以是以遮蔽图像的形式,以保护未跟踪特征的身份和隐私。在图2的所示的示例中,模糊生成器118生成遮蔽图像132。云服务126转而可以响应于客户端设备128向云服务126提交跟踪状态请求210,而将遮蔽图像132服务于订阅者的示例客户端设备128。
图3示出了基于图像内像素位置和像素尺寸信息的操作的示例序列,其可以由图1和2的固定跟踪器用于生成与标签载体相关联的遮蔽图像。在所示的示例中,相机110以监视视频馈送302的形式提供可视化捕获。示例监视视频馈送302由多个帧组成,每个帧表示对应的图像。在所示的示例中,监视视频馈送302的图像由模糊生成器118处理。例如,在图3中,模糊生成器118处理原始图像304,该原始图像304包括表示图1和2的标签载体104的可显示特征306。
可显示特征306位于非遮蔽区域308中,该非遮蔽区域308具有原始图像304的x、y像素网格(像素位置坐标)内的图像内像素位置和像素尺寸。在所示的示例中,非遮蔽区域308的位置和尺寸信息由模糊遮蔽310定义,该模糊遮蔽310指定非遮蔽区域308的x、y原点(例如,表示非遮蔽区域的轮廓的起点的图像中的x、y像素坐标)、高度(h)、以及宽度(w)。在所示的示例中,x、y原点、高度(h)、以及宽度(w)被存储在寄存器312中。在所示的示例中,寄存器312是存储器(例如,本地存储器813、易失性存储器814、非易失性存储器816、和/或大容量存储设备828中的一个或多个)中的位置。然而,寄存器312可以附加地或可替代地是CPU(例如,图8的处理器812)和/或GPU的寄存器。
在图3的所示的示例中,模糊生成器118基于在寄存器312中定义的模糊遮蔽310来生成遮蔽,并且将模糊遮蔽应用于原始图像304以生成遮蔽图像132。固定跟踪器102a(图1和2)然后可以将遮蔽图像132提供给云服务126。云服务126然后可以经由示例客户端设备128服务于遮蔽图像132以供查看,如上面结合图1和2所描述的。
尽管图3的模糊遮蔽310示出了用于非遮蔽区域的矩形形状,但是非遮蔽区域可以使用任何其它合适的形状来实现。例如,如图3所示,非遮蔽区域308被实现为圆形或椭圆形区域。可以在寄存器312中以形状指示符的形式来定义用于非遮蔽区域的形状。例如,寄存器312中的宽度和高度尺寸定义了非遮蔽区域的宽度和高度。正方形或圆形非遮蔽区域可以通过彼此相等的宽度和高度来定义。矩形或椭圆形非遮蔽区域可以通过彼此不同的宽度和高度来定义。在一些示例中,可以在寄存器312中提供小于或大于高度和宽度的尺寸,以定义用于非遮蔽区域的形状的尺寸。例如,为了定义圆形非遮蔽区域,在寄存器312中指定的x、y原点可以定义非遮蔽圆形区域的中心,并且可以在寄存器312中提供单个半径尺寸来定义非遮蔽圆形区域的大小。另外地或可替代地,为了定义具有三条或更多条边的非遮蔽区域形状的每条边,每条边的尺寸可以被存储在寄存器312中。
图4示出了图1和2的遮蔽管理器116的示例实施方式。示例遮蔽管理器116用于基于选择性隐私和来自单个相机的原始图像来生成遮蔽图像。在图4的所示的示例中,遮蔽管理器116连接相机110、无线收发器112、地理位置检测器114、以及模糊生成器118。无线收发器112检测到标签122的存在并收集标签122的标签ID(TID)402。所示的示例的遮蔽管理器116可以经由示例通信接口404向云服务126(图1和2)提供标签ID 402。在一些示例中,遮蔽管理器116将标签ID 402嵌入对应于标签122的标签载体104的被捕获图像或视频中。以这种方式,标签ID 402与其对应的标签载体104的图像相关联或被绑定到其对应的标签载体104的图像。示例通信接口404可以是有线通信接口(例如,局域网以太网接口、宽带网络接口等)或无线通信接口(例如,Wi-Fi无线接口、无线接口、无线接口、蜂窝网络接口等)。基于来自云服务126的关于对应于标签122的标签载体(例如,图1-3的标签载体104)的可显示性的响应(例如,图2的可显示性响应206),遮蔽管理器116可以处理来自相机110的可视化捕获,以生成对应的隐私遮蔽和遮蔽图像(例如,图1-3的遮蔽图像132)。
在图4的所示的示例中,遮蔽管理器116包括:多个示例卷积神经网络(CNN)特征检测器406a、406b、406c;多个示例特征识别器408a、408b、408c;多个示例地理位置比较器410a、410b、410c;以及示例图像输出选择器412。示例CNN特征检测器406a-c连接到相机110,以接收或访问由相机110输出的可视化捕获414(例如,视频/图像)。示例CNN特征检测器406a-c使用卷积神经网络来实现,这些卷积神经网络可以被训练以识别由相机110生成的可视化捕获414中的不同特征(例如,人、面部、对象、车辆等)。例如,通过使用机器视觉技术来训练示例CNN面部检测器406a以识别可视化捕获414中的面部,以生成代表可视化捕获414中的不同特征可以被确认为面部的可能性的概率。以这种方式,示例CNN面部检测器406a可以基于满足面部概率阈值的那些特征的概率来生成表示面部的特征的确认。
通过使用机器视觉技术来训练示例CNN对象检测器406b以识别可视化捕获414中的对象,以生成代表可视化捕获414中的不同特征可以被确认为感兴趣的对象的可能性的概率。以这种方式,示例CNN对象检测器406b可以基于满足对象概率阈值的那些特征的概率,来生成针对表示感兴趣的对象的特征的确认。可以由CNN对象检测器406b确认的感兴趣的示例对象可以是任何类型的对象(例如,包裹、包装、动物、材料、工具、产品、食品等)。感兴趣的对象可以是用户定义的或者是系统定义的。示例CNN车辆检测器406c通过使用机器视觉技术来训练,以识别可视化捕获414中的车辆,以生成代表可视化捕获414中的不同特征可以被确认为感兴趣的车辆的可能性的概率。以这种方式,示例CNN对象检测器406b可以基于满足车辆概率阈值的那些特征的概率,来生成针对表示感兴趣的车辆的特征的确认。可以由CNN车辆检测器406c确认的感兴趣的示例车辆可以是任何类型的车辆(例如,汽车、卡车、火车、半拖挂车、公共汽车、拖拉机、飞机、直升机、船、摩托车、自行车等)。感兴趣的车辆可以是用户定义的或者是系统定义的。
在所示的示例中,CNN特征检测器406a-c输出检测到的特征确认418a-c以及对应的图像位置和尺寸信息(I-LOC)420a-c。例如,CNN面部检测器406a输出检测到的面部确认418a,CNN对象检测器406b输出检测到的对象确认418b,并且CNN车辆检测器406c输出检测到的车辆确认418c。检测到的特征确认418a-c包括可视化捕获414的裁剪掉的图像部分,其包括由CNN特征检测器406a-c检测到的特征。以这种方式,检测到的特征确认418a-c中的裁剪掉的图像部分可以由如下面所描述的特征识别器408a-c分析,以识别被允许经由客户端设备(例如,图1-3的客户端设备128)显示的特征,并且另一方面,识别必须被遮蔽的存在的特征。
在所示的示例中,图像位置和尺寸信息420a-c针对由CNN特征检测器406a-c输出的检测到的特征确认418a-c中的对应特征确认,定义了可视化捕获414中的x、y像素位置坐标和基于像素的尺寸(例如,如上面结合图3的寄存器312所描述的)。例如,面部I-LOC 420a定义了在可视化捕获414中检测到的面部的x、y像素位置坐标和基于像素的尺寸,如由对应的检测到的面部确认418a所确认的。示例对象I-LOC 420b定义了在可视化捕获414中检测到的对象的x、y像素位置坐标和基于像素的尺寸,如由对应的检测到的对象确认418b所确认的。示例车辆I-LOC 420c定义了在可视化捕获414中检测到的车辆的x、y像素位置坐标和基于像素的尺寸,如由对应的检测到的车辆确认418c所确认的。
在所示的示例中,由CNN特征检测器406a-c针对检测到的特征确定的图像位置和尺寸信息(I-LOC)420a-c可以用于控制模糊生成器118的操作。例如,模糊生成器118在基于隐私遮蔽来隐蔽或遮蔽不可显示特征的同时,基于由CNN特征检测器406a-c确定的图像位置和尺寸信息(I-LOC)420a-c,来生成遮蔽图像(例如,图1-3的遮蔽图像132)中的隐私遮蔽。在所示的示例中,提供逻辑或门424,以使用模糊生成器118来遮蔽或模糊不可显示特征的图像。所示的示例的逻辑或门424被构造以从多个输入接收图像位置和尺寸信息(I-LOC)420a-c,并且将来自一个或多个输入的图像位置和尺寸信息(I-LOC)420a-c提供给模糊生成器118。例如,CNN特征检测器406a-c输出用于检测到的特征的图像位置的x、y像素位置坐标和尺寸。以这种方式,由CNN特征检测器406a-c提供的x、y像素位置坐标和尺寸被存储为图像位置和尺寸信息(I-LOC)420a-c,其指示已经在经分析的可视化捕获414中检测到的一个或多个特征的图像位置。在所示的示例中,来自CNN特征检测器406a-c的图像位置和尺寸信息(I-LOC)420a-c被提供给逻辑或门424。当逻辑或门424接收到图像位置和尺寸信息(I-LOC)420a-c中的x、y像素位置坐标和尺寸时,逻辑或门424向模糊生成器118传递或提供x、y像素位置坐标和尺寸,以控制模糊生成器118遮蔽或模糊输入图像的对应部分。以这种方式,如果通过图像输出选择器412选择被遮蔽或模糊的图像,则模糊生成器118基于其对应的x、y像素位置坐标和尺寸来遮蔽或模糊检测到的不可显示特征。
在一些示例中,模糊生成器118可以使用图像位置和尺寸信息(I-LOC)420a-c中的x、y像素位置坐标和尺寸来生成模糊遮蔽310,如上面结合图3所描述的。例如,模糊生成器118可以使用不可显示特征的图像位置和尺寸信息(I-LOC)420a-c来确定可显示特征的位置信息和尺寸信息,以生成模糊遮蔽310,如上面结合图3所描述的。以这种方式,模糊生成器118可以基于不可显示特征的图像位置和尺寸信息(I-LOC)420a-c来生成遮蔽图像132以包括被遮蔽或模糊的特征,并且基于可显示特征的位置信息和尺寸信息来包括未遮蔽或未模糊的特征。
可替代地,在其它示例中,逻辑或门424可以用由寄存器选择性地启用的乘积和电路更换,以允许一个或多个组合被选择以进行模糊。示例模糊组合包括:(1)在标签位置的半径内检测到的面部AND在标签位置的半径内检测到的车辆,其将模糊送货车辆中的驾驶员的面部,(2)在标签位置的半径内检测到的对象AND在标签位置的半径内检测到的面部AND在标签位置的半径内检测到的车辆,其将不会模糊持有被跟踪对象的送货车辆中的人的面部,(3)和/或将被模糊的特征和将不被模糊的特征的任何其它组合。
在所示的示例中,特征识别器408a-c访问由CNN特征检测器106a-c输出的检测到的特征确认418a-c。所示的示例的特征识别器408a-c将检测到的特征确认418a-c中的裁剪掉的图像部分与存储在对应的参考特征数据库428a-c中的参考特征图像进行比较,以识别被允许经由客户端设备(例如,图1-3的客户端设备128)进行显示的特征,并且确定何时特征存在于必须由模糊生成器118遮蔽或模糊的可视化捕获414中。示例参考特征数据库428a-c包括参考面部数据库428a、参考对象数据库428b、以及参考车辆数据库428c。示例参考特征数据库428a-c被存储在存储器(例如,本地存储器713、易失性存储器714、非易失性存储器716、和/或大容量存储装置728中的一个或多个)中,该存储器与例如图1和2的固定跟踪器102a中的遮蔽管理器116共同定位。在所示的示例中,参考特征数据库428a-c中的参考特征是从云服务126中下载的参考特征图像(图1和2),并且表示在标签ID数据库204(图2)中被注册为启用跟踪的人、对象和/或车辆,使得可视化捕获414中的这样的特征可以由固定跟踪器102a呈现为可视的,以用于经由订阅者的客户端设备(例如,图1-3的客户端设备128)显示给云服务126。将参考特征数据库428a-c本地存储在固定跟踪器102a中增加了遮蔽管理器116可以处理由CNN特征检测器406a-c检测到的特征的速度。然而,在其它示例中,参考特征数据库428a-c可以不被本地存储在固定跟踪器102a中。在这样的示例中,特征识别器408a-c在分析由CNN特征检测器406a-c检测到的特征时经由云服务126访问参考特征。
在所示的示例中,当检测到的特征确认418a-c中的特征图像与参考特征数据库428a-c中的对应的一个中的参考特征图像相匹配时,特征识别器408a-c输出已知特征确认值432a-c作为被确认的匹配值(例如,二进制值一),并且当检测到的特征确认418a-c中的特征图像不与参考特征数据库428a-c中的对应的一个中的参考特征图像相匹配时,作为非匹配值(例如,二进制值零)。在一些示例中,特征识别器408a-c中的对应的特征识别器(和/或CNN特征检测器406a-c中的对应的CNN特征检测器)可以为被识别为可显示的特征提供图像位置和尺寸信息420a-c(例如,存储在寄存器312中的原点、宽度、以及高度位置和尺寸信息,如上面结合图3所描述的)。在这样的示例中,示例模糊生成器118使用可显示特征的图像位置和尺寸信息420a-c来生成遮蔽图像132的隐私遮蔽,以显示可显示特征,同时基于隐私遮蔽来隐蔽或遮蔽不可显示特征。
在所示的示例中,遮蔽管理器116结合地理围栏信息和/或时间围栏信息使用已知特征确认值432a-c基于这样的检测到的已知特征的地理位置,来确定何时这样的检测到的已知特征可允许显示。例如,遮蔽管理器116被提供有逻辑与门436a-c,这些逻辑与门436a-c从特征识别器408a-c中接收已知特征确认值432a-c(例如,二进制值一),并且从地理位置比较器410a-c中接收地理位置确认。在所示的示例中,当由CNN特征检测器406a-c检测到的对应特征处于允许这种特征经由客户端设备被显示的地理位置中时,地理位置比较器410a-c输出二进制值一作为地理位置确认值,并且当由CNN特征检测器406a-c检测到的对应特征处于不允许这种特征经由客户端设备被显示的地理位置中时,输出二进制零作为地理位置确认值。因此,对于由特征识别器408a-c检测为可显示的已知特征,由特征识别器408a-c提供了二进制值一以确认其是已知特征,并且由地理位置比较器410a-c提供了二进制值一以确认已知特征位于其是可显示的地理位置中。在一些示例中,地理位置比较器410a-c还使用可视化捕获的时间戳作为用于确定是否允许特征经由客户端设备进行显示的标准。例如,地理位置比较器410a-c可以从相机110和/或从地理位置检测器114中获得指示何时由相机110生成可视化捕获414的时间戳。地理位置比较器410a-c可以将可视化捕获的时间戳与针对不同参考特征存储在参考特征数据库428a-c中的参考时间进行比较。在这样的示例中,参考时间可以指示特征在特定的地理位置和/或任何地理位置处可显示的时间范围。例如,可以仅基于地理位置、仅基于时间、和/或基于地理位置和时间的组合,来限制一些参考特征的可显示性。
为了确定特征是否被允许显示在特定的地理位置处,参考特征数据库428a-c存储与参考特征图像相关联的地理位置。示例参考地理位置将与标签ID数据库204(图2)中的对应特征相关联地注册的地理位置表示为这样的地理位置:在这些地理位置处,对应特征是启用跟踪的,使得可视化捕获414中的这样的特征可以被固定跟踪器102a呈现为可视的,以用于经由订阅者的客户端设备(例如,图1-3的客户端设备128)向云服务126显示。在一些示例中,其中,基于时间来允许或不允许显示特征,参考特征数据库428a-c还存储指定特征何时是可显示的参考时间。每当特征识别器408a-c基于对应参考特征数据库428a-c中的参考特征图像来确认对被允许显示的特征的识别时,地理位置比较器410a-c就经由特征识别器408a-c中的对应的特征识别器获得参考地理位置(和/或参考时间)。另外,地理位置比较器410a-c从示例地理位置检测器114中获得地理位置坐标438。在所示的示例中,地理位置坐标438被编程到地理位置检测器114中或者由地理位置检测器114导出以指定固定跟踪器102a的地理位置。地理位置坐标438代表标签122的标签载体(例如,图1-3的标签载体104)的近似位置。地理位置比较器410a-c还可以针对对应的可视化捕获414从示例地理位置检测器114和/或从相机110获得时间戳。
地理位置比较器410a-c将地理位置坐标438与来自参考特征数据库428a-c的参考地理位置进行比较和/或将时间戳与参考时间戳进行比较。当地理位置坐标438匹配参考地理位置(和/或当可视化捕获414的时间戳匹配参考时间戳)时,地理位置比较器410a-c输出地理匹配确认值一,以指示地理位置坐标438处的对应特征被允许经由客户端设备进行显示。另外,当地理位置坐标438与参考地理位置不匹配时(和/或当可视化捕获414的时间戳与参考时间戳不匹配时),地理位置比较器410a-c输出地理匹配确认值零,以指示地理位置坐标438处的对应特征不被允许经由客户端设备进行显示。以这种方式,除了遮蔽管理器116确认特征可以基于与参考特征数据库428a-c中的参考特征图像相匹配的图像来显示之外,遮蔽管理器116还确认特征的地理位置(和/或时间戳)允许特征基于地理围栏(和/或时间围栏)标准而被显示。
在所示的示例中,来自特征识别器408a-c的已知特征确认值432a-c和来自地理位置比较器410a-c的地理匹配确认值被提供给逻辑与门436a-c。同样在所示的示例中,逻辑与门436a-c的输出被提供给逻辑或门442,以控制是否向云服务126提供由相机110输出的可视化捕获414的原始图像或由模糊生成器118生成的遮蔽图像(例如,遮蔽图像132)。即,如果已知特征(例如,而不是未知特征)由特征识别器408a-c检测到,并且地理位置比较器410a-c确定已知特征位于已知特征是可显示的地理位置中,则逻辑或门442为该已知特征输出二进制值一,以允许原始图像通过图像输出选择器412。否则,逻辑或门442针对不可显示特征(例如,未知特征或不在其可显示的地理位置中的已知特征)输出二进制值零,并且不可显示特征的被遮蔽或模糊的图像被选择用于由图像输出选择器412输出。例如,如果由CNN特征检测器406a-c检测到的特征(例如,面部、对象或车辆)由特征识别器408a-c基于匹配特征参考图像来被确定为可显示的已知特征(例如,经由客户端设备128),并且由地理位置比较器410a-c基于其地理位置来被确定为可显示的(例如,经由客户端设备128),则模糊生成器118的遮蔽不需要被应用于已知特征。在图4的所示的示例中,不可显示的已知特征的这种检测是在逻辑与门436a-c中的每一个处通过以下操作来实现的:经由来自特征识别器408a-c的已知特征确认值432a-c中的对应的一个,以及经由来自地理位置比较器410a-c的地理匹配确认值中的对应的一个,来向该逻辑与门436a-c的两个输入提供二进制值一,使得对应的逻辑与门436a-c向逻辑或门442输出逻辑二进制一。这引起当由特征识别器408a-c检测到的已知特征位于地理位置比较器410a-c中的对应的一个确定已知特征是可显示的地理位置中时,逻辑或门442将二进制一输出到图像输出选择器412。所示示例的示例图像输出选择器412使用复用器来实现,使得逻辑二进制一输入引起选择原始图像,以经由通信接口404输出或发送到云服务126。然而,如果由CNN特征检测器406a-c中的一个检测到的特征被特征识别器408a-c和/或地理位置比较器410a-c确定为不可显示的(例如,经由客户端设备128),则模糊生成器118的遮蔽必须被应用于不可显示特征。在这样的实例中,从逻辑与门436a-c到逻辑或门442的零输入指示对应的特征是不可显示的,并且使得逻辑或门442输出零值。来自逻辑或门442的零值使得示例图像输出选择器412选择遮蔽图像,以经由通信接口404输出或发送到云服务126。
尽管遮蔽管理器116在图4的所示的示例中被描述为具有基于地理位置比较器410a-c的地理围栏和/或时间围栏能力,但是在其它示例中,遮蔽管理器116可以在没有这样的地理围栏和/或时间围栏能力的情况下被实现。在这样的示例中,遮蔽管理器116基于特征识别器408a-c来控制模糊生成器118,所述特征识别器408a-c在不使用由地理位置比较器410a-c对地理位置的比较分析的情况下确认被识别的特征为允许或不允许显示的。
图5是一个或多个遮蔽管理器116的示例框图,所述遮蔽管理器116用于基于选择性隐私和来自多个相机的原始图像来生成遮蔽图像。例如,图5的框图被示出具有多个相机(例如,相机(1)110到相机(N)510)、多个无线收发器(例如,无线收发器(1)112到无线收发器(N)512)、以及多个地理位置检测器(例如,地理位置检测器(1)114到地理位置检测器(N)514)。示例相机(1)110到(N)510提供对应的可视化捕获(1)414到(N)514。示例无线收发器(1)112到(N)512提供标签ID TID(1)402到(N)502。示例地理位置检测器(1)114到(N)514提供地理位置坐标(1)438到(N)538。示例模糊生成器(1)118到(N)518生成隐私遮蔽,并且将隐私遮蔽应用于可视化捕获(1)414到(N)514中的对应的可视化捕获以生成遮蔽图像。图5的示例可以利用任何数量的相机(例如,相机110、510)、无线收发器(例如,无线收发器112、512)、地理位置检测器(例如,地理位置检测器114、514)、和/或遮蔽管理器(例如,遮蔽管理器116)来实现。在一些示例中,可以为一个无线收发器、一个地理位置检测器、以及由所有相机共享的一个遮蔽管理器提供多个相机。这种配置可以用于这样的实例:其中,多个相机彼此邻近地安装在相同的一般位置处以捕获相同区域的不同视图(例如,安装在街道路口的相应拐角处)。在其它示例中,多个相机中的每一个都可以被提供有相应的无线收发器、地理位置检测器、以及遮蔽管理器。在又一个示例中,可以提供相应的和共享的组件的任何混合(例如,用于多个相机、多个无线收发器、以及多个地理位置检测器的一个遮蔽管理器116)。图5的示例遮蔽管理器的结构和操作实质上类似于上面结合图4所描述的遮蔽管理器116的结构和操作,并且可以以任何合适的方式适于与多个相机、多个无线收发器、多个地理位置检测器、和/或多个遮蔽管理器一起使用。因此,为了简洁起见,下面不重复对如图5所示的遮蔽管理器116的组件的完整详细描述。相反,感兴趣的读者参考结合图4提供的对应结构的上述描述。
尽管在图4和5中示出了实现图1和2的固定跟踪器102a-d和/或遮蔽管理器116的示例方式(其用于基于标签载体(例如,图1-3的标签载体104)的选择性隐私和/或地理位置来生成遮蔽图像(例如,图1-5的遮蔽图像132)),但是在图4和5中示出的元件、过程和/或设备中的一个或多个可以以任何其它方式来组合、分割、重新安排、省略、消除和/或实现。此外,图1、2、4和5的示例相机110、510、示例无线收发器112、512、示例地理位置检测器114、514、示例模糊生成器118、518、示例CNN特征检测器406a-c、示例特征识别器408a-c、示例地理位置比较器410a-c、示例图像输出选择器412、示例参考特征数据库428a-c、示例逻辑或门424、442、示例逻辑与门436a-c和/或更一般地,示例固定跟踪器102a-d和/或示例遮蔽管理器116可以通过硬件、软件、固件和/或硬件、软件和/或固件的任何组合来实现。因此,例如,图1、2、4和5的示例相机110、510、示例无线收发器112、512、示例地理位置检测器114、514、示例模糊生成器118、518、示例CNN特征检测器406a-c、示例特征识别器408a-c、示例地理位置比较器410a-c、示例图像输出选择器412、示例参考特征数据库428a-c、示例逻辑或门424、442、示例逻辑与门436a-c和/或更一般地示例固定跟踪器102a-d和/或示例遮蔽管理器116中的任一个可以由一个或多个模拟或数字电路、逻辑电路、可编程处理器、专用集成电路(ASIC)、可编程逻辑器件(PLD)和/或现场可编程逻辑器件(FPLD)来实现。当阅读本专利的装置或系统权利要求中的任一项以涵盖纯软件和/或固件实施方式时,示例相机110、510、示例无线收发器112、512、示例地理位置检测器114、514、示例模糊生成器118、518、示例CNN特征检测器406a-c、示例特征识别器408a-c、示例地理位置比较器410a-c、示例图像输出选择器412、示例参考特征数据库428a-c、示例逻辑或门424、442、示例逻辑与门436a-c、以及示例遮蔽管理器116中的至少一个被特此明确定义,以包括非暂时性计算机可读存储设备或存储磁盘,例如存储器、数字多功能盘(DVD)、压缩盘(CD)、蓝光盘等,包括软件和/或固件。此外,图1、2、4和5的示例固定跟踪器102a-d和/或示例遮蔽管理器116可以包括一个或多个元件、过程和/或设备(附加于或代替图1、2、4和5中示出的元件、过程和/或设备)和/或可以包括任何和所有所示的元件、过程和设备中的一个以上。如本文所使用的,短语“通信”包括其变体包含直接通信和/或通过一个或多个中间组件的间接通信,并且不要求直接物理(例如,有线)通信和/或恒定通信,而是另外地包括以周期性间隔、预定间隔、非周期性间隔和/或作为一次性事件的选择性通信。
在本文所公开的示例中,特征检测单元可以由示例CNN特征检测器406a-c中的一个或多个来实现,特征识别单元可以由示例特征识别器408a-c中的一个或多个来实现,遮蔽生成单元可以由模糊生成器118、518中的一个或多个来实现。同样在本文所公开的示例中,图像输出选择单元可以由示例图像输出选择器412来实现,地理定位单元可以由示例地理位置检测器114、514中的一个或多个来实现,并且地理位置比较单元可以由示例地理位置比较器410a-c中的一个或多个来实现。
图6是代表机器可读指令的流程图,这些机器可读指令可以被执行以实现图1和2的固定跟踪器102a-d和/或图1、4和5的遮蔽管理器116,以用于基于标签载体(例如,图1-3的标签载体104)的选择性隐私、地理位置和/或观察时间,来生成遮蔽图像(例如,图1-5的遮蔽图像132)。在此示例中,机器可读指令实现程序以供处理器(例如,下面结合图7所讨论的示例处理器平台700中示出的处理器712)执行。该程序可以被体现在存储在非暂时性计算机可读存储介质(例如,CD-ROM、软盘、硬盘驱动器、数字多功能盘(DVD)、蓝光盘、或与处理器712相关联的存储器)上的软件,但是整个程序和/或其部分可以可替代地由除处理器712之外的设备执行和/或被体现在固件或专用硬件中。此外,尽管参考图6所示的流程图描述了示例程序,但是可以可替代地使用实现示例固定跟踪器102a-d和/或示例遮蔽管理器116的许多其它方法。例如,可以改变框的执行顺序,和/或可以改变、消除或组合所描述的框中的一些。另外地或可替代地,任何或所有框可以由一个或多个硬件电路(例如,分立和/或集成模拟和/或数字电路、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、比较器、运算放大器(op-amp)、逻辑电路等)来实现,这些硬件电路被构造以在不执行软件或固件的情况下执行对应的操作。
如上面所提到的,图6的示例过程可以使用存储在非暂时性计算机和/或机器可读介质(例如,硬盘驱动器、闪速存储器、只读存储器、压缩盘、数字多功能盘、高速缓存、随机存取存储器、和/或任何其它存储设备或存储磁盘)上的编码指令(例如,计算机和/或机器可读指令)来实现,其中,在任何持续时间内(例如,延长的时间段、永久地、短暂的实例、临时缓冲、和/或信息的缓存)存储信息。如本文所使用的,术语非暂时性计算机可读介质被明确定义为包括任何类型的计算机可读存储设备和/或存储磁盘,并且排除传播信号并且排除传输介质。
“包括”和“包含”(以及其所有形式和时态)在本文中用于作为开放式术语。因此,每当权利要求列出任何形式的“包括”或“包含”(例如,包括、包含、含有、具有等)之后的任何内容作为序言或在任何种类的权利要求记载内列出时,应当理解的是附加元素、术语等可以在不超出对应权利要求或记载的范围的情况下存在。如本文所使用的,当短语“至少”被用作例如权利要求的序言中的过渡术语时,其以与开放式术语“包括”和“包含”相同的方式是开放式的。术语“和/或”当例如以诸如A、B和/或C之类的形式使用时,指代A、B、C的任何组合或子集,例如(1)仅A、(2)仅B、(3)仅C、(4)A与B、(5)A与C、(6)B与C、以及(7)A与B以及与C。如本文所使用的,在描述结构、组件、项目、对象和/或事物的上下文中,短语“A和B中的至少一个”旨在指代包括(1)至少一个A、(2)至少一个B、以及(3)至少一个A和至少一个B中的任一个的实施方式。类似地,如本文所使用的,在描述结构、组件、项目、对象和/或事物的上下文中,短语“A或B中的至少一个”旨在指代包括(1)至少一个A、(2)至少一个B、以及(3)至少一个A和至少一个B中的任一个的实施方式。如本文所使用的,在描述过程、指令、动作、活动和/或步骤的实施或执行的上下文中,短语“A和B中的至少一个”旨在指代包括(1)至少一个A、(2)至少一个B、以及(3)至少一个A和至少一个B中的任一个的实施方式。类似地,如本文所使用的,在描述过程、指令、动作、活动和/或步骤的实施或执行的上下文中,短语“A或B中的至少一个”旨在指代包括(1)至少一个A、(2)至少一个B、以及(3)至少一个A和至少一个B中的任一个的实施方式。
图6的示例程序从框602开始,在框602处,一个或多个CNN特征检测器访问可视化捕获。例如,图4的CNN特征检测器406a-c中的一个或多个访问由相机102a输出的可视化捕获414(例如,图像和/或视频帧),如上面结合图4所描述的。示例CNN特征检测器406a-c检测可视化捕获414中的一个或多个特征(框604)。例如,如上面所描述的,CNN特征检测器406a-c检测可视化捕获414中的一个或多个特征。一个或多个特征识别器确定检测到的特征中的任何一个或多个是否基于参考特征图像而被识别为可显示的(框606)。例如,特征识别器408a-c中的一个或多个将来自CNN特征检测器406a-c的对应特征与来自参考特征数据库428a-c中的对应参考特征数据库的参考特征图像进行比较,如上面结合图4所描述的,以确定检测到的特征中的任何一个或多个是否是可显示的。以这种方式,特征识别器408a-c可以基于将可视化捕获414中的第一特征和第二特征与存储在参考特征数据库428a-c中的参考特征进行比较,来确定是可显示特征的一个或多个第一特征并且确定是不可显示特征的一个或多个第二特征。如果特征识别器408a-c在框606处确定检测到的特征中没有一个是可显示的,则控制返回到框602以处理另一个可视化捕获414。在这样的示例中,固定跟踪器102a既不输出原始图像,也不输出遮蔽图像,这是因为可视化捕获中的任何特征都不能经由例如客户端设备128进行显示。在一些示例中,如果例如不存在要处理的进一步的可视化捕获,则图6的示例过程可以结束。
如果特征识别器408a-c在框606处确定检测到的特征中的一个或多个是可显示的,则控制进行到框608,在框608处,一个或多个地理位置比较器基于地理位置和/或时间来确定任何一个或多个所识别特征是否是可显示的(框608)。例如,地理位置比较器410a-c中的一个或多个将对应于所识别特征的地理位置坐标438(图4)(和/或时间戳)与来自参考特征数据库428a-c的参考地理位置坐标(和/或参考时间)进行比较,以基于所识别特征的地理位置(和/或时间戳)来确定所识别特征中的任何一个或多个是否是可显示的。如果地理位置比较器410a-c基于地理位置(和/或时间戳)来确定没有任何所识别特征是可显示的,则控制返回到框602以处理另一个可视化捕获414。在这样的示例中,固定跟踪器102a既不输出原始图像也不输出遮蔽图像,这是因为可视化捕获中的任何特征都不可以经由例如客户端设备128进行显示。在一些示例中,如果例如不存在要处理的另外的可视化捕获,则图6的示例过程可以结束。
如果地理位置比较器410a-c在框608处基于地理位置(和/或时间戳)来确定所识别特征中的一个或多个是可显示的,则控制进行到框610,在框610处,遮蔽管理器116指示一个或多个可显示特征。例如,特征识别器408a-c可以输出相应的已知特征确认值432a-c,并且地理位置比较器410a-c可以输出相应的地理位置确认值,以指示经由客户端设备(例如,图1-3的客户端设备128)可显示的所识别特征中的一个或多个。另外,CNN特征检测器406a-c中的对应的CNN特征检测器和/或特征识别器408a-c中的对应的特征识别器可以为可显示和/或不可显示特征提供图像位置和尺寸信息(I-LOC)420a-c(例如,存储在寄存器312中的原点、宽度、以及高度位置和尺寸信息,如上面结合图3所描述的),使得模糊生成器118可以基于图像位置和尺寸信息(I-LOC)420a-c来生成遮蔽图像132,以显示可显示特征,同时遮掩或隐蔽不可显示特征。
在框612处,遮蔽管理器116确定一个或多个特征是否是可显示的。例如,逻辑或门442(图4)基于来自逻辑与门436a-c(图4)中的对应的一个的输入值来确定特征是否是可显示的。如果遮蔽管理器116在框612处确定一个或多个特征是可显示的,则控制进行到框614,在框614处,图像输出选择器412(图4)选择缺乏或没有遮蔽可显示特征的原始图像作为输出。例如,图像输出选择器412选择可视化捕获414作为原始图像,以用于在不遮蔽或模糊由特征识别器408a-c针对原始图像检测到的可显示特征的情况下进行输出,然后提供原始图像以用于经由客户端设备128进行显示。
可替代地,当遮蔽管理器116在框612处确定一个或多个特征不是可显示的时,控制进行到框616,在框616处,遮蔽管理器116指示一个或多个不可显示特征。例如,特征识别器408a-c可以输出相应的已知特征确认值432a-c,并且地理位置比较器410a-c可以输出相应的地理位置确认值作为零二进制值,以指示对于客户端设备128不可显示的所识别特征中的一个或多个。在一些示例中,不可显示特征是不可显示的,这是因为它们未被特征识别器408a-c识别为已知特征(例如,特征识别器408a-c将已知特征确认值432a-c输出为零二进制值)。示例模糊生成器118生成遮蔽图像(框618)。例如,模糊生成器118生成遮蔽图像132(图1-5),以显示可显示特征并遮蔽不可显示特征(例如,基于可显示和/或不可显示特征的对应的图像位置和尺寸信息(I-LOC)420a-c))。图像输出选择器412(图4)选择遮蔽图像132作为输出(框620)。例如,当特征识别器408a-c检测到对应于可视化捕获414的一个或多个不可显示特征(其必须在提供可视化捕获414以经由客户端设备128进行显示之前被遮蔽或模糊)时,图像输出选择器412选择遮蔽图像132。在框618处或框620处选择图像之后,通信接口404将所选择的图像发送给云服务126(框622)。在一些示例中,通信接口404还发送在所选择的图像中示出的标签载体104的地理位置信息,和/或指示由相机110捕获的所选择图像的时间和/或日期的时间戳。以这种方式,云服务126可以提供可视化确认、地理位置、和/或时间/日期信息作为标签载体104的状态信息。图6的示例过程然后结束。
图7是被构造为执行图6的指令的示例处理器平台700的框图,以实现图1和2的固定跟踪器102a-d和/或图1、4和5的遮蔽管理器116,以用于基于标签载体(例如,图1-3的标签载体104)的选择性隐私、地理位置和/或观察时间来生成遮蔽图像(例如,图1-5的遮蔽图像132)。处理器平台700可以是例如服务器、个人计算机、移动设备(例如,移动电话、智能电话、诸如iPadTM之类的平板电脑)、个人数字助理(PDA)、互联网装置、数字视频录像机、游戏控制台、个人视频录像机、机顶盒、或任何其它类型的计算设备。
所示的示例的处理器平台700包括处理器712。所示的示例的处理器712是硬件。例如,处理器712可以由来自任何期望的系列或制造商的一个或多个集成电路、逻辑电路、微处理器或控制器来实现。硬件处理器712可以是基于半导体(例如,基于硅)的设备。在此示例中,处理器712实现示例地理位置检测器114、514、示例模糊生成器118、518、示例CNN特征检测器406a-c、示例特征识别器408a-c、示例地理位置比较器410a-c、示例图像输出选择器412、示例参考特征数据库428a-c、示例逻辑或门424、442、示例逻辑与门436a-c、以及示例遮蔽管理器116。
所示的示例的处理器712包括本地存储器713(例如,高速缓存)。所示的示例的处理器712经由总线718与包括易失性存储器714和非易失性存储器716的主存储器通信。易失性存储器714可以由同步动态随机存取存储器(SDRAM)、动态随机存取存储器(DRAM)、RAMBUS动态随机存取存储器(RDRAM)、和/或任何其它类型的随机存取存储器设备来实现。非易失性存储器716可以由闪速存储器和/或任何其它期望类型的存储器设备来实现。对主存储器714、716的访问由存储器控制器控制。
所示的示例的处理器平台700还包括接口电路720。接口电路720可以由任何类型的接口标准(例如,以太网接口、通用串行总线(USB)、和/或快速PCI接口)来实现。在所示的示例中,接口电路720实现图1、2、4和5的无线收发器112和/或图5的无线收发器512。
在所示的示例中,一个或多个输入设备722被连接到接口电路720。输入设备722允许用户向处理器712中输入数据和/或命令。输入设备可以由例如音频传感器、麦克风、相机(静止或视频)、键盘、按钮、鼠标、触摸屏、轨迹板、轨迹球、isopoint和/或语音识别系统来实现。在所示的示例中,输入设备722实现图1-5的相机110和/或图5的相机510。
一个或多个输出设备724也被连接到所示的示例的接口电路720。可以例如通过显示设备(例如,发光二极管(LED)、有机发光二极管(OLED)、液晶显示器、阴极射线管显示器(CRT)、触摸屏、触觉输出设备、打印机和/或扬声器)来实现输出设备724。因此,所示的示例的接口电路720通常包括图形驱动卡、图形驱动芯片、和/或图形驱动处理器。
所示的示例的接口电路720还包括通信设备,例如发射器、接收器、收发器、调制解调器、和/或网络接口卡,以促进经由网络726(例如,以太网连接、数字用户线路(DSL)、电话线、同轴电缆、蜂窝电话系统等)与外部机器(例如,任何类型的计算设备)的数据交换。
所示的示例的处理器平台700还包括用于存储软件和/或数据的一个或多个大容量存储设备728。这样的大容量存储设备728的示例包括软盘驱动器、硬盘驱动器、压缩盘驱动器、蓝光磁盘驱动器、RAID系统、以及数字多功能盘(DVD)驱动器。
代表图6的机器可读指令的编码指令732可以被存储在大容量存储设备728、易失性存储器714、非易失性存储器716、和/或可移动有形计算机可读存储介质(例如,CD或DVD)中。
根据上述内容,将理解的是,已经公开了示例方法、装置和制品,这些方法、装置和制品在通过网络(例如,通过互联网到云服务)发送标签载体(例如,可显示特征)的可视化捕获之前,在固定跟踪器中生成遮蔽图像。因此,在标签载体的可视化捕获的传输期间,不可显示特征的身份或隐私受到保护。因此,即使遮蔽图像在固定跟踪器和云服务之间的传输期间被第三方截获,根据遮蔽图像,不可显示特征的图像对于第三方也是无法辨别或不可见的。以这种方式,不可显示特征的身份或隐私不会被无意地暴露于连接到互联网的其它联网设备或计算机,这些联网设备或计算机可能在传输期间恶意地或无意地访问遮蔽图像。另外,在分布式固定跟踪器中而不是在云服务处生成遮蔽图像卸载了来自云服务的处理要求。例如,机器视觉分析和隐私遮蔽生成过程的处理要求分布于多个固定跟踪器,使得每个固定跟踪器可以将其处理能力用于对可视化捕获的机器视觉分析,并且生成遮蔽图像,使得云服务不需要被配备有针对从大量联网相机接收的大量可视化捕获执行这样的机器视觉分析和隐私遮蔽生成过程所需的显著的附加CPU(中央处理单元)、GPU(图形处理单元)、和/或存储器资源。另外,当在分布式固定跟踪器处并行执行而不是在诸如云服务之类的中心位置中串行执行时,机器视觉分析和隐私遮蔽生成过程可以被更快地完成。
以下内容涉及本文所公开的进一步示例。
示例1是用于选择性地生成遮蔽图像的装置。示例1的装置包括卷积神经网络检测器,其用于检测由相机捕获的图像中的第一特征和第二特征;特征识别器,其用于通过将图像的第一特征和第二特征与存储在存储器中的参考特征图像进行比较,来确定第一特征是可显示特征而第二特征是不可显示特征;以及模糊生成器,其用于生成遮蔽图像以显示可显示特征并遮蔽不可显示特征。
在示例2中,示例1的主题可以可选地包括图像输出选择器,其用于:当特征识别器检测到不可显示特征时,选择遮蔽图像;以及当特征识别器没有检测到对应于原始图像的不可显示特征时,选择没有遮蔽的原始图像。
在示例3中,示例1-2中的任何一个或多个的主题可以可选地包括卷积神经网络检测器,其用于确定对应于不可显示特征的位置信息和尺寸信息,并且模糊生成器用于基于位置信息和尺寸信息来遮蔽不可显示特征。
在示例4中,示例1-3中的任何一个或多个的主题可以可选地包括:可显示特征和不可显示特征是面部、对象或车辆中的至少一个。
在示例5中,示例1-4中的任何一个或多个的主题可以可选地包括地理位置检测器,其用于提供对应于第一特征的地理位置的地理位置坐标。
在示例6中,示例1-5中的任何一个或多个的主题可以可选地包括地理位置比较器,其用于基于对应于第一特征的地理位置坐标与对应于存储器中的参考特征图像中的一个的参考地理位置坐标相匹配来确定第一特征是可显示的。
在示例7中,示例1-6中的任何一个或多个的主题可以可选地包括连接存储器的一个或多个处理器;以及连接一个或多个处理器的网络接口,所述一个或多个处理器用于实现卷积神经网络检测器、特征识别器、以及模糊生成器。
在示例8中,示例1-7中的任何一个或多个的主题可以可选地包括:遮蔽不可显示特征是模糊、遮掩、混淆、隐蔽或隐藏不可显示特征中的至少一种。
在示例9中,示例1-8中的任何一个或多个的主题可以可选地包括:遮蔽不可显示特征是基于以下操作中的至少一种:更改图像的像素、替换图像的像素、或从图像中裁剪掉不可显示特征。
示例10是用于选择性地生成遮蔽图像的装置。示例10的装置包括:特征检测单元,其用于检测由相机捕获的图像中的第一特征和第二特征;特征识别单元,其用于通过将图像的第一特征和第二特征与存储在存储器中的参考特征图像进行比较,来确定第一特征是可显示特征而第二特征是不可显示特征;以及遮蔽生成单元,其用于生成遮蔽图像以显示可显示特征并遮蔽不可显示特征。
在示例11中,示例10的主题可以可选地包括图像输出选择单元,其用于:当特征识别单元检测到不可显示特征时,选择遮蔽图像;以及当特征识别单元没有检测到对应于原始图像的不可显示特征时,选择没有遮蔽的原始图像。
在示例12中,示例10-11中的任何一个或多个的主题可以可选地包括:遮蔽生成单元用于基于可显示特征的位置信息和尺寸信息,来在遮蔽图像中生成隐私遮蔽,可显示特征的显示和不可显示特征的遮蔽将基于隐私遮蔽。
在示例13中,示例10-12中的任何一个或多个的主题可以可选地包括:可显示特征和不可显示特征是面部、对象或车辆中的至少一个。
在示例14中,示例10-13中的任何一个或多个的主题可以可选地包括地理定位单元,其用于提供对应于第一特征的地理位置的地理位置坐标。
在示例15中,示例10-14中的任何一个或多个的主题可以可选地包括地理位置比较单元,其用于基于对应于第一特征的地理位置坐标与对应于存储器中的参考特征图像中的一个的参考地理位置坐标相匹配来确定第一特征是可显示的。
在示例16中,示例10-15中的任何一个或多个的主题可以可选地包括:遮蔽不可显示特征是模糊、遮掩、混淆、隐蔽或隐藏不可显示特征中的至少一种。
在示例17中,示例10-16中的任何一个或多个的主题可以可选地包括:遮蔽不可显示特征是基于以下操作中的至少一种:更改图像的像素、替换图像的像素、或从图像中裁剪掉不可显示特征。
在示例18中,示例10-17中的任何一个或多个的主题可以可选地包括连接存储器的一个或多个处理器;以及连接一个或多个处理器的网络接口,所述一个或多个处理器用于实现特征检测单元、特征识别单元、以及遮蔽生成单元。
示例19是一种包括指令的非暂时性计算机可读存储介质,这些指令当被执行时使得一个或多个处理器至少:经由卷积神经网络检测由相机捕获的图像中的第一特征和第二特征;通过将图像的第一特征和第二特征与存储器中存储的参考特征图像进行比较,来确定第一特征是可显示特征而第二特征是不可显示特征;以及生成遮蔽图像以显示可显示特征并遮蔽不可显示特征。
在示例20中,示例19的主题可以可选地包括所述指令被进一步用于使得所述一个或多个处理器:基于确定第二特征是不可显示特征定来选择遮蔽图像;以及当在原始图像中没有检测到不可显示特征时,选择没有遮蔽的原始图像。
在示例21中,示例19-20中的任何一个或多个的主题可以可选地包括所述指令被进一步用于使得一个或多个处理器:确定对应于可显示特征的位置信息和尺寸信息;以及基于可显示特征的位置信息和尺寸信息来在遮蔽图像中生成隐私遮蔽,该遮蔽图像将基于隐私遮蔽。
在示例22中,示例19-21中的任何一个或多个的主题可以可选地包括:可显示特征和不可显示特征是面部、对象或车辆中的至少一个。
在示例23中,示例19-22中的任何一个或多个的主题可以可选地包括:指令被进一步用于使得一个或多个处理器:提供对应于第一特征的地理位置的地理位置坐标。
在示例24中,示例19-23中的任何一个或多个的主题可以可选地包括:指令被进一步用于使得一个或多个处理器:基于对应于第一特征的地理位置坐标与对应于存储器中的参考特征图像中的一个的参考地理位置坐标相匹配来确定第一特征是可显示的。
在示例25中,示例19-24中的任何一个或多个的主题可以可选地包括:遮蔽不可显示特征是模糊、遮掩、混淆、隐蔽或隐藏不可显示特征中的至少一种。
在示例26中,示例19-25中的任何一个或多个的主题可以可选地包括:遮蔽不可显示特征是基于以下操作中的至少一种:更改图像的像素、替换图像的像素、或从图像中裁剪掉不可显示特征。
示例27是用于选择性地生成遮蔽图像的方法。示例27的方法包括:经由卷积神经网络检测由相机捕获的图像中的第一特征和第二特征;通过将图像的第一特征和第二特征与存储在存储器中的参考特征图像进行比较,来通过利用处理器执行指令确定第一特征是可显示特征,而第二特征是不可显示特征;以及通过利用处理器执行指令来生成遮蔽图像,以显示可显示特征并遮蔽不可显示特征。
在示例28中,示例27的主题可以可选地包括:基于检测到不可显示特征来选择遮蔽图像;以及当在原始图像中未检测到不可显示特征时,选择没有遮蔽的原始图像。
在示例29中,示例27-28中的任何一个或多个的主题可以可选地包括:确定对应于可显示特征的位置信息和尺寸信息;以及基于可显示特征的位置信息和尺寸信息来在遮蔽图像中生成隐私遮蔽,该遮蔽图像将基于隐私遮蔽。
在示例30中,示例27-29中的任何一个或多个的主题可以可选地包括:可显示特征和不可显示特征是面部、对象或车辆中的至少一个。
在示例31中,示例27-30中的任何一个或多个的主题可以可选地包括:提供对应于第一特征的地理位置的地理位置坐标。
在示例32中,示例27-31中的任何一个或多个的主题可以可选地包括:基于对应于第一特征的地理位置坐标与对应于存储器中的参考特征图像中的一个的参考地理位置坐标相匹配来确定第一特征是可显示的,。
在示例33中,示例27-32中的任何一个或多个的主题可以可选地包括:遮蔽不可显示特征是模糊、遮掩、混淆、隐蔽或隐藏不可显示特征中的至少一种。
在示例34中,示例27-33中的任何一个或多个的主题可以可选地包括:遮蔽不可显示特征是基于以下操作中的至少一种:更改图像的像素、替换图像的像素、或从图像中裁剪掉不可显示特征。
尽管本文已经公开了某些示例方法、装置和制品,但是本专利的覆盖范围不限于此。相反,本专利涵盖了很大程度上落入本专利的权利要求书的范围内的所有方法、装置和制品。
Claims (34)
1.一种用于选择性地生成遮蔽图像的装置,所述装置包括:
卷积神经网络检测器,其用于检测由相机捕获的图像中的第一特征和第二特征;
特征识别器,其用于通过将所述图像的所述第一特征和所述第二特征与存储在存储器中的参考特征图像进行比较,来确定所述第一特征是可显示特征并且所述第二特征是不可显示特征;以及
模糊生成器,其用于生成所述遮蔽图像以显示所述可显示特征并遮蔽所述不可显示特征。
2.根据权利要求1所述的装置,进一步包括图像输出选择器,其用于:
当所述特征识别器检测到所述不可显示特征时,选择所述遮蔽图像;以及
当所述特征识别器没有检测到对应于原始图像的不可显示特征时,选择没有遮蔽的所述原始图像。
3.根据权利要求1所述的装置,其中,所述卷积神经网络检测器用于确定对应于所述不可显示特征的位置信息和尺寸信息,并且所述模糊生成器用于基于所述位置信息和所述尺寸信息来遮蔽所述不可显示特征。
4.根据权利要求1所述的装置,其中,所述可显示特征和所述不可显示特征是面部、对象或车辆中的至少一个。
5.根据权利要求1所述的装置,进一步包括地理位置检测器,其用于提供对应于所述第一特征的地理位置的地理位置坐标。
6.根据权利要求5所述的装置,进一步包括地理位置比较器,其用于基于对应于所述第一特征的所述地理位置坐标与对应于所述存储器中的所述参考特征图像中的一个的参考地理位置坐标相匹配,来确定所述第一特征是可显示的。
7.根据权利要求1所述的装置,进一步包括:
连接所述存储器的一个或多个处理器;以及
连接所述一个或多个处理器的网络接口,所述一个或多个处理器用于实现所述卷积神经网络检测器、所述特征识别器以及所述模糊生成器。
8.根据权利要求1所述的装置,其中,遮蔽所述不可显示特征是模糊、遮掩、混淆、隐蔽或隐藏所述不可显示特征中的至少一种。
9.根据权利要求1所述的装置,其中,遮蔽所述不可显示特征基于以下操作中的至少一种:更改所述图像的像素、替换所述图像的像素、或从所述图像中裁剪掉所述不可显示特征。
10.一种用于选择性地生成遮蔽图像的装置,所述装置包括:
特征检测单元,其用于检测由相机捕获的图像中的第一特征和第二特征;
特征识别单元,其用于通过将所述图像的所述第一特征和所述第二特征与存储在存储器中的参考特征图像进行比较,来确定所述第一特征是可显示特征并且所述第二特征是不可显示特征;以及
遮蔽生成单元,其用于生成所述遮蔽图像以显示所述可显示特征并遮蔽所述不可显示特征。
11.根据权利要求10所述的装置,进一步包括图像输出选择单元,其用于:
当所述特征识别单元检测到所述不可显示特征时,选择所述遮蔽图像;以及
当所述特征识别单元没有检测到对应于原始图像的不可显示特征时,选择没有遮蔽的所述原始图像。
12.根据权利要求10所述的装置,其中,所述遮蔽生成单元用于基于所述可显示特征的位置信息和尺寸信息,来在所述遮蔽图像中生成隐私遮蔽,所述可显示特征的显示和所述不可显示特征的遮蔽将基于所述隐私遮蔽。
13.根据权利要求10所述的装置,其中,所述可显示特征和所述不可显示特征是面部、对象或车辆中的至少一个。
14.根据权利要求10所述的装置,进一步包括地理定位单元,其用于提供对应于所述第一特征的地理位置的地理位置坐标。
15.根据权利要求14所述的装置,进一步包括地理位置比较单元,其用于基于对应于所述第一特征的所述地理位置坐标与对应于所述存储器中的所述参考特征图像中的一个的参考地理位置坐标相匹配,来确定所述第一特征是可显示的。
16.根据权利要求10所述的装置,其中,遮蔽所述不可显示特征是模糊、遮掩、混淆、隐蔽或隐藏所述不可显示特征中的至少一种。
17.根据权利要求10所述的装置,其中,遮蔽所述不可显示特征基于以下操作中的至少一种:更改所述图像的像素、替换所述图像的像素、或从所述图像中裁剪掉所述不可显示特征。
18.根据权利要求10所述的装置,进一步包括:
连接所述存储器的一个或多个处理器;以及
连接所述一个或多个处理器的网络接口,所述一个或多个处理器用于实现所述特征检测单元、所述特征识别单元、以及所述遮蔽生成单元。
19.一种非暂时性计算机可读存储介质,包括指令,所述指令当被执行时使得一个或多个处理器至少:
经由卷积神经网络检测由相机捕获的图像中的第一特征和第二特征;
通过将所述图像的所述第一特征和所述第二特征与存储在存储器中的参考特征图像进行比较,来确定所述第一特征是可显示特征并且所述第二特征是不可显示特征;以及
生成遮蔽图像以显示所述可显示特征并遮蔽所述不可显示特征。
20.根据权利要求19所述的非暂时性计算机可读存储介质,其中,所述指令被进一步用于使得所述一个或多个处理器:
基于确定所述第二特征是所述不可显示特征来选择所述遮蔽图像;以及
当在原始图像中没有检测到不可显示特征时,选择没有遮蔽的所述原始图像。
21.根据权利要求19所述的非暂时性计算机可读存储介质,其中,所述指令被进一步用于使得所述一个或多个处理器:
确定对应于所述可显示特征的位置信息和尺寸信息;以及
基于所述可显示特征的所述位置信息和所述尺寸信息,来在所述遮蔽图像中生成隐私遮蔽,所述遮蔽图像将基于所述隐私遮蔽。
22.根据权利要求19所述的非暂时性计算机可读存储介质,其中,所述可显示特征和所述不可显示特征是面部、对象或车辆中的至少一个。
23.根据权利要求19所述的非暂时性计算机可读存储介质,其中,所述指令被进一步用于使得所述一个或多个处理器:提供对应于所述第一特征的地理位置的地理位置坐标。
24.根据权利要求23所述的非暂时性计算机可读存储介质,其中,所述指令被进一步用于使得所述一个或多个处理器:基于对应于所述第一特征的所述地理位置坐标与对应于所述存储器中的所述参考特征图像中的一个的参考地理位置坐标相匹配,来确定所述第一特征是可显示的。
25.根据权利要求19所述的非暂时性计算机可读存储介质,其中,遮蔽所述不可显示特征是模糊、遮掩、混淆、隐蔽或隐藏所述不可显示特征中的至少一种。
26.根据权利要求19所述的非暂时性计算机可读存储介质,其中,遮蔽所述不可显示特征基于以下操作中的至少一种:更改所述图像的像素、替换所述图像的像素、或从所述图像中裁剪掉所述不可显示特征。
27.一种用于选择性地生成遮蔽图像的方法,所述方法包括:
经由卷积神经网络检测由相机捕获的图像中的第一特征和第二特征;
通过利用处理器执行指令以通过将所述图像的所述第一特征和所述第二特征与存储在存储器中的参考特征图像进行比较,来确定所述第一特征是可显示特征并且所述第二特征是不可显示特征;以及
通过利用所述处理器执行指令来生成遮蔽图像,以显示所述可显示特征并遮蔽所述不可显示特征。
28.根据权利要求27所述的方法,进一步包括:
基于检测到所述不可显示特征来选择所述遮蔽图像;以及
当在原始图像中没有检测到不可显示特征时,选择没有遮蔽的所述原始图像。
29.根据权利要求27所述的方法,进一步包括:
确定对应于所述可显示特征的位置信息和尺寸信息;以及
基于所述可显示特征的所述位置信息和所述尺寸信息,来在所述遮蔽图像中生成隐私遮蔽,所述遮蔽图像将基于所述隐私遮蔽。
30.根据权利要求27所述的方法,其中,所述可显示特征和所述不可显示特征是面部、对象或车辆中的至少一个。
31.根据权利要求27所述的方法,进一步包括:提供对应于所述第一特征的地理位置的地理位置坐标。
32.根据权利要求31所述的方法,进一步包括:基于对应于所述第一特征的所述地理位置坐标与对应于所述存储器中的所述参考特征图像中的一个的参考地理位置坐标相匹配,来确定所述第一特征是可显示的。
33.根据权利要求27所述的方法,其中,遮蔽所述不可显示特征是模糊、遮掩、混淆、隐蔽或隐藏所述不可显示特征中的至少一种。
34.根据权利要求27所述的方法,其中,遮蔽所述不可显示特征基于以下操作中的至少一种:更改所述图像的像素、替换所述图像的像素、或从所述图像中裁剪掉所述不可显示特征。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/139,871 US10915995B2 (en) | 2018-09-24 | 2018-09-24 | Methods and apparatus to generate masked images based on selective privacy and/or location tracking |
US16/139,871 | 2018-09-24 | ||
PCT/EP2019/074126 WO2020064326A1 (en) | 2018-09-24 | 2019-09-10 | Methods and apparatus to generate masked images based on selective privacy and/or location tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113168511A true CN113168511A (zh) | 2021-07-23 |
CN113168511B CN113168511B (zh) | 2024-04-12 |
Family
ID=68051747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980076188.9A Active CN113168511B (zh) | 2018-09-24 | 2019-09-10 | 用于生成遮蔽图像的方法和装置 |
Country Status (6)
Country | Link |
---|---|
US (3) | US10915995B2 (zh) |
EP (1) | EP3857436A1 (zh) |
KR (1) | KR20210064321A (zh) |
CN (1) | CN113168511B (zh) |
DE (1) | DE112019004764T5 (zh) |
WO (1) | WO2020064326A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11546181B1 (en) | 2021-09-13 | 2023-01-03 | International Business Machines Corporation | Contextually driven diversion enhancement framework |
US12006298B2 (en) | 2018-08-06 | 2024-06-11 | Aldeyra Therapeutics, Inc. | Polymorphic compounds and uses thereof |
US12029735B2 (en) | 2021-05-28 | 2024-07-09 | Aldeyra Therapeutics, Inc. | Polymorphic compounds and uses thereof |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10574890B2 (en) | 2018-01-12 | 2020-02-25 | Movidius Ltd. | Methods and apparatus to operate a mobile camera for low-power usage |
US10902274B2 (en) * | 2018-04-30 | 2021-01-26 | Adobe Inc. | Opting-in or opting-out of visual tracking |
EP3564900B1 (en) * | 2018-05-03 | 2020-04-01 | Axis AB | Method, device and system for a degree of blurring to be applied to image data in a privacy area of an image |
US10915995B2 (en) | 2018-09-24 | 2021-02-09 | Movidius Ltd. | Methods and apparatus to generate masked images based on selective privacy and/or location tracking |
WO2020106271A1 (en) * | 2018-11-19 | 2020-05-28 | Hewlett-Packard Development Company, L.P. | Protecting privacy in video content |
US11888002B2 (en) * | 2018-12-17 | 2024-01-30 | Meta Platforms Technologies, Llc | Dynamically programmable image sensor |
US11962928B2 (en) | 2018-12-17 | 2024-04-16 | Meta Platforms Technologies, Llc | Programmable pixel array |
EP3908963A1 (en) * | 2019-01-07 | 2021-11-17 | Mobius Labs GmbH | Automated capturing of images comprising a desired feature |
KR20200114275A (ko) * | 2019-03-28 | 2020-10-07 | 삼성전자주식회사 | 전자 장치 및 이미지에 포함된 개인 정보의 보안 방법 |
US11250606B2 (en) * | 2019-07-31 | 2022-02-15 | Grabango Co. | Privacy protection in vision systems |
US11321487B2 (en) * | 2019-08-23 | 2022-05-03 | International Business Machines Corporation | Contextual privacy policy implementation via digital blurring system |
US11935291B2 (en) | 2019-10-30 | 2024-03-19 | Meta Platforms Technologies, Llc | Distributed sensor system |
US11948089B2 (en) | 2019-11-07 | 2024-04-02 | Meta Platforms Technologies, Llc | Sparse image sensing and processing |
US11869262B1 (en) * | 2020-03-24 | 2024-01-09 | Amazon Technologies, Inc. | System for access control of image data using semantic data |
EP3905087B1 (en) * | 2020-04-27 | 2023-01-18 | Brighter AI Technologies GmbH | Method and system for selective and privacy-preserving anonymization |
CN111553320B (zh) * | 2020-05-14 | 2021-12-21 | 支付宝(杭州)信息技术有限公司 | 保护个人数据隐私的特征提取方法、模型训练方法及硬件 |
US11825228B2 (en) | 2020-05-20 | 2023-11-21 | Meta Platforms Technologies, Llc | Programmable pixel array having multiple power domains |
FR3114418A1 (fr) * | 2020-09-18 | 2022-03-25 | Data Smart Process | Masquage dynamique de zones privatives dans une caméra PTZ. |
CA3098755A1 (en) * | 2020-11-09 | 2022-05-09 | Pleora Technologies Inc. | Artificial intelligence functionality deployment system and method and system and method using same |
US11412156B1 (en) | 2021-11-29 | 2022-08-09 | Unity Technologies Sf | Increasing dynamic range of a virtual production display |
US20230345100A1 (en) * | 2022-04-20 | 2023-10-26 | Samsung Electronics Company, Ltd. | Systems and Methods for Implementing Privacy Filters with Variable Obfuscation for Video Communications |
EP4296974A1 (en) * | 2022-06-20 | 2023-12-27 | Axis AB | A method for object detection using cropped images |
CN115082758B (zh) * | 2022-08-19 | 2022-11-11 | 深圳比特微电子科技有限公司 | 目标检测模型的训练方法、目标检测方法、装置和介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685542A (zh) * | 2008-09-24 | 2010-03-31 | 索尼株式会社 | 电子设备、模糊图像分拣方法以及程序 |
US8345921B1 (en) * | 2009-03-10 | 2013-01-01 | Google Inc. | Object detection with false positive filtering |
US20170213112A1 (en) * | 2016-01-25 | 2017-07-27 | Adobe Systems Incorporated | Utilizing deep learning for automatic digital image segmentation and stylization |
CN107103317A (zh) * | 2017-04-12 | 2017-08-29 | 湖南源信光电科技股份有限公司 | 基于图像融合和盲反卷积的模糊车牌图像识别算法 |
CN107944450A (zh) * | 2017-11-16 | 2018-04-20 | 深圳市华尊科技股份有限公司 | 一种车牌识别方法及装置 |
US20180121768A1 (en) * | 2016-10-28 | 2018-05-03 | Adobe Systems Incorporated | Utilizing a digital canvas to conduct a spatial-semantic search for digital visual media |
US20180232580A1 (en) * | 2012-11-19 | 2018-08-16 | Mace Wolf | Image capture with privacy protection |
Family Cites Families (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003259189A (ja) * | 2002-03-01 | 2003-09-12 | Sony Corp | 撮像装置,画像処理方法 |
JP4403398B2 (ja) | 2004-09-08 | 2010-01-27 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2007110364A (ja) | 2005-10-13 | 2007-04-26 | Sony Corp | 情報処理装置、撮像装置、および情報処理方法、並びにコンピュータ・プログラム |
JP4627743B2 (ja) * | 2006-05-26 | 2011-02-09 | 株式会社ユニバーサルエンターテインメント | 入退出管理システム、並びに入退出管理装置 |
US20080049020A1 (en) * | 2006-08-22 | 2008-02-28 | Carl Phillip Gusler | Display Optimization For Viewer Position |
US8531521B2 (en) * | 2006-10-06 | 2013-09-10 | Sightlogix, Inc. | Methods and apparatus related to improved surveillance using a smart camera |
US8098904B2 (en) * | 2008-03-31 | 2012-01-17 | Google Inc. | Automatic face detection and identity masking in images, and applications thereof |
JP2010086265A (ja) * | 2008-09-30 | 2010-04-15 | Fujitsu Ltd | 受信装置、データ表示方法、および移動支援システム |
US8508520B2 (en) | 2009-07-09 | 2013-08-13 | Nvidia Corporation | Luminous power control of a light source of a multimedia processing system |
JP2013501292A (ja) * | 2009-08-04 | 2013-01-10 | ヴェサリス | 基準画像に対して対象画像を補正する画像処理方法及びその画像処理装置 |
US9417312B2 (en) * | 2009-11-18 | 2016-08-16 | Verizon Patent And Licensing Inc. | System and method for providing automatic location-based imaging using mobile and stationary cameras |
JP2011212347A (ja) * | 2010-03-31 | 2011-10-27 | Namco Bandai Games Inc | プログラム、情報記憶媒体、端末及びネットワークシステム |
US20120280790A1 (en) * | 2011-05-02 | 2012-11-08 | Apigy Inc. | Systems and methods for controlling a locking mechanism using a portable electronic device |
WO2011144096A2 (zh) * | 2011-05-26 | 2011-11-24 | 华为技术有限公司 | 获取服务的方法和终端、输入方法和设备、云服务卡及系统 |
JP5809891B2 (ja) | 2011-09-09 | 2015-11-11 | オリンパス株式会社 | 撮影装置 |
CN104025070A (zh) * | 2011-10-24 | 2014-09-03 | 施耐德电器工业公司 | 用于管理工业过程的系统和方法 |
EP2798574A4 (en) * | 2011-12-29 | 2016-03-02 | Intel Corp | SYSTEMS, METHOD AND DEVICE FOR OBTAINING INFORMATION FROM AN OBJECT SUBJECT TO A VEHICLE |
JP5962083B2 (ja) * | 2012-03-14 | 2016-08-03 | オムロン株式会社 | 領域抽出結果の表示方法及び画像処理装置 |
JP2013235080A (ja) * | 2012-05-08 | 2013-11-21 | Sony Corp | 画像表示装置、画像表示プログラム及び画像表示方法 |
JP5875463B2 (ja) * | 2012-05-21 | 2016-03-02 | キヤノン株式会社 | 撮像装置、マスク画像設定方法、および、プログラム |
US10129524B2 (en) | 2012-06-26 | 2018-11-13 | Google Llc | Depth-assigned content for depth-enhanced virtual reality images |
WO2014031560A1 (en) * | 2012-08-20 | 2014-02-27 | Jonathan Strimling | System and method for vehicle security system |
US9564049B2 (en) * | 2012-08-24 | 2017-02-07 | Traffic Emergency Displays, Inc. | Electronic traffic alert system |
US9007402B2 (en) * | 2012-09-18 | 2015-04-14 | Facebook, Inc. | Image processing for introducing blurring effects to an image |
TWI490818B (zh) * | 2013-01-02 | 2015-07-01 | Chunghwa Picture Tubes Ltd | 權重式影像強化方法以及系統 |
WO2014120198A1 (en) * | 2013-01-31 | 2014-08-07 | Hewlett-Packard Development Company, L.P. | Linking a roaming device to a network-enabled resource through a cloud service using an address obtained through a local interaction |
US11172126B2 (en) | 2013-03-15 | 2021-11-09 | Occipital, Inc. | Methods for reducing power consumption of a 3D image capture system |
WO2014144628A2 (en) | 2013-03-15 | 2014-09-18 | Master Lock Company | Cameras and networked security systems and methods |
JP5928402B2 (ja) * | 2013-04-19 | 2016-06-01 | 株式会社ダイフク | 走行車制御システム |
US10091419B2 (en) | 2013-06-14 | 2018-10-02 | Qualcomm Incorporated | Computer vision application processing |
JP6040878B2 (ja) * | 2013-07-08 | 2016-12-07 | 富士ゼロックス株式会社 | 印刷装置、印刷制御装置、印刷システム及びプログラム |
US10122747B2 (en) | 2013-12-06 | 2018-11-06 | Lookout, Inc. | Response generation after distributed monitoring and evaluation of multiple devices |
US9402018B2 (en) | 2013-12-17 | 2016-07-26 | Amazon Technologies, Inc. | Distributing processing for imaging processing |
US10068149B2 (en) * | 2013-12-27 | 2018-09-04 | Intel Corporation | Image processing utilizing reference images |
US20150189176A1 (en) | 2013-12-30 | 2015-07-02 | Lyve Minds, Inc. | Domain aware camera system |
US20150242405A1 (en) * | 2014-02-26 | 2015-08-27 | Sony Corporation | Methods, devices and systems for context-sensitive organization of media files |
US20150324686A1 (en) | 2014-05-12 | 2015-11-12 | Qualcomm Incorporated | Distributed model learning |
JP5707562B1 (ja) * | 2014-05-23 | 2015-04-30 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
US10504020B2 (en) | 2014-06-10 | 2019-12-10 | Sightline Innovation Inc. | System and method for applying a deep learning neural network to data obtained from one or more sensors |
KR102261552B1 (ko) | 2014-06-30 | 2021-06-07 | 삼성전자주식회사 | 음성 명령어 제공 방법 및 이를 지원하는 전자 장치 |
US11927874B2 (en) | 2014-07-01 | 2024-03-12 | Apple Inc. | Mobile camera system |
KR102205702B1 (ko) | 2014-07-30 | 2021-01-21 | 삼성전자주식회사 | 이미지 센서 및 이미지 센서를 구동하는 방법, 그리고 이를 이용한 영상 촬영 장치 |
US20160042668A1 (en) * | 2014-08-07 | 2016-02-11 | International Engine Intellectual Property Company, Llc | Vehicle wire installation devices and methods |
US9940533B2 (en) | 2014-09-30 | 2018-04-10 | Qualcomm Incorporated | Scanning window for isolating pixel values in hardware for computer vision operations |
US10515284B2 (en) | 2014-09-30 | 2019-12-24 | Qualcomm Incorporated | Single-processor computer vision hardware control and application execution |
US9621741B2 (en) | 2014-12-10 | 2017-04-11 | Intel Corporation | Techniques for context and performance adaptive processing in ultra low-power computer vision systems |
WO2016167796A1 (en) | 2015-04-17 | 2016-10-20 | Hewlett Packard Enterprise Development Lp | Hierarchical classifiers |
US9805739B2 (en) | 2015-05-15 | 2017-10-31 | Google Inc. | Sound event detection |
US10354133B2 (en) | 2015-08-26 | 2019-07-16 | Beijing Lejent Technology Co., Ltd. | Method for structural analysis and recognition of handwritten mathematical formula in natural scene image |
CN106911885B (zh) * | 2015-12-22 | 2021-04-13 | 深圳富泰宏精密工业有限公司 | 电子设备及照片拍摄方法 |
US9838641B1 (en) | 2015-12-30 | 2017-12-05 | Google Llc | Low power framework for processing, compressing, and transmitting images at a mobile image capture device |
US10732809B2 (en) | 2015-12-30 | 2020-08-04 | Google Llc | Systems and methods for selective retention and editing of images captured by mobile image capture device |
US9836484B1 (en) | 2015-12-30 | 2017-12-05 | Google Llc | Systems and methods that leverage deep learning to selectively store images at a mobile image capture device |
US10225511B1 (en) | 2015-12-30 | 2019-03-05 | Google Llc | Low power framework for controlling image sensor mode in a mobile image capture device |
US9802599B2 (en) | 2016-03-08 | 2017-10-31 | Ford Global Technologies, Llc | Vehicle lane placement |
US20170272660A1 (en) * | 2016-03-17 | 2017-09-21 | Casio Computer Co., Ltd. | Imaging device configured to control a region of imaging |
CN106021879A (zh) * | 2016-05-11 | 2016-10-12 | 沈阳东软医疗系统有限公司 | 提供医疗设备操作指导信息的方法及装置 |
US10181391B2 (en) * | 2016-05-26 | 2019-01-15 | Nanojehm Inc. | Image processing system and method of processing images |
US10757377B2 (en) | 2016-06-01 | 2020-08-25 | Pixart Imaging Inc. | Surveillance system and operation method thereof |
US10410097B2 (en) * | 2016-06-06 | 2019-09-10 | Mutualink, Inc. | System and method for distributed intelligent pattern recognition |
US11580380B2 (en) | 2016-08-19 | 2023-02-14 | Movidius Limited | Systems and methods for distributed training of deep learning models |
CN107145833A (zh) | 2017-04-11 | 2017-09-08 | 腾讯科技(上海)有限公司 | 人脸区域的确定方法和装置 |
US20180374105A1 (en) | 2017-05-26 | 2018-12-27 | Get Attached, Inc. | Leveraging an intermediate machine learning analysis |
US11823067B2 (en) | 2017-06-27 | 2023-11-21 | Hcl Technologies Limited | System and method for tuning and deploying an analytical model over a target eco-system |
CN107480611B (zh) | 2017-07-31 | 2020-06-30 | 浙江大学 | 一种基于深度学习卷积神经网络的裂缝识别方法 |
US10444578B2 (en) * | 2017-08-29 | 2019-10-15 | Novatek Microelectronics Corp. | Mask storing method for driving module and related image displaying method |
US10284789B2 (en) * | 2017-09-15 | 2019-05-07 | Sony Corporation | Dynamic generation of image of a scene based on removal of undesired object present in the scene |
WO2019079290A1 (en) * | 2017-10-18 | 2019-04-25 | Walmart Apollo, Llc | ENGINE OF GROUPED PURCHASING RULES |
US10574890B2 (en) | 2018-01-12 | 2020-02-25 | Movidius Ltd. | Methods and apparatus to operate a mobile camera for low-power usage |
US11526745B2 (en) | 2018-02-08 | 2022-12-13 | Intel Corporation | Methods and apparatus for federated training of a neural network using trusted edge devices |
US20190279082A1 (en) | 2018-03-07 | 2019-09-12 | Movidius Ltd. | Methods and apparatus to determine weights for use with convolutional neural networks |
US10815044B2 (en) * | 2018-04-04 | 2020-10-27 | 6D Bytes, Inc. | Automated food production kiosk |
US10609293B2 (en) * | 2018-08-20 | 2020-03-31 | Capital One Services, Llc | Real-time glare detection inside a dynamic region of an image |
US10915995B2 (en) | 2018-09-24 | 2021-02-09 | Movidius Ltd. | Methods and apparatus to generate masked images based on selective privacy and/or location tracking |
-
2018
- 2018-09-24 US US16/139,871 patent/US10915995B2/en active Active
-
2019
- 2019-09-10 CN CN201980076188.9A patent/CN113168511B/zh active Active
- 2019-09-10 WO PCT/EP2019/074126 patent/WO2020064326A1/en unknown
- 2019-09-10 KR KR1020217012173A patent/KR20210064321A/ko unknown
- 2019-09-10 DE DE112019004764.7T patent/DE112019004764T5/de active Pending
- 2019-09-10 EP EP19773361.1A patent/EP3857436A1/en active Pending
-
2020
- 2020-12-23 US US17/133,217 patent/US11423517B2/en active Active
-
2022
- 2022-08-15 US US17/887,998 patent/US11783086B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685542A (zh) * | 2008-09-24 | 2010-03-31 | 索尼株式会社 | 电子设备、模糊图像分拣方法以及程序 |
US8345921B1 (en) * | 2009-03-10 | 2013-01-01 | Google Inc. | Object detection with false positive filtering |
US20180232580A1 (en) * | 2012-11-19 | 2018-08-16 | Mace Wolf | Image capture with privacy protection |
US20170213112A1 (en) * | 2016-01-25 | 2017-07-27 | Adobe Systems Incorporated | Utilizing deep learning for automatic digital image segmentation and stylization |
US20180121768A1 (en) * | 2016-10-28 | 2018-05-03 | Adobe Systems Incorporated | Utilizing a digital canvas to conduct a spatial-semantic search for digital visual media |
CN107103317A (zh) * | 2017-04-12 | 2017-08-29 | 湖南源信光电科技股份有限公司 | 基于图像融合和盲反卷积的模糊车牌图像识别算法 |
CN107944450A (zh) * | 2017-11-16 | 2018-04-20 | 深圳市华尊科技股份有限公司 | 一种车牌识别方法及装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12006298B2 (en) | 2018-08-06 | 2024-06-11 | Aldeyra Therapeutics, Inc. | Polymorphic compounds and uses thereof |
US12029735B2 (en) | 2021-05-28 | 2024-07-09 | Aldeyra Therapeutics, Inc. | Polymorphic compounds and uses thereof |
US11546181B1 (en) | 2021-09-13 | 2023-01-03 | International Business Machines Corporation | Contextually driven diversion enhancement framework |
WO2023035898A1 (en) * | 2021-09-13 | 2023-03-16 | International Business Machines Corporation | Contextually driven diversion enhancement framework |
Also Published As
Publication number | Publication date |
---|---|
KR20210064321A (ko) | 2021-06-02 |
US11423517B2 (en) | 2022-08-23 |
US20220392024A1 (en) | 2022-12-08 |
DE112019004764T5 (de) | 2021-06-24 |
US20200098096A1 (en) | 2020-03-26 |
US20210118103A1 (en) | 2021-04-22 |
WO2020064326A1 (en) | 2020-04-02 |
EP3857436A1 (en) | 2021-08-04 |
CN113168511B (zh) | 2024-04-12 |
US10915995B2 (en) | 2021-02-09 |
US11783086B2 (en) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113168511B (zh) | 用于生成遮蔽图像的方法和装置 | |
US20210319582A1 (en) | Method(s) and System(s) for Vehicular Cargo Management | |
US10366586B1 (en) | Video analysis-based threat detection methods and systems | |
US11393212B2 (en) | System for tracking and visualizing objects and a method therefor | |
US9870511B2 (en) | Method and apparatus for providing image classification based on opacity | |
CN107886026B (zh) | 图形码处理方法及装置 | |
US10796567B1 (en) | Vehicle identification based on machine-readable optical marker | |
US20140241585A1 (en) | Systems, methods, and apparatus for obtaining information from an object attached to a vehicle | |
US20160148076A1 (en) | Method and system for automating an image rejection process | |
US20190073882A1 (en) | Systems and Methods of Detecting the Disturbing Trajectories of the Movement of Objects | |
Badura et al. | Intelligent traffic system: Cooperation of MANET and image processing | |
US11810064B2 (en) | Method(s) and system(s) for vehicular cargo management | |
US20080243425A1 (en) | Tracking target objects through occlusions | |
EP2816812A2 (en) | Method and system for gaze detection and advertisement information exchange | |
US11067683B2 (en) | Systems and methods for locating items within a facility | |
US9305233B2 (en) | Isotropic feature matching | |
US20220019779A1 (en) | System and method for processing digital images | |
CN110889352A (zh) | 图像模糊化处理方法、计算机装置及计算机可读存储介质 | |
US20220012461A1 (en) | Real-time geospatial tracking | |
Manjunatha et al. | Indian Road Lanes Detection Based on Regression and clustering using Video Processing Techniques | |
JP2023176647A (ja) | 情報処理装置、情報処理システム及び情報処理方法 | |
CN115359423A (zh) | 基于遥感图像的区域识别方法、装置、设备及存储介质 | |
CN112990012A (zh) | 一种遮挡条件下的工装颜色识别方法及系统 | |
CN113780043A (zh) | 目标检测方法、系统、计算机系统和计算机可读存储介质 | |
Page et al. | Information abstraction for enhanced image fusion based surveillance systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |