CN114095910A - 一种用于智能ar眼镜的防偷拍方法、设备以及介质 - Google Patents
一种用于智能ar眼镜的防偷拍方法、设备以及介质 Download PDFInfo
- Publication number
- CN114095910A CN114095910A CN202111364548.0A CN202111364548A CN114095910A CN 114095910 A CN114095910 A CN 114095910A CN 202111364548 A CN202111364548 A CN 202111364548A CN 114095910 A CN114095910 A CN 114095910A
- Authority
- CN
- China
- Prior art keywords
- information
- candid
- real
- light
- time image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000011521 glass Substances 0.000 title claims abstract description 94
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000012549 training Methods 0.000 claims description 29
- 238000001514 detection method Methods 0.000 claims description 25
- 238000003860 storage Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 238000007405 data analysis Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 8
- 238000012544 monitoring process Methods 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 235000002566 Capsicum Nutrition 0.000 description 2
- 239000006002 Pepper Substances 0.000 description 2
- 241000722363 Piper Species 0.000 description 2
- 235000016761 Piper aduncum Nutrition 0.000 description 2
- 235000017804 Piper guineense Nutrition 0.000 description 2
- 235000008184 Piper nigrum Nutrition 0.000 description 2
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 150000003839 salts Chemical class 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 206010027146 Melanoderma Diseases 0.000 description 1
- 241000519995 Stachys sylvatica Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/24—Reminder alarms, e.g. anti-loss alarms
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/10—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W8/00—Network data management
- H04W8/005—Discovery of network devices, e.g. terminals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请涉及一种用于智能AR眼镜的防偷拍方法、设备以及介质,涉及放偷拍监测领域,包括:获取灯光信息,所述灯光信息为智能AR眼镜拍照用闪光灯的灯光;对灯光信息所在位置进行检测,获取与所述灯光信息对应的偷拍设备的偷拍距离信息;基于对所述偷拍距离信息内的蓝牙设备进行扫描,获取所述偷拍设备的蓝牙设备信息;基于所述蓝牙设备信息,对所述偷拍设备信息进行配对连接,并在连接成功后,向所述偷拍设备发送警告信息。本申请具有保护智能AR眼镜使用者的个人肖像隐私的效果。
Description
技术领域
本申请涉及防偷拍检测的技术领域,尤其是涉及一种用于智能 AR 眼镜的防偷拍方法、设备以及介质。
背景技术
增强现实(Augmented Reality,简称AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。随着科技网络技术的发展,AR技术得到广泛应用和长足发展。其中最为常见的就是智能AR眼镜,智能AR眼镜属于眼镜+摄像头+闪光灯+微处理器+微型投影设备的结合体,可以将虚拟数据叠加到由摄像头采集到的实时图像中,并通过微型投影设备在人体眼球前进行画面展示。
随着使用智能AR眼镜的人逐渐增多,智能AR眼镜的使用者可以通过智能AR眼镜上的拍摄功能对周围其他智能AR眼镜的使用者进行拍摄,并将拍摄的图片上传至存储器进行存储,以记录生活中的点滴。
针对上述中的相关技术,发明人认为现有的智能AR眼镜虽具有对周围其他智能AR眼镜的使用者进行拍摄的功能,但在未经其他使用者许可时,易侵犯其他使用者肖像隐私,从而存在智能AR眼镜的使用者隐私泄露的缺陷。
发明内容
为了保护智能AR眼镜使用者的个人肖像隐私,本申请提供一种用于智能AR眼镜的防偷拍方法、设备以及介质。
第一方面,本申请提供一种用于智能AR眼镜的防偷拍方法,采用如下的技术方案:
一种用于智能AR眼镜的防偷拍方法,包括:
获取灯光信息,所述灯光信息为智能AR眼镜拍照用闪光灯的灯光;
对灯光信息所在位置进行检测,获取与所述灯光信息对应的偷拍设备的偷拍距离信息;
基于对所述偷拍距离信息内的蓝牙设备进行扫描,获取所述偷拍设备的蓝牙设备信息;
基于所述蓝牙设备信息,对所述偷拍设备信息进行配对连接,并在连接成功后,生产警告信息,并将所述警告信息发送至所述偷拍设备。
通过采用上述技术方案,在防止其他智能AR眼镜偷拍时,首先检测当前有无闪光灯亮起,若检测到拍照的闪光灯,则获取灯光信息,接着对灯光信息所在的位置进行检测,查看当前智能AR眼镜与偷拍智能AR眼镜之间的偷拍距离信息,然后以当前智能AR眼镜为圆心,偷拍距离信息为半径,获取偷拍区域内的所有蓝牙设备,并基于偷拍距离信息获取偷拍设备的蓝牙设备信息,最后将当前智能AR眼镜与偷拍设备信息进行蓝牙配对连接,并在连接成功后生产警告信息,将警告信息发送至偷拍设备,已告戒偷拍人员,从而达到了保护智能AR眼镜使用者的个人肖像隐私的效果。
在另一种可能实现的方式中,所述获取灯光信息,包括:
采集周围实时图像信息,并对实时图像信息进行目标检测,确定所述实时图像信息中是否存在目标灯光类别;
若存在,则将所述实时图像信息输入至训练后的网络模型中进行训练,获取所述实时图像信息的灯光特征向量信息;
对所述灯光特征向量信息进行数据分析,得到灯光信息。
通过上述技术方案,在获取灯光信息时,首先采集周围实时图像信息,并对实时图像信息进行目标检测,然后确定实时图像信息中是否存在目标灯光类别,若存在,则将实时图像信息输入至训练后的网络模型中进行训练,获取实时图像信息的灯光特征向量信息,最后对灯光特征向量信息进行数据分析,得到灯光信息,以便于后续对灯光信息进行处理。
在另一种可能实现的方式中,所述采集周围实时图像信息,并对实时图像信息进行目标检测,确定所述实时图像信息中是否存在目标灯光类别,包括:
对所述实时图像信息进行目标检测,获取所述实时图像信息中的各个目标分别对应的目标图像;
对所述目标图像进行特征提取,获得所述目标图像中的灯光特征;
基于所述灯光特征确定所述实时图像信息中是否存在目标灯光类别。
通过采用上述技术方案,在对实时图像信息中是否存在目标灯光类型进行判断时,首先对实时图像信息进行目标检测,以获取实时图像信息中的各个目标分别对应的目标图像,然后对目标图像进行特征提取,获得目标图像中的灯光特征,最后基于灯光特征确定实时图像信息中是否存在目标灯光类别,从而提高了判断目标灯光类型的准确度。
在另一种可能实现的方式中,所述对所述实时图像信息进行目标检测,包括:
对所述实时图像信息进行去噪处理,并将去噪后的所述实时图像信息进行图像增强处理。
通过采用上述技术方案,由于现实中的实时图像信息在数字化和传输过程中常受到成像设备与外部环境噪声干扰等影响,因此需要使用去噪技术对实时图像信息进行去噪,以便于减少数字图像中噪声,使得实时图像信息更加准确,然后将去噪后的实时图像信息进行图像增强处理,改善实时图像信息的视觉效果,使得图像更加的清晰,达到了提高实时图像信息识别度的效果。
在另一种可能实现的方式中,所述将所述实时图像信息输入至训练后的网络模型中进行训练,之前还包括:
获取灯光训练样本,所述灯光训练样本包括外界不同光照强度时的智能AR眼镜闪光灯的灯光;
创建网络模型,并基于所述灯光训练样本对所述网络模型进行训练,得到训练好的网络模型。
通过采用上述技术方案,在对网络模型进行训练时,首先获取灯光训练样本,其中灯光训练样本为外界不同光照强度时的智能AR眼镜闪光灯的灯光,然后创建网络模型,并基于灯光训练样本对所述网络模型进行训练,最后得到训练好的网络模型,从而便于后续对实时图像信息进行识别。
在另一种可能实现的方式中,所述基于对所述偷拍距离信息内的蓝牙设备进行扫描,获取所述偷拍设备的蓝牙设备信息,包括:
当对所述偷拍距离信息内的蓝牙设备扫描完成后,获取各个所述蓝牙设备位置信息;
获取当前用户的实时位置信息,确定所述蓝牙设备位置信息与所述实时位置信息之间的距离信息是否满足所述偷拍距离信息;
若满足,则确定所述偷拍设备的蓝牙设备信息。
通过采用上述技术方案,在确定偷拍设备的蓝牙设备信息时,首先对偷拍距离信息内的蓝牙设备进行扫描,在对偷拍距离信息内的蓝牙设备扫描完成后,对获取到的各个蓝牙设备位置信息以及当前用户的实时位置信息进行等位,判断蓝牙设备位置信息与实时位置信息之间的距离信息是否满足偷拍距离信息,若满足,则确定偷拍设备的蓝牙设备信息,从而提高了检测偷拍设备的蓝牙设备信息的准确度。
在另一种可能实现的方式中,所述基于所述蓝牙设备信息,对所述偷拍设备信息进行配对连接,并在连接成功后,生产警告信息,并将所述警告信息发送至所述偷拍设备,之后还包括:
当向所述偷拍设备发送警告信息后,确定所述偷拍设备是否输出所述灯光信息;
若输出,则对所述偷拍设备进行定位,获取偷拍位置信息以及当前用户位置信息;
根据所述偷拍位置信息与所述用户位置信息,生产导航路线信息;
控制显示所述导航路线信息。
通过采用上述技术方案,当提示偷拍设备后,偷拍设备仍对用户进行偷拍,则对偷拍设备进行定位,获取偷拍位置信息以及当前用户位置信息,并根据偷拍位置信息与用户位置信息,生产导航路线信息,将生成的导航路线信息控制显示到被偷拍用户的智能AR眼镜上,以便于被偷拍者对偷拍人员进行人为警告。
第二方面,本申请提供一种用于智能AR眼镜的防偷拍装置,采用如下的技术方案:
一种用于智能AR眼镜的防偷拍装置,包括:
第一获取模块,用于获取灯光信息,所述灯光信息为智能AR眼镜拍照用闪光灯的灯光;
第二获取模块,用于对灯光信息所在位置进行检测,获取与所述灯光信息对应的偷拍设备的偷拍距离信息;
第三获取模块,用于基于对所述偷拍距离信息内的蓝牙设备进行扫描,获取所述偷拍设备的蓝牙设备信息;
警告模块,用于基于所述蓝牙设备信息,对所述偷拍设备信息进行配对连接,并在连接成功后,生产警告信息,并将所述警告信息发送至所述偷拍设备。
通过采用上述技术方案,在防止其他智能AR眼镜偷拍时,首先检测当前有无闪光灯亮起,若检测到拍照的闪光灯,则获取灯光信息,接着对灯光信息所在的位置进行检测,查看当前智能AR眼镜与偷拍智能AR眼镜之间的偷拍距离信息,然后以当前智能AR眼镜为圆心,偷拍距离信息为半径,获取偷拍区域内的所有蓝牙设备,并基于偷拍距离信息获取偷拍设备的蓝牙设备信息,最后将当前智能AR眼镜与偷拍设备信息进行蓝牙配对连接,并在连接成功后生产警告信息,将警告信息发送至偷拍设备,已告戒偷拍人员,从而达到了保护智能AR眼镜使用者的个人肖像隐私的效果。
在一种可能的实现方式中,所述第一获取模块在获取灯光信息时,具体用于:
采集周围实时图像信息,并对实时图像信息进行目标检测,确定所述实时图像信息中是否存在目标灯光类别;
若存在,则将所述实时图像信息输入至训练后的网络模型中进行训练,获取所述实时图像信息的灯光特征向量信息;
对所述灯光特征向量信息进行数据分析,得到灯光信息。
在另一种可能的实现方式中,所述采集周围实时图像信息,并对实时图像信息进行目标检测,确定所述实时图像信息中是否存在目标灯光类别,具体用于:
对所述实时图像信息进行目标检测,获取所述实时图像信息中的各个目标分别对应的目标图像;
对所述目标图像进行特征提取,获得所述目标图像中的灯光特征;
基于所述灯光特征确定所述实时图像信息中是否存在目标灯光类别。
在另一种可能的实现方式中,所述对所述实时图像信息进行目标检测,具体用于:
对所述实时图像信息进行去噪处理,并将去噪后的所述实时图像信息进行图像增强处理。
在另一种可能的实现方式中,所述装置还包括:第四获取模块以及创建模块,其中,
所述第四获取模块,用于获取灯光训练样本,所述灯光训练样本包括外界不同光照强度时的智能AR眼镜闪光灯的灯光;
所述创建模块,用于创建网络模型,并基于所述灯光训练样本对所述网络模型进行训练,得到训练好的网络模型。
在另一种可能的实现方式中,所述第三获取模块在基于对所述偷拍距离信息内的蓝牙设备进行扫描,获取所述偷拍设备的蓝牙设备信息时,具体用于:
当对所述偷拍距离信息内的蓝牙设备扫描完成后,获取各个所述蓝牙设备位置信息;
获取当前用户的实时位置信息,确定所述蓝牙设备位置信息与所述实时位置信息之间的距离信息是否满足所述偷拍距离信息;
若满足,则确定所述偷拍设备的蓝牙设备信息。
在另一种可能的实现方式中,所述装置还包括:确定模块、第五获取模块、生产路线模块以及控制显示模块,其中,
所述确定模块,用于当向所述偷拍设备发送警告信息后,确定所述偷拍设备是否输出所述灯光信息;
所述第五获取模块,用于当输出时,对所述偷拍设备进行定位,获取偷拍位置信息以及当前用户位置信息;
所述生产路线模块,用于根据所述偷拍位置信息与所述用户位置信息,生产导航路线信息;
所述控制显示模块,用于控制显示所述导航路线信息。
第三方面,本申请提供一种电子设备,采用如下的技术方案:
一种电子设备,该电子设备包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中一个或多个应用程序被存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序配置用于:执行根据第一方面任一种可能的实现方式所示的一种用于智能AR眼镜的防偷拍方法。
第四方面,本申请提供一种计算机可读存储介质,采用如下的技术方案:
一种计算机可读存储介质,包括:存储有能够被处理器加载并执行实现第一方面任一种可能的实现方式所示的一种用于智能AR眼镜的防偷拍方法的计算机程序。
综上所述,本申请包括以下至少一种有益技术效果:
1. 通过采用上述技术方案,在防止其他智能AR眼镜偷拍时,首先检测当前有无闪光灯亮起,若检测到拍照的闪光灯,则获取灯光信息,接着对灯光信息所在的位置进行检测,查看当前智能AR眼镜与偷拍智能AR眼镜之间的偷拍距离信息,然后以当前智能AR眼镜为圆心,偷拍距离信息为半径,获取偷拍区域内的所有蓝牙设备,并基于偷拍距离信息获取偷拍设备的蓝牙设备信息,最后将当前智能AR眼镜与偷拍设备信息进行蓝牙配对连接,并在连接成功后生产警告信息,将警告信息发送至偷拍设备,已告戒偷拍人员,从而达到了保护智能AR眼镜使用者的个人肖像隐私的效果;
2. 通过采用上述技术方案,当提示偷拍设备后,偷拍设备仍对用户进行偷拍,则对偷拍设备进行定位,获取偷拍位置信息以及当前用户位置信息,并根据偷拍位置信息与用户位置信息,生产导航路线信息,将生成的导航路线信息控制显示到被偷拍用户的智能AR眼镜上,以便于被偷拍者对偷拍人员进行人为警告。
附图说明
图1是本申请实施例的一种用于智能AR眼镜的防偷拍方法的流程示意图;
图2是本申请实施例的一种用于智能AR眼镜的防偷拍装置的结构示意图;
图3是本申请实施例的电子设备的结构示意图。
具体实施方式
以下结合附图1-3对本申请作进一步详细说明。
领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本申请的权利要求范围内都受到专利法的保护。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,如无特殊说明,一般表示前后关联对象是一种“或”的关系。
下面结合说明书附图对本申请实施例作进一步详细描述。
本申请实施例提供了一种用于智能AR眼镜的防偷拍方法,由电子设备执行,该电子设备可以为服务器也可以为终端设备,其中,该服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。终端设备可以是智能手机、平板电脑、笔记本电脑、台式计算机等,但并不局限于此,该终端设备以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例在此不做限制,如图1所示,该方法包括:
步骤S10,获取灯光信息,灯光信息为智能AR眼镜拍照用闪光灯的灯光。
具体地,点击智能AR眼镜上的拍摄按键,智能AR眼镜启动摄像头对其他智能AR眼镜的使用者进行拍摄,在拍摄的过程中,智能AR眼镜上的闪光灯会自动亮起进行灯光补偿。
例如:有A、B两名智能AR眼镜佩戴者,佩戴者A佩戴智能AR眼镜进行娱乐时,佩戴者B使用智能AR眼镜拍照功能对佩戴者A进行拍摄,那么,佩戴者A则检测获取佩戴者B的灯光信息。
步骤S11,对灯光信息所在位置进行检测,获取与灯光信息对应的偷拍设备的偷拍距离信息。
具体地,在获取到灯光信息后,根据灯光信息的方位进行判定,例如,偷拍者B对使用者A进行偷拍,相对于使用者A来说,偷拍者B在使用者A的正北方。在锁定灯光信息的方位后,向偷拍者照射红外线,通过红外线的反射原理,确定偷拍设备的偷拍距离信息。
步骤S12,基于对偷拍距离信息内的蓝牙设备进行扫描,获取偷拍设备的蓝牙设备信息。
具体地,在获取到偷拍距离信息后,以当前被偷拍者为圆心,偷拍距离信息的距离为半径画圆,该圆即为偷拍范围。通过对偷拍范围内的蓝牙设备进行扫描,得到偷拍区域内的所有蓝牙设备信息,并根据偷拍距离信息进行筛选,确定偷拍设备的蓝牙设备信息,其中,蓝牙设备信息包括:蓝牙名称以及蓝牙距离。
步骤S13,基于蓝牙设备信息,对偷拍设备信息进行配对连接,并在连接成功后,生产警告信息,并将警告信息发送至偷拍设备。
具体地,在获取到蓝牙设备信息后,通过蓝牙配对功能与该蓝牙设备信息进行连接,并在连接成功后,生产警告信息,例如:请勿拍摄等等警告用语,并将警告信息通过蓝牙传输至偷拍设备信息上,已告戒偷拍者。
其中,蓝牙是一种支持设备短距离通信(一般10m内)的无线电技术,能在包括移动电话、PDA、无线耳机、笔记本电脑、相关外设等众多设备之间进行无线信息交换。利用蓝牙技术,能够有效地简化移动通信终端设备之间的通信,也能够成功地简化设备与因特网Internet之间的通信。
在本申请实施例中,通过采用上述技术方案,在防止其他智能AR眼镜偷拍时,首先检测当前有无闪光灯亮起,若检测到拍照的闪光灯,则获取灯光信息,接着对灯光信息所在的位置进行检测,查看当前智能AR眼镜与偷拍智能AR眼镜之间的偷拍距离信息,然后以当前智能AR眼镜为圆心,偷拍距离信息为半径,获取偷拍区域内的所有蓝牙设备,并基于偷拍距离信息获取偷拍设备的蓝牙设备信息,最后将当前智能AR眼镜与偷拍设备信息进行蓝牙配对连接,并在连接成功后生产警告信息,将警告信息发送至偷拍设备,已告戒偷拍人员,从而达到了保护智能AR眼镜使用者的个人肖像隐私的效果。
本申请实施例的一种可能的实现方式,步骤S10具体包括步骤S101(图中未示出)、步骤S102(图中未示出)以及步骤S103(图中未示出),其中,
步骤S101,采集周围实时图像信息,并对实时图像信息进行目标检测,确定实时图像信息中是否存在目标灯光类别。
具体地,目标检测技术能够对实时图像信息中的各种灯光目标类型进行检测,将每种灯光目标类型通过颜色以及强度进行判定并框选,此时边界框内的图像区域即为该目标在图像中对应的图像区域。
步骤S102,若存在,则将实时图像信息输入至训练后的网络模型中进行训练,获取实时图像信息的灯光特征向量信息。
具体地,对实时图像信息进行特征向量提取,其在实时图像信息中所能形成的灯光颜色以及强度是有差异的,例如:普通白炽灯每瓦大约可发出1256 Lux的光照强度,其颜色偏淡黄色,而紫光灯的光照强度在120uw/cm2,其颜色篇暗紫色,因此通过目标的特征向量,能够判断目标的具体类别,例如:特征向量“0”表示白炽灯,特征向量“1”表示紫光灯。
步骤S103,对灯光特征向量信息进行数据分析,得到灯光信息。
具体地,通过对特征向量信息进行数据分析,判断特征向量值,确定灯光特征向量信息是否为智能AR眼镜拍摄用的闪光灯。
本申请实施例的一种可能的实现方式,步骤S101具体包括步骤S1011(图中未示出)、步骤S1012(图中未示出)以及步骤S1013(图中未示出),其中,
步骤S1011,对实时图像信息进行目标检测,获取实时图像信息中的各个目标分别对应的目标图像。
具体地,目标检测(Object Detection)的任务是找出实时图像信息中所有感兴趣的目标(物体),确定它们的类别和位置,例如:对实时图像信息灯光信息进行提取。
步骤S1012,对目标图像进行特征提取,获得目标图像中的灯光特征。
具体地,提取灯光特征信息的方式可以包括:对各个目标对应的图像区域进行灰度化处理后再进行二值化处理,在经过二值化处理后图像中根据黑白像素点的边界识别出各个分割区域中对应的目标的灯光强度以及颜色。
步骤S1013,基于灯光特征确定实时图像信息中是否存在目标灯光类别。
具体地,不同类别的目标,其在图像中所能形成的灯光强度与颜色是有差异的,例如白炽光与紫光灯,由于强度与颜色的不同,导致灯光类型存在差异,因此通过目标的灯光特征,能够判断目标灯光类别。
本申请实施例的一种可能的实现方式,步骤S1011(图中未示出)具体包括步骤Sa(图中未示出),其中,
步骤Sa,对实时图像信息进行去噪处理,并将去噪后的实时图像信息进行图像增强处理。
具体地,噪声可以理解为“妨碍人们感觉器官对所接收的信源信息理解的因素”。例如,一幅黑白图片,其平面亮度分布假定为f(x,y),那么对其接收起干扰作用的亮度分布R(x,y),即可称为图像噪声。常见的图像噪音有加性噪音、乘兴噪音、量化噪音以及“椒盐”噪音。加性嗓声和图像信号强度是不相关的,例如:图像在传输过程中引进的“信道噪声”电视摄像机扫描图像的噪声;乘性嗓声和图像信号是相关的,往往随图像信号的变化而变化,例如:飞点扫描图像中的嗓声、电视扫描光栅、胶片颗粒等等;量化嗓声是数字图像的主要噪声源,其大小显示出数字图像和原始图像的差异;“椒盐”噪音,例如:图像切割引起的即黑图像上的白点,白图像上的黑点噪声,在变换域引入的误差,使图像反变换后造成的变换噪声。
本申请实施例的一种可能的实现方式,步骤S102之前还包括步骤S1021(图中未示出)以及步骤S1022(图中未示出),其中,
步骤S1021,获取灯光训练样本,灯光训练样本包括外界不同光照强度时的智能AR眼镜闪光灯的灯光。
具体地,采集外界不同光照强度时的智能AR眼镜闪光灯的灯光图像,然后对这些图像进行目标检测,以获取各个目标分别对应的灯光特征,这样采集的样本环境与实际中神经网络模型要判断的环境一致,因此能够提高识别的准确度;同时针对多个不同的灯光目标采集图像,增加样本的丰富度,同样能够提高神经网络对目标分类的准确度。
步骤S1022,创建网络模型,并基于灯光训练样本对网络模型进行训练,得到训练好的网络模型。
具体地,初始神经网络模型进行训练后能够对输入灯光目标特征进行判断,进而输出的是目标类别的概率,选择概率最高的类别标签,作为当前输入的灯光目标特征。例如:识别网络模型输入灯光目标特征,则输出的为偷拍闪光灯(70%)和普通灯光照射(30%),则此时应能够确定该灯光目标特征对应的目标的类别为偷拍闪光灯。
本申请实施例的一种可能的实现方式,步骤S12具体包括步骤S121(图中未示出)、步骤S122(图中未示出)以及步骤S123(图中未示出),其中,
步骤S121,当对偷拍距离信息内的蓝牙设备扫描完成后,获取各个蓝牙设备位置信息。
具体地,一般空间内定位一个物体的位置或者说坐标,类似室外GPS卫星定位,卫星定位一般最少要3颗星才能实现定位,蓝牙也是这个道理,只是这时的“卫星”换成了蓝牙信标(基站),比如说定位一个人,已知在室内有三个固定的蓝牙beacon,且在矢量地图(室内地图,在服务器端)的坐标已知。
单一的一个基站,就是一个固定坐标,只能能确定人在一个以固定坐标为圆心的圆上;最少需要3个固定的坐标,这三个圆在空间内相交,通过后台室内定位算法,就是一套数学运算关系(当然现实情况会比较复杂,类似我们高中数学里面的矢量运算),才能准确的确定人在哪个位置。
步骤S122,获取当前用户的实时位置信息,确定蓝牙设备位置信息与实时位置信息之间的距离信息是否满足偷拍距离信息。
步骤S123,若满足,则确定偷拍设备的蓝牙设备信息。
本申请实施例的一种可能的实现方式,步骤S13之后还包括步骤S131(图中未示出)、步骤S132(图中未示出)、步骤S133(图中未示出)以及步骤S134(图中未示出),其中,
步骤S14,当向偷拍设备发送警告信息后,确定偷拍设备是否输出灯光信息。
步骤S15,若输出,则对偷拍设备进行定位,获取偷拍位置信息以及当前用户位置信息。
具体地,假设偷拍设备仍然对其他智能AR眼镜使用者进行偷拍,则通过GPS定位装置对偷拍设备以及被偷拍的智能AR眼镜进行定位,获取偷拍位置信息以及用户位置信息。
步骤S16,根据偷拍位置信息与用户位置信息,生产导航路线信息。
具体地,通过GPS导航系统生成偷拍位置信息与用户位置信息的导航路线,其中,GPS导航系统是以全球24颗定位人造卫星为基础,向全球各地全天候地提供三维位置、三维速度等信息的一种无线电导航定位系统。它由三部分构成,一是地面控制部分,由主控站、地面天线、监测站及通讯辅助系统组成。二是空间部分,由24颗卫星组成,分布在6个轨道平面。三是用户装置部分,由GPS接收机和卫星天线组成。民用的定位精度可达10米内。
步骤S17,控制显示导航路线信息。
具体地,通过控制层(controller)、业务层(service)以及数据访问层(dao)对导航路线信息进行获取,在数据访问层只负责与数据库的数据交互,将数据进行读取操作,业务层需要根据系统的实际业务需求进行逻辑代码的编写,业务逻辑层调用数据访问层的相关方法实现与数据库的交互,并将执行结果反馈给控制层,控制层将位置信息发送到视图渲染器,对导航路线信息进行视图渲染,对导航路线信息进行回显。
上述实施例从方法流程的角度介绍一种用于智能AR眼镜的防偷拍方法,下述实施例从虚拟模块或者虚拟单元的角度介绍了一种用于智能AR眼镜的防偷拍装置,具体详见下述实施例。
本申请实施例提供一种用于智能AR眼镜的防偷拍装置,如图2所示,该用于智能AR眼镜的防偷拍装置20具体可以包括:第一获取模块21、第二获取模块22、第三获取模块23以及警告模块24,其中,
第一获取模块21,用于获取灯光信息,灯光信息为智能AR眼镜拍照用闪光灯的灯光;
第二获取模块22,用于对灯光信息所在位置进行检测,获取与灯光信息对应的偷拍设备的偷拍距离信息;
第三获取模块23,用于基于对偷拍距离信息内的蓝牙设备进行扫描,获取偷拍设备的蓝牙设备信息;
警告模块24,用于基于蓝牙设备信息,对偷拍设备信息进行配对连接,并在连接成功后,生产警告信息,并将警告信息发送至偷拍设备。
本申请实施例的一种可能的实现方式,在一种可能的实现方式中,第一获取模块21在获取灯光信息时,具体用于:
采集周围实时图像信息,并对实时图像信息进行目标检测,确定实时图像信息中是否存在目标灯光类别;
若存在,则将实时图像信息输入至训练后的网络模型中进行训练,获取实时图像信息的灯光特征向量信息;
对灯光特征向量信息进行数据分析,得到灯光信息。
本申请实施例的另一种可能的实现方式,采集周围实时图像信息,并对实时图像信息进行目标检测,确定实时图像信息中是否存在目标灯光类别,具体用于:
对实时图像信息进行目标检测,获取实时图像信息中的各个目标分别对应的目标图像;
对目标图像进行特征提取,获得目标图像中的灯光特征;
基于灯光特征确定实时图像信息中是否存在目标灯光类别。
本申请实施例的另一种可能的实现方式,对实时图像信息进行目标检测,具体用于:
对实时图像信息进行去噪处理,并将去噪后的实时图像信息进行图像增强处理。
本申请实施例的另一种可能的实现方式,装置20还包括:第四获取模块以及创建模块,其中,
第四获取模块,用于获取灯光训练样本,灯光训练样本包括外界不同光照强度时的智能AR眼镜闪光灯的灯光;
创建模块,用于创建网络模型,并基于灯光训练样本对网络模型进行训练,得到训练好的网络模型。
本申请实施例的另一种可能的实现方式,第三获取模块23在基于对偷拍距离信息内的蓝牙设备进行扫描,获取偷拍设备的蓝牙设备信息时,具体用于:
当对偷拍距离信息内的蓝牙设备扫描完成后,获取各个蓝牙设备位置信息;
获取当前用户的实时位置信息,确定蓝牙设备位置信息与实时位置信息之间的距离信息是否满足偷拍距离信息;
若满足,则确定偷拍设备的蓝牙设备信息。
本申请实施例的另一种可能的实现方式,装置20还包括:确定模块、第五获取模块、生产路线模块以及控制显示模块,其中,
确定模块,用于当向偷拍设备发送警告信息后,确定偷拍设备是否输出灯光信息;
第五获取模块,用于当输出时,对偷拍设备进行定位,获取偷拍位置信息以及当前用户位置信息;
生产路线模块,用于根据偷拍位置信息与用户位置信息,生产导航路线信息;
控制显示模块,用于控制显示导航路线信息。
具体地,第一获取模块21、第二获取模块22、第三获取模块23、第四获取模块以及第五获取模块可以均为相同的模块,也可以均为不同的模块,也可以部分为不同的模块,在本申请实施例中不作限定。
本申请实施例中提供了一种电子设备,如图3所示,图3所示的电子设备300包括:处理器301和存储器303。其中,处理器301和存储器303相连,如通过总线302相连。可选地,电子设备300还可以包括收发器304。需要说明的是,实际应用中收发器304不限于一个,该电子设备300的结构并不构成对本申请实施例的限定。
处理器301可以是CPU(Central Processing Unit,中央处理器),通用处理器,DSP(Digital Signal Processor,数据信号处理器),ASIC(Application SpecificIntegrated Circuit,专用集成电路),FPGA(Field Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器301也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线302可包括一通路,在上述组件之间传送信息。总线302可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(ExtendedIndustry Standard Architecture,扩展工业标准结构)总线等。总线302可以分为地址总线、数据总线、控制总线等。为便于表示,图3中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器303可以是ROM(Read Only Memory,只读存储器)或可存储静态信息和指令的其他类型的静态存储设备,RAM(Random Access Memory,随机存取存储器)或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM(Electrically ErasableProgrammable Read Only Memory,电可擦可编程只读存储器)、CD-ROM(Compact DiscRead Only Memory,只读光盘)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
存储器303用于存储执行本申请方案的应用程序代码,并由处理器301来控制执行。处理器301用于执行存储器303中存储的应用程序代码,以实现前述方法实施例所示的内容。
其中,电子设备包括但不限于:移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。还可以为服务器等。图3示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,当其在计算机上运行时,使得计算机可以执行前述方法实施例中相应内容。与相关技术相比,本申请实施例中,在防止其他智能AR眼镜偷拍时,首先检测当前有无闪光灯亮起,若检测到拍照的闪光灯,则获取灯光信息,接着对灯光信息所在的位置进行检测,查看当前智能AR眼镜与偷拍智能AR眼镜之间的偷拍距离信息,然后以当前智能AR眼镜为圆心,偷拍距离信息为半径,获取偷拍区域内的所有蓝牙设备,并基于偷拍距离信息获取偷拍设备的蓝牙设备信息,最后将当前智能AR眼镜与偷拍设备信息进行蓝牙配对连接,并在连接成功后生产警告信息,将警告信息发送至偷拍设备,已告戒偷拍人员,从而达到了保护智能AR眼镜使用者的个人肖像隐私的效果。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (10)
1.一种用于智能AR眼镜的防偷拍方法,其特征在于,包括:
获取灯光信息,所述灯光信息为智能AR眼镜拍照用闪光灯的灯光;
对灯光信息所在位置进行检测,获取与所述灯光信息对应的偷拍设备的偷拍距离信息;
基于对所述偷拍距离信息内的蓝牙设备进行扫描,获取所述偷拍设备的蓝牙设备信息;
基于所述蓝牙设备信息,对所述偷拍设备信息进行配对连接,并在连接成功后,生产警告信息,并将所述警告信息发送至所述偷拍设备。
2.根据权利要求1所述的一种用于智能AR眼镜的防偷拍方法,其特征在于,所述获取灯光信息,包括:
采集周围实时图像信息,并对实时图像信息进行目标检测,确定所述实时图像信息中是否存在目标灯光类别;
若存在,则将所述实时图像信息输入至训练后的网络模型中进行训练,获取所述实时图像信息的灯光特征向量信息;
对所述灯光特征向量信息进行数据分析,得到灯光信息。
3.根据权利要求2所述的一种用于智能AR眼镜的防偷拍方法,其特征在于,所述采集周围实时图像信息,并对实时图像信息进行目标检测,确定所述实时图像信息中是否存在目标灯光类别,包括:
对所述实时图像信息进行目标检测,获取所述实时图像信息中的各个目标分别对应的目标图像;
对所述目标图像进行特征提取,获得所述目标图像中的灯光特征;
基于所述灯光特征确定所述实时图像信息中是否存在目标灯光类别。
4.根据权利要求3所述的一种用于智能AR眼镜的防偷拍方法,其特征在于,所述对所述实时图像信息进行目标检测,包括:
对所述实时图像信息进行去噪处理,并将去噪后的所述实时图像信息进行图像增强处理。
5.根据权利要求2所述的一种用于智能AR眼镜的防偷拍方法,其特征在于,所述将所述实时图像信息输入至训练后的网络模型中进行训练,之前还包括:
获取灯光训练样本,所述灯光训练样本包括外界不同光照强度时的智能AR眼镜闪光灯的灯光;
创建网络模型,并基于所述灯光训练样本对所述网络模型进行训练,得到训练好的网络模型。
6.根据权利要求1所述的一种用于智能AR眼镜的防偷拍方法,其特征在于,所述基于对所述偷拍距离信息内的蓝牙设备进行扫描,获取所述偷拍设备的蓝牙设备信息,包括:
当对所述偷拍距离信息内的蓝牙设备扫描完成后,获取各个所述蓝牙设备位置信息;
获取当前用户的实时位置信息,确定所述蓝牙设备位置信息与所述实时位置信息之间的距离信息是否满足所述偷拍距离信息;
若满足,则确定所述偷拍设备的蓝牙设备信息。
7.根据权利要求1所述的一种用于智能AR眼镜的防偷拍方法,其特征在于,所述基于所述蓝牙设备信息,对所述偷拍设备信息进行配对连接,并在连接成功后,生产警告信息,并将所述警告信息发送至所述偷拍设备,之后还包括:
当向所述偷拍设备发送警告信息后,确定所述偷拍设备是否输出所述灯光信息;
若输出,则对所述偷拍设备进行定位,获取偷拍位置信息以及当前用户位置信息;
根据所述偷拍位置信息与所述用户位置信息,生产导航路线信息;
控制显示所述导航路线信息。
8.一种用于智能AR眼镜的防偷拍装置,其特征在于,包括:
第一获取模块,用于获取灯光信息,所述灯光信息为智能AR眼镜拍照用闪光灯的灯光;
第二获取模块,用于对灯光信息所在位置进行检测,获取与所述灯光信息对应的偷拍设备的偷拍距离信息;
第三获取模块,用于基于对所述偷拍距离信息内的蓝牙设备进行扫描,获取所述偷拍设备的蓝牙设备信息;
警告模块,用于基于所述蓝牙设备信息,对所述偷拍设备信息进行配对连接,并在连接成功后,生产警告信息,并将所述警告信息发送至所述偷拍设备。
9.一种电子设备,其特征在于,其包括:
一个或者多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于:执行根据权利要求1~7任一项所述的用于智能AR眼镜的防偷拍方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1~7任一项所述的用于智能AR眼镜的防偷拍方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111364548.0A CN114095910B (zh) | 2021-11-17 | 2021-11-17 | 一种用于智能ar眼镜的防偷拍方法、设备以及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111364548.0A CN114095910B (zh) | 2021-11-17 | 2021-11-17 | 一种用于智能ar眼镜的防偷拍方法、设备以及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114095910A true CN114095910A (zh) | 2022-02-25 |
CN114095910B CN114095910B (zh) | 2024-09-10 |
Family
ID=80301772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111364548.0A Active CN114095910B (zh) | 2021-11-17 | 2021-11-17 | 一种用于智能ar眼镜的防偷拍方法、设备以及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114095910B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116074438A (zh) * | 2023-02-28 | 2023-05-05 | 维沃移动通信有限公司 | 隐私保护方法、装置及电子设备 |
WO2023225967A1 (zh) * | 2022-05-26 | 2023-11-30 | 北京小米移动软件有限公司 | 防窥提示方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004343434A (ja) * | 2003-05-15 | 2004-12-02 | Fuji Photo Film Co Ltd | 盗撮防止装置 |
CN103424113A (zh) * | 2013-08-01 | 2013-12-04 | 毛蔚青 | 移动终端基于图像识别技术的室内定位与导航方法 |
CN107909074A (zh) * | 2017-11-10 | 2018-04-13 | 尤云兴 | 手机防偷拍报警系统 |
CN109862549A (zh) * | 2019-03-28 | 2019-06-07 | 南昌黑鲨科技有限公司 | 蓝牙连接方法、装置、可读存储介质及移动设备 |
CN111523384A (zh) * | 2020-03-19 | 2020-08-11 | 浙江省北大信息技术高等研究院 | 一种基于视觉的会议防偷拍方法、装置、存储介质及终端 |
KR102216694B1 (ko) * | 2020-05-06 | 2021-02-16 | 김선욱 | 몰래 카메라 검출용 안경 및 그 몰래 카메라 검출방법 |
CN112712057A (zh) * | 2021-01-13 | 2021-04-27 | 腾讯科技(深圳)有限公司 | 交通信号识别方法、装置、电子设备及存储介质 |
CN113343873A (zh) * | 2021-06-17 | 2021-09-03 | 湖北亿咖通科技有限公司 | 信号灯识别方法、装置、设备、介质及产品 |
-
2021
- 2021-11-17 CN CN202111364548.0A patent/CN114095910B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004343434A (ja) * | 2003-05-15 | 2004-12-02 | Fuji Photo Film Co Ltd | 盗撮防止装置 |
CN103424113A (zh) * | 2013-08-01 | 2013-12-04 | 毛蔚青 | 移动终端基于图像识别技术的室内定位与导航方法 |
CN107909074A (zh) * | 2017-11-10 | 2018-04-13 | 尤云兴 | 手机防偷拍报警系统 |
CN109862549A (zh) * | 2019-03-28 | 2019-06-07 | 南昌黑鲨科技有限公司 | 蓝牙连接方法、装置、可读存储介质及移动设备 |
CN111523384A (zh) * | 2020-03-19 | 2020-08-11 | 浙江省北大信息技术高等研究院 | 一种基于视觉的会议防偷拍方法、装置、存储介质及终端 |
KR102216694B1 (ko) * | 2020-05-06 | 2021-02-16 | 김선욱 | 몰래 카메라 검출용 안경 및 그 몰래 카메라 검출방법 |
CN112712057A (zh) * | 2021-01-13 | 2021-04-27 | 腾讯科技(深圳)有限公司 | 交通信号识别方法、装置、电子设备及存储介质 |
CN113343873A (zh) * | 2021-06-17 | 2021-09-03 | 湖北亿咖通科技有限公司 | 信号灯识别方法、装置、设备、介质及产品 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023225967A1 (zh) * | 2022-05-26 | 2023-11-30 | 北京小米移动软件有限公司 | 防窥提示方法、装置、电子设备及存储介质 |
CN116074438A (zh) * | 2023-02-28 | 2023-05-05 | 维沃移动通信有限公司 | 隐私保护方法、装置及电子设备 |
CN116074438B (zh) * | 2023-02-28 | 2024-10-01 | 维沃移动通信有限公司 | 隐私保护方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114095910B (zh) | 2024-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10533869B2 (en) | Vision augmented navigation | |
CN111126182B (zh) | 车道线检测方法、装置、电子设备及存储介质 | |
US10282856B2 (en) | Image registration with device data | |
CN111028358B (zh) | 室内环境的增强现实显示方法、装置及终端设备 | |
US8121353B2 (en) | Apparatus, system and method for mapping information | |
CN114095910B (zh) | 一种用于智能ar眼镜的防偷拍方法、设备以及介质 | |
KR101165415B1 (ko) | 이미지내 생체 얼굴 인식 방법 및 인식 장치 | |
WO2019138597A1 (en) | System and method for assigning semantic label to three-dimensional point of point cloud | |
CN109916415B (zh) | 道路类型确定方法、装置、设备及存储介质 | |
CN109919157A (zh) | 一种视觉定位方法及装置 | |
CN113808354A (zh) | 一种用于工地危险区域预警的方法、装置及介质 | |
CN110706278A (zh) | 一种基于激光雷达和摄像头的物体识别方法和装置 | |
CN110457571B (zh) | 获取兴趣点信息的方法、装置、设备及存储介质 | |
US20210312179A1 (en) | Electronic device for providing recognition result of external object by using recognition information about image, similar recognition information related to recognition information, and hierarchy information, and operating method therefor | |
CN112020630A (zh) | 用于更新建筑物的3d模型的系统和方法 | |
CN104661300A (zh) | 定位方法、装置、系统及移动终端 | |
JP2013025327A (ja) | オブジェクト情報提供装置、オブジェクト情報提供システム、端末及びオブジェクト情報提供方法 | |
CN109034214B (zh) | 用于生成标记的方法和装置 | |
CN111105351A (zh) | 一种视频序列影像拼接方法及装置 | |
US20230334819A1 (en) | Illuminant estimation method and apparatus for electronic device | |
CN109345567A (zh) | 物体运动轨迹识别方法、装置、设备和存储介质 | |
CN107025636A (zh) | 结合深度信息的图像去雾方法及装置和电子装置 | |
CN113269730B (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN110741410A (zh) | 用于确定图像中的反光区的系统和方法 | |
CN115393423A (zh) | 目标检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |