WO2021114765A1 - 一种基于深度图像的自助通道防尾随检测方法和系统 - Google Patents
一种基于深度图像的自助通道防尾随检测方法和系统 Download PDFInfo
- Publication number
- WO2021114765A1 WO2021114765A1 PCT/CN2020/113951 CN2020113951W WO2021114765A1 WO 2021114765 A1 WO2021114765 A1 WO 2021114765A1 CN 2020113951 W CN2020113951 W CN 2020113951W WO 2021114765 A1 WO2021114765 A1 WO 2021114765A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- pedestrians
- sub
- point cloud
- area
- trailing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Definitions
- the present invention relates to pedestrian detection and point cloud intelligent analysis technology, and more specifically to a method and system for anti-tailing detection of self-service passages based on depth images.
- the present invention proposes a depth image-based self-service channel anti-following detection method, which includes:
- the present invention proposes a self-service channel trailing detection system based on depth images, including a processor storing a computer program, and when the computer program is executed, the following steps are implemented:
- the method and system of the present invention can automatically recognize pedestrians and objects in the self-service passage, and determine whether there is a pedestrian following.
- the invention can be applied to the trailing detection of self-service channels such as public security border defense and rail transit, reduces the cost of manual supervision, and improves the level of intelligent management.
- the distance sensor deployed above the self-service passage collects and acquires the depth images of pedestrians and objects in the passage area, and converts them into spatial structured data in real time.
- Intelligent algorithms are used to automatically detect the location and quantity of pedestrians and objects in the passage, and intelligently determine the trailing situation. Send out warning messages for pedestrians following behavior to ensure efficient and orderly operation of self-service channels.
- Anomaly detection Automatically identify the behavior of two or more people in the passage area at the same time to prevent trailing false alarms
- Object recognition Intelligently distinguish luggage such as trolley cases, backpacks, etc., to avoid misidentification as pedestrians False positives.
- Fig. 1 is a flowchart of an embodiment of the method of the present invention.
- S1 Set a distance sensor to collect depth data in the detection area, and obtain a complete depth image of the self-service channel.
- Kinect or other types of surface scanning distance sensors can be used to set up above the self-service channel.
- the distance sensor scans the complete channel area in non-visible light to obtain a complete depth image of the self-service channel.
- S2 Divide the detection area into multiple sub-areas according to the channel position, and analyze the spatial state information of the pedestrians in each sub-areas.
- the spatial state information includes the height of the pedestrian, the location and the number of pedestrians. Specifically, in S2, the steps are included:
- S23. Obtain spatial state information: perform cluster analysis on the point cloud inside the reserved sub-region. If there are pedestrians in the sub-region, a point cloud clustering result for the pedestrian can be obtained.
- the clustering result includes the point cloud located at the position of the pedestrian's head.
- the cluster center, the height of the point cloud corresponding to the cluster center relative to the ground is the height of the pedestrian
- the position of the point cloud relative to the sub-area is the position of the pedestrian
- the number of pedestrians can be based on the position of the pedestrian's head
- the number of cluster centers is obtained.
- the clustering method used can be the Mean-shift clustering method (see Comaniciu, D., & Meer, P. (1999). Mean shift analysis and applications. IEEE Int.conf.comput.vis, 2, 1197.), right
- the point cloud data is clustered to obtain candidate pedestrian target information.
- the target recognition method is: establishing a convolutional neural network model, using pedestrian samples, training a deep learning model for target recognition, using the trained deep learning model to identify candidate targets, and distinguishing pedestrians from objects.
- S3 Integrate the analysis results of S2 to determine the number of pedestrians in each passage area to confirm whether pedestrians are trailing. Specifically, the number of pedestrians in each passage area is obtained. If the number of pedestrians in the passage is greater than or equal to two, it is determined that a pedestrian trailing has occurred; if the number of pedestrians in the passage is less than two, it is not determined to be a trailing situation.
- a self-service passage anti-following detection system based on depth images is proposed.
- the system includes a distance sensor and is implemented by a computer program through the system.
- the present invention has been tested in a certain border inspection channel, can detect the situation of pedestrians following customs in real time, and intelligently identify pedestrians and article information. In various complicated customs clearance situations, this method has achieved good detection accuracy.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提出一种基于深度图像的自助通道防尾随检测方法,所述方法包括:S1、设置距离传感器来采集检测区域内的深度数据,获取自助通道完整的深度图像;S2、根据通道位置,将检测区域划分为多个子区域,分析各子区域中行人的空间状态信息;S3、通过子区域内行人的空间状态信息,确定检测区域内的行人数量,判定通道内行人尾随情况。。本发明提出了一种对自助通道内行人空间状态信息进行分析并记录、判定行人尾随情况的方法,可以应用于边检、轨道交通等部门的自助通道尾随检测领域。
Description
本发明涉及行人检测和点云智能化分析技术,更具体地,涉及基于深度图像的自助通道防尾随检测方法和系统。
尾随,在本文中特指跟随持有合法授权人进入闸机通道的行为。尾随行为的发生会对边检、高铁等部门造成较大的安全问题,传统的防尾随检测利用红外技术,存在误报高、漏报多以及无可视化证据留存的问题。
发明内容
为解决现有技术中的问题,提高防随检测的精度,本发明提出一种基于深度图像的自助通道防尾随检测方法,包括:
S1、设置距离传感器来采集检测区域内的深度数据;
S2、根据通道位置,将检测区域划分为多个子区域,分析各子区域中行人的空间状态信息;
S3、通过子区域内行人的空间状态信息,确定检测区域内的行人数量,判定通道内行人尾随情况。
本发明提出一种基于深度图像的自助通道尾随检测系统,包括存储有计算机程序的处理器,所述计算机程序执行时,实现如下步骤:
S1、设置距离传感器来采集检测区域内的深度数据,获取自助通道完整的深度图像;
S2、根据通道位置,将检测区域划分为多个子区域,分析各子区域中行人的空间状态信息;
S3、通过子区域内行人的空间状态信息,确定检测区域内的行人数量,判定通道内行人尾随情况。
本发明的方法和系统,能够对自助通道内行人及物体自动识别,并判定是否存在行人尾随。本发明可以应用于公安边防、轨道交通等自助服务通道的尾随检测,降低人工监督的成本,提高智能化管理水平。部署在自助通道上方的距离传感器采集获取通道区域内行人和物品的深度图像,实时转化为空间结构化数据,利用智能算法自动检测通道内行人和物品的位置、数量等信息,智能判定尾随情况,对于行人尾随行为发出告警信息,保障自助通道高效、有序运行。解决了以下问题:异常检测:自动辨识通道区域内出现的两人、多人同时通关的行为,防止尾随漏报;物体识别:可智能区分拉杆箱、背包等行李,以避免误识别为行人造成误报。
图1为本发明的方法的一个实施方式的流程图。
下面参照附图描述本发明的实施方式。
如图1所示,本发明的一个实施方式的流程为:
S1,设置距离传感器来采集检测区域内的深度数据,获取自助通道完整的深度图像。可以利用Kinect或者其他种类的面扫描距离传感器,架设于自助通道上方,距离传感器以非可见光的方式扫描完整的通道区域,以此获取自助通道完整的深度图像。
S2,根据通道位置,将检测区域划分为多个子区域,分析各子区域中行人的空间状态信息,所述空间状态信息包括:行人身高、所处位置及行人数量。具体地,在S2中,包括步骤:
S21、坐标转换:为了能够将原始坐标空间转换到以地面为平面的坐标空间,选取原始点云数据空间中一个平面数据点,如地面数据点,将地面数据点转换为同一平面数据点,使得地面数据点与此平面的距离最小,从而获取一个变换参数。
S22、划分子区域:将S21中坐标转换后的深度图像转换为点云 数据,对点云数据进行地面配准,可得到每个点云间的相对位置关系,计算每个点云到划分的子区域的距离,判断点云是否处于划分的子区域内部,去除子区域外部的点云,保留子区域内部的点云,以此将子区域内外部的点云区分开,达到划分子区域的目的。
S23、获得空间状态信息:对保留下来的子区域内部的点云进行聚类分析,若子区域内存在行人,则可获得对于行人的点云聚类结果,聚类结果包含位于行人头部位置的聚类中心,该聚类中心所对应的点云相对于地面的高度即为行人的身高,该点云相对于子区域的位置即为行人所处的位置,行人数量可根据位于行人头部位置的聚类中心的数量得到。
S24、对处于各子区域内的点云数据,利用聚类方法得到候选目标信息,该类信息包括:目标的高度、位置及数目。采用的聚类方法可以是Mean-shift聚类方法(参见Comaniciu,D.,&Meer,P.(1999).Mean shift analysis and applications.IEEE Int.conf.comput.vis,2,1197.),对点云数据进行聚类处理,获取候选行人目标信息。
S25、利用深度学习技术,对S24中所获取的候选目标进行识别,以区分行人和物品。目标识别方法为:建立卷积神经网络模型,利用行人样本,训练目标识别的深度学习模型,使用训练完成的深度学习模型对候选目标进行识别,将行人和物品区分开来。
S3,综合S2的分析结果,判定各通道区域内的行人数量,以确认是否发生行人尾随情况。具体地,获得各通道区域内的行人数量,若通道内行人数量大于或等于两人,则判定为发生了行人尾随;若通道内行人数量少于两人,则不判定为尾随情况。
S4,若判定有发生行人尾随情况,则自动发送告警信息。
根据本发明的另一方面,提出一种基于深度图像的自助通道防尾随检测系统,该系统包括距离传感器和由计算机程序实现,通过该系统。
本发明已在某边检通道进行实测,可实时检测行人通关尾随情形,智能识别行人和物品信息。在各种复杂的通关情形下,该方法取得了 良好的检测精度。
以上所述仅是本发明较优选的具体实施方式,应当指出,本领域的技术人员在本发明技术方案范围内进行的通常变化和替换都应包含在本发明的保护范围内。
Claims (10)
- 一种基于深度图像的自助通道尾随检测方法,其特征在于,包括:S1、设置距离传感器来采集检测区域内的深度数据,获取自助通道完整的深度图像;S2、根据通道位置,将检测区域划分为多个子区域,分析各子区域中行人的空间状态信息;S3、通过子区域内行人的空间状态信息,确定检测区域内的行人数量,判定通道内行人尾随情况。
- 根据权利要求1所述的方法,其特征在于,所述空间状态信息包括:行人身高、所处位置及行人数量。
- 根据权利要求1所述的方法,其特征在于,S21、坐标转换:将深度图像的原始坐标空间转换到以地面为平面的坐标空间;S22、划分子区域:将S21中坐标转换后的深度图像转换为点云数据,对点云数据进行地面配准,可得到每个点云间的相对位置关系,计算每个点云到划分的子区域的距离,判断点云是否处于划分的子区域内部,去除子区域外部的点云,保留子区域内部的点云;S23、获得空间状态信息:对保留下来的子区域内部的点云进行聚类分析;S24、对处于各子区域内的点云数据,利用聚类方法得到候选目标信息;S25、利用深度学习技术,对S24中所获取的候选目标进行识别,以区分行人和物品。
- 根据权利要求3所述的方法,其特征在于,在S25中,建立卷积神经网络模型,利用行人样本,训练目标识别的深度学习模型,使用训练完成的深度学习模型对候选目标进行识别,将行人和物品区分开来
- 根据权利要求3所述的方法,其特征在于,在S3中,获得各通道区域内的行人数量,若通道内行人数量大于或等于两 人,则判定为发生了行人尾随;若通道内行人数量少于两人,则不判定为尾随情况。
- 一种基于深度图像的自助通道尾随检测系统,其特征在于,包括存储有计算机程序的处理器,所述计算机程序执行时,实现如下步骤:S1、设置距离传感器来采集检测区域内的深度数据,获取自助通道完整的深度图像;S2、根据通道位置,将检测区域划分为多个子区域,分析各子区域中行人的空间状态信息;S3、通过子区域内行人的空间状态信息,确定检测区域内的行人数量,判定通道内行人尾随情况。
- 根据权利要求6所述的系统,其特征在于,所述空间状态信息包括:行人身高、所处位置及行人数量。
- 根据权利要求6所述的系统,其特征在于,S21、坐标转换:将深度图像的原始坐标空间转换到以地面为平面的坐标空间;S22、划分子区域:将S21中坐标转换后的深度图像转换为点云数据,对点云数据进行地面配准,可得到每个点云间的相对位置关系,计算每个点云到划分的子区域的距离,判断点云是否处于划分的子区域内部,去除子区域外部的点云,保留子区域内部的点云;S23、获得空间状态信息:对保留下来的子区域内部的点云进行聚类分析;S24、对处于各子区域内的点云数据,利用聚类方法得到候选目标信息;S25、利用深度学习技术,对S24中所获取的候选目标进行识别,以区分行人和物品。
- 根据权利要求7述的系统,其特征在于,在S25中,建立卷积神经网络模型,利用行人样本,训练目标识别的深度学习模型,使用训练完成的深度学习模型对候选目标进行识别,将行人 和物品区分开来
- 根据权利要求7所述的系统,其特征在于,在S3中,获得各通道区域内的行人数量,若通道内行人数量大于或等于两人,则判定为发生了行人尾随;若通道内行人数量少于两人,则不判定为尾随情况。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911249118.7 | 2019-12-09 | ||
CN201911249118.7A CN111144231B (zh) | 2019-12-09 | 2019-12-09 | 一种基于深度图像的自助通道防尾随检测方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021114765A1 true WO2021114765A1 (zh) | 2021-06-17 |
Family
ID=70518511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2020/113951 WO2021114765A1 (zh) | 2019-12-09 | 2020-09-08 | 一种基于深度图像的自助通道防尾随检测方法和系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111144231B (zh) |
WO (1) | WO2021114765A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111144231B (zh) * | 2019-12-09 | 2022-04-15 | 深圳市鸿逸达科技有限公司 | 一种基于深度图像的自助通道防尾随检测方法和系统 |
CN112070052A (zh) * | 2020-09-16 | 2020-12-11 | 青岛维感科技有限公司 | 一种间距监测方法、装置、系统及存储介质 |
CN112836634B (zh) * | 2021-02-02 | 2024-03-08 | 厦门瑞为信息技术有限公司 | 一种多传感器信息融合的闸机防尾随方法、装置、设备和介质 |
CN117392585B (zh) * | 2023-10-24 | 2024-06-18 | 广州广电运通智能科技有限公司 | 闸机通行检测方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971380A (zh) * | 2014-05-05 | 2014-08-06 | 中国民航大学 | 基于rgb-d的行人尾随检测方法 |
WO2017182225A1 (en) * | 2016-04-21 | 2017-10-26 | Osram Gmbh | Training method and detection method for object recognition |
CN108280952A (zh) * | 2018-01-25 | 2018-07-13 | 盛视科技股份有限公司 | 一种基于前景目标分割的旅客尾随监测方法 |
CN110378179A (zh) * | 2018-05-02 | 2019-10-25 | 上海大学 | 基于红外热成像的地铁逃票行为检测方法及系统 |
CN111144231A (zh) * | 2019-12-09 | 2020-05-12 | 深圳市鸿逸达科技有限公司 | 一种基于深度图像的自助通道防尾随检测方法和系统 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521646B (zh) * | 2011-11-11 | 2015-01-21 | 浙江捷尚视觉科技股份有限公司 | 基于深度信息聚类的复杂场景人数统计方法 |
CN103400148B (zh) * | 2013-08-02 | 2015-04-01 | 上海泓申科技发展有限公司 | 基于视频分析的银行自助服务区域尾随行为检测方法 |
CN104268851A (zh) * | 2014-09-05 | 2015-01-07 | 浙江捷尚视觉科技股份有限公司 | 一种基于深度信息的atm自助营业厅行为分析方法 |
CN105654021B (zh) * | 2014-11-12 | 2019-02-01 | 株式会社理光 | 检测人群对目标位置关注度的方法及设备 |
CN105787469B (zh) * | 2016-03-25 | 2019-10-18 | 浩云科技股份有限公司 | 行人监控和行为识别的方法和系统 |
CN106530310B (zh) * | 2016-10-25 | 2018-02-23 | 深圳大学 | 一种基于人体头顶部识别的行人统计方法及装置 |
CN108241177A (zh) * | 2016-12-26 | 2018-07-03 | 航天信息股份有限公司 | 单人通行通道的防尾随检测系统和检测方法 |
CN108876968A (zh) * | 2017-05-10 | 2018-11-23 | 北京旷视科技有限公司 | 人脸识别闸机及其防尾随方法 |
CN107221175B (zh) * | 2017-05-31 | 2020-10-27 | 深圳市鸿逸达科技有限公司 | 一种行人意图检测方法和系统 |
CN107423679A (zh) * | 2017-05-31 | 2017-12-01 | 深圳市鸿逸达科技有限公司 | 一种行人意图检测方法和系统 |
US10643337B2 (en) * | 2017-12-22 | 2020-05-05 | Symbol Technologies, Llc | Systems and methods for segmenting and tracking package walls in commercial trailer loading |
CN109271847B (zh) * | 2018-08-01 | 2023-04-07 | 创新先进技术有限公司 | 无人结算场景中异常检测方法、装置及设备 |
CN109858329A (zh) * | 2018-12-15 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 基于人脸识别的防尾随方法、装置、设备及存储介质 |
-
2019
- 2019-12-09 CN CN201911249118.7A patent/CN111144231B/zh active Active
-
2020
- 2020-09-08 WO PCT/CN2020/113951 patent/WO2021114765A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971380A (zh) * | 2014-05-05 | 2014-08-06 | 中国民航大学 | 基于rgb-d的行人尾随检测方法 |
WO2017182225A1 (en) * | 2016-04-21 | 2017-10-26 | Osram Gmbh | Training method and detection method for object recognition |
CN108280952A (zh) * | 2018-01-25 | 2018-07-13 | 盛视科技股份有限公司 | 一种基于前景目标分割的旅客尾随监测方法 |
CN110378179A (zh) * | 2018-05-02 | 2019-10-25 | 上海大学 | 基于红外热成像的地铁逃票行为检测方法及系统 |
CN111144231A (zh) * | 2019-12-09 | 2020-05-12 | 深圳市鸿逸达科技有限公司 | 一种基于深度图像的自助通道防尾随检测方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111144231B (zh) | 2022-04-15 |
CN111144231A (zh) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021114765A1 (zh) | 一种基于深度图像的自助通道防尾随检测方法和系统 | |
CN108062349B (zh) | 基于视频结构化数据及深度学习的视频监控方法和系统 | |
CN108009473B (zh) | 基于目标行为属性视频结构化处理方法、系统及存储装置 | |
CN108052859B (zh) | 一种基于聚类光流特征的异常行为检测方法、系统及装置 | |
US7787656B2 (en) | Method for counting people passing through a gate | |
Chen et al. | A people counting system based on face-detection | |
CN104303193B (zh) | 基于聚类的目标分类 | |
KR101731243B1 (ko) | 유사한 색상을 지닌 다중 이동 물체의 식별 및 추적을 위한 영상 감시 장치 및 방법 | |
CN106570490B (zh) | 一种基于快速聚类的行人实时跟踪方法 | |
Song et al. | Vehicle behavior analysis using target motion trajectories | |
CN106446926A (zh) | 一种基于视频分析的变电站工人安全帽佩戴检测方法 | |
JP2004058737A (ja) | 駅ホームにおける安全監視装置 | |
CN106331636A (zh) | 基于行为事件触发的输油管道智能视频监控系统及方法 | |
US11830274B2 (en) | Detection and identification systems for humans or objects | |
CN102855508B (zh) | 敞开式校园防尾随系统 | |
KR20200123537A (ko) | 딥러닝 및 데이터 결합을 이용한 싱크홀 탐지방법 및 이를 이용한 싱크홀 탐지시스템 | |
CN113658427A (zh) | 基于视觉与雷达的路况监控方法及系统、设备 | |
CN112183532A (zh) | 基于弱监督协同学习算法的安全帽识别方法及存储介质 | |
Yong et al. | Real-time traffic cone detection for autonomous vehicle | |
KR102019301B1 (ko) | 농축산 도난을 감지하는 영상 감시 장치 및 그 방법 | |
KR101560810B1 (ko) | 템플릿 영상을 이용한 공간 관리 방법 및 장치 | |
Börcs et al. | Dynamic 3D environment perception and reconstruction using a mobile rotating multi-beam Lidar scanner | |
Xu et al. | Crowd density estimation based on improved Harris & OPTICS Algorithm | |
Khan et al. | Multiple moving vehicle speed estimation using Blob analysis | |
Mahin et al. | A simple approach for abandoned object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20900455 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
32PN | Ep: public notification in the ep bulletin as address of the adressee cannot be established |
Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 14.11.2022) |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20900455 Country of ref document: EP Kind code of ref document: A1 |