CN116952203A - 用于通过利用对移动对象的基于图像的干扰检测的地面扫描来进行协调测量的方法 - Google Patents
用于通过利用对移动对象的基于图像的干扰检测的地面扫描来进行协调测量的方法 Download PDFInfo
- Publication number
- CN116952203A CN116952203A CN202310390655.3A CN202310390655A CN116952203A CN 116952203 A CN116952203 A CN 116952203A CN 202310390655 A CN202310390655 A CN 202310390655A CN 116952203 A CN116952203 A CN 116952203A
- Authority
- CN
- China
- Prior art keywords
- image
- scanning
- objects
- measurement
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 96
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000001514 detection method Methods 0.000 title abstract description 9
- 230000005855 radiation Effects 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 28
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 230000033001 locomotion Effects 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 15
- 241001465754 Metazoa Species 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 7
- 230000001960 triggered effect Effects 0.000 claims description 6
- 238000011065 in-situ storage Methods 0.000 claims description 4
- CLOMYZFHNHFSIQ-UHFFFAOYSA-N clonixin Chemical compound CC1=C(Cl)C=CC=C1NC1=NC=CC=C1C(O)=O CLOMYZFHNHFSIQ-UHFFFAOYSA-N 0.000 claims description 2
- 230000011664 signaling Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 241000282326 Felis catus Species 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000005693 optoelectronics Effects 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000005305 interferometry Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/36—Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
用于通过利用对移动对象的基于图像的干扰检测的地面扫描来进行协调测量的方法。提供了一种利用静止地面扫描测量装置(1)来对测量空间进行协调测量的自动方法,该静止地面扫描测量装置具有用于将辐射定向发射为自由射束(3)的发射单元、以及以与该发射单元的已知空间关系设置的至少一个摄像机(2)。
Description
技术领域
本发明涉及根据独立权利要求的用于地面激光扫描的方法和地面激光扫描装置。
背景技术
3D扫描是在几分钟或几秒钟内生成对象的数百万空间测量点的非常有效的技术。地面激光扫描技术被用于收集固定不动的人造结构(诸如建筑物、建筑工地、工业工厂)或者不动的人造对象的场景(例如,碰撞地点)的静态点云数据。典型测量任务是记录诸如工业厂房、房屋外墙或历史建筑的对象或其表面,但也记录事故现场和犯罪现场。具有扫描功能的测量设备例如是诸如Leica RTC360或Leica Multi Station 50的全站仪和激光扫描器,它们被用于测量或创建表面的3D坐标。为此,它们必须能够在测量空间内的表面上连续地引导测距装置的测量射束,并且在该处理中同时检测关于测量点的方向和距离。根据针对每一个点的与其相关联的距离和方向信息,借助于数据处理来生成所谓的3D点云。
为此目的,这种静止地面测量装置具有用于生成光学测量辐射(通常是激光辐射)的至少一个辐射源和光学装置(诸如透镜、棱镜、反射镜、导光纤维、或准直器),借助于此,所生成的测量辐射可以在自由空间中被发射到待测量目标上,因此,这些装置也被称为所谓的自由射束传感器。在这种情况下,光学测量辐射被理解为电磁辐射,不仅指可见光谱范围内的辐射,而且还指紫外、红外以及太赫兹范围内的辐射。已知光电测量装置使用具有405nm、532nm、635nm、650nm-690nm、780nm或785nm、795nm、808nm-850nm、905nm、980nm、1064nm,或者1500nm与1570nm之间的波长的测量辐射。
就基本结构而言,这种地面激光扫描器因而被设计成,利用通常为光电和基于激光的测距装置来检测距作为测量点的对象点的距离。在这种情况下,同样存在的方向偏转单元按这样的方式来设计,即,测距装置的测量射束以至少两个独立的空间方向进行偏转,作为其结果,可以记录空间测量区域。在此,沿水平方向的扫描区域经常是360°,即,一个整圆,并且沿竖直方向的扫描区域例如是180°,其结果是覆盖了至少一个半球,这与最大测量距离一起限定了测量空间。该偏转单元可以以移动反射镜的形式来实现,或者另选地还通过适合于控制光学辐射的角度偏转的其它部件(举例来说,诸如可旋转棱镜、可移动光波导、可变形光学组件等)来实现。该测量通常是随着距离和角度的确定来实现的,即,采用了球面坐标,该球面坐标还可以变换成笛卡尔坐标,以供显示和进一步处理。该测距装置例如可以根据飞行时间(time of flight,TOF)、相位、波形数字化仪(waveform digitizer,WFD)或干涉测量的原理来具体实施。对于快速且准确的扫描器来说,特别需要结合高测量准确度的短测量时间,例如,mm范围或更低的距离准确度,并且单独点的测量时间处于亚微秒到毫秒的范围内。在这种情况下,测量区域的范围从几厘米到几公里变动。
在这种情况下,空间测量分辨率具有特殊的重要性。该空间测量分辨率确定仍然可以标识什么细节,而且还确定扫描处理的持续时间和在该处理中获得的数据量。利用现代高速扫描器的测量项目生成具有例如数亿或数十亿个对象点及以上的基数(cardinality)的3D点云。与这样的3D点云相关联的庞大数据量的存储、传输以及处理导致针对硬件和软件的极大挑战。例如,用于评估3D数据的程序的执行速度很大程度上取决于扫描点的数量。因此,如果仅记录与相应测量任务实际相关的那些点或数据,则其是有利的。
这当中尤其是记录了现实生活中的不相关扫描点,因为不希望的移动或可移动对象(行人、动物、移动的汽车)可能在工作流程期间穿过所安置的激光扫描器的扫描线(这可能花费几分钟甚或更久),并因此被扫描/成像。
这种不想要对象和/或移动对象会进一步干扰或破坏测量。除了生成点云之外,通常还由大地测量装置的捕获单元来捕获对象的数字图像。该数字图像提供关于对象的进一步信息,例如,关于对象的可以与点云组合的颜色或纹理。至于获得这样的经彩色化或纹理化的点云(用于3D扫描数据的纹理化或彩色化的数字2D图像数据的覆盖/投影),需要两个步骤,即,利用激光扫描器的一个或更多个摄像机来扫描和捕获数字图像。这两个步骤是一个接一个地进行的。即,在收集了3D点数据之后,收集被测量空间的数字图像并将该数字图像投影到3D数据上,使得点数据还包括颜色信息。典型的场景是,当执行扫描或收集数字图像时,行人和/或车辆突然出现在扫描范围中。在扫描和成像完成之前扫描范围中的这种变化导致点云和从图像导出的对应颜色/纹理的部分不匹配或不一致。
另一典型场景是,扫描器的用户或操作者自己可能错误地处于扫描区域中。理想情况下,用户根本不在被扫描的房间中,因此无法直接观察到该情形。
但是即使操作者不在被扫描的房间中,也可能发生不期望的事件,其中不希望的对象无意地破坏扫描/成像数据。例如,在建筑物内部,宠物即使没有移动也可能是不想要对象。这种情形也适用于显示可容易识别的人的照片。例如,对于房地产业务来说,这是一个重要的话题。
在最坏的情况下,这种不希望的影响是稍后在数据处理期间在办公室中才被注意到的,而那时太晚了或者基本上不可能重复该扫描/成像处理。在办公室导入期间没有检测到的不希望对象只能通过手动去除,因此不容易被消除(即使可以消除,也无法完全消除),这是乏味且耗时的任务。
发明内容
因此,本发明的目的是,提供一种改进的扫描方法。
根据本发明,该目的是通过独立权利要求的特征化特征或者通过从属权利要求的特征来实现的,这些解决方案也是根据从属权利要求的特征开发的。
本发明涉及一种利用静止地面扫描测量装置(在下文中被称为激光扫描器)来对测量空间进行协调测量(coordinative measuring)的自动方法,该静止地面扫描测量装置具有用于将辐射定向发射为自由射束的发射单元、以及以与该发射单元并由此与该自由射束的发射方向(特别是方位发射方向)的已知空间关系设置的至少一个摄像机。所述扫描方法包括以下自动步骤:与利用射束进行扫描并行地,利用摄像机获取测量空间的多个连续实况图像(特别是采用视频流的形式),和/或同时覆盖完整的测量空间。
所述方法还包括以下步骤:确定测量空间中是否存在潜在移动对象(即,实际上正在移动或者可能正在移动的对象),并且在存在潜在移动对象的情况下,通过或者基于对所获取的图像的至少部分的图像处理,来确定该潜在移动对象与当前发射方向的空间关系,该图像处理包括:根据所定义的对象类(优选地使用神经网络和/或基于语义图像分割),来对图像内容进行分类。特别地,在激光扫描器绕方位轴线旋转期间拍摄图像,在一系列图像中跟踪对象,并且评估所跟踪的对象相对于扫描器的移动。
所述方法还包括以下步骤:基于所确定的空间关系以及可选地还基于对象被分类成的类,来估计潜在移动对象对扫描射束的可能干扰;以及响应于该估计的结果,来触发激光扫描器的自动反应。
作为附加的自动步骤或者作为另一方面,存在以下步骤:与通过激光扫描器沿成像方向捕获测量空间的至少一个数字图像并行地,利用摄像机获取该测量空间的多个连续实况图像,特别是采用视频流的形式,所述至少一个数字图像专用于与测量空间的3D扫描数据进行组合,特别是被组合用于3D点云的彩色化和/或纹理化。此外,存在以下步骤:确定测量空间中是否存在潜在移动对象,并且在存在潜在移动对象的情况下,基于对所获取的图像的至少部分的图像处理,来确定该潜在移动对象与当前成像方向的空间关系,该图像处理包括根据预定义的对象类来对图像内容进行分类;基于所确定的空间关系,来估计潜在移动对象特别是在视场中的存在对所述至少一个数字图像的捕获的可能干扰;以及响应于该估计的结果,来触发激光扫描器的反应。
作为又一附加步骤或作为又一方面,存在对由通过扫描生成的扫描的强度图像与由激光扫描器获取的测量空间的至少部分的数字图像之间的一致性进行自动现场(in-field)检查,该数字图像专用于与该扫描进行组合,特别是被组合用于3D点云的彩色化和/或纹理化,具有以下自动步骤:匹配强度图像和数字图像的对应对象;验证强度图像与数字图像之间的匹配对象的位置的一致性;在对象不匹配和/或位置不一致的情况下,触发反应,特别是向激光扫描器的用户输出通知。例如,采用在示出对象的图像上的图形覆盖的形式。
由此,优选地,存在根据所定义的对象类来分别对强度图像和数字图像的图像内容进行分类,并且匹配是强度图像和数字图像的对应的经分类对象的匹配。作为另一优选选项,从所述匹配中排除任何确定的潜在移动对象,举例来说,如上面所描述的通过对所述获取的实况图像的至少部分进行图像处理而确定的潜在移动对象;因此,可以从图像的内容的比较中排除诸如车辆、行人、动物、肢体等的潜在移动对象,然后忽略它们对结果的影响。
优选地,所定义的对象类包括至少一类移动的自主移动对象、特别是人类、动物和/或车辆。所定义的对象类还可选地包括至少一类不动的自主移动对象。另选地或者另外地,对象类包括至少一类移动对象的图片和/或自主移动对象的图片,即,一类移动对象或自主移动对象的描绘,诸如在摄像机的视场中可见的绘图、照片或电影。
作为又一选项,所定义的对象类包括对于确定空间关系或估计的步骤中的至少一个步骤来说要忽略的至少一类潜在移动对象,其中,可选地,要忽略的类可由用户选择和/或根据所确定的对象距离和/或测量空间的类来自动选择,由此,基于对所获取的图像的至少部分的图像处理来对测量空间进行分类。
作为另一选项,所定义的对象类包括要从正被勘测或捕获的对象中潜在地排除的至少一类不想要对象,并且所述方法包括以下步骤:基于图像处理来确定是否存在这种不想要对象,并且在存在不想要对象的情况下,向用户输出通知,该通知用信号通知测量空间中存在这种对象并且包括示出该不想要对象的至少部分的图像,其中,可选地,不想要对象的类可由用户选择和/或根据所确定的对象距离和/或测量空间的类来自动选择,由此,基于对所获取的图像的至少部分的图像处理来对测量空间进行分类。
可选地,图像处理包括:在考虑图像获取期间由扫描造成的摄像机的旋转移动的情况下,比较连续图像中的至少两个图像的对应图像区域的位置,并且仅对具有与该摄像机旋转不一致的位置移位(shift)的图像区域的对象进行分类。
作为另一选项,估计可能干扰的步骤包括:估计将来可能的干扰,优选地,由此所述反应是在估计在不久的将来/即将发生的可能干扰时自动暂停扫描和/或数字图像捕获;并且可选地,当移动对象已经相对于发射方向移动离开所定义的距离时,自动继续扫描。
在进一步的开发中,该反应包括经由人机界面向用户输出通知,特别是警告,由此,该通知是在所述图像中的至少一个图像上的图形覆盖,该图形覆盖包括根据过去的干扰或不干扰(对于射束和/或数字图像捕获)和/或诸如速度或步速的移动参数和/或对象与当前发射方向的接近度和/或空间关系中的至少一者对该对象的不同标记。另选地或者另外地,该通知包括所述图像中的示出在过去的可能干扰(对于射束和/或数字图像捕获)时移动对象的至少部分的图像之一。
优选地,连续地重复这些步骤,直到扫描了完整的测量空间,和/或所述方法包括以下步骤:获取扫描开始之前的实况图像,以及响应于估计的结果,特别是如果确定在测量空间中没有移动对象,则作为激光扫描器的反应,自动触发利用射束开始扫描。
可选地,将由确定步骤、估计步骤和/或触发步骤中的至少一个步骤产生的信息存储为附加至由扫描建立的点云的元数据。于是,可以支持办公室中的后处理。
作为另一选项,用户可以根据对象被分类至的类来选择标记该对象,并将该标记(tag)作为元信息与扫描数据一起存储。即,提供给操作者以存储对象的类。
本发明的优点在于,在该领域中,例如在用户的请求下,自动指出所检测到的可能干扰或不一致。或者,特别是在检测到潜在移动对象的情况下,在该潜在移动对象出现在场景中(靠近激光束或者在为点云彩色化而拍摄的图像中)之前自动暂停扫描。一旦不希望的对象消失,仪器就可以自动地决定继续收集数据。由于使用了覆盖扫描射束周围区域的实况摄像机图像,因此,在不希望的移动或可移动对象可能干扰扫描数据之前,就可以检测到这样的对象。
另外,当检测到不想要的潜在移动和/或不一致的对象时,可以在所捕获的图像中自动标记该对象,并将该对象在直接或者经由云连接的移动装置(例如,平板电脑、现场控制器或智能手机)上显示。该仪器的用户/操作者可以选择将什么考虑为不想要/干扰对象。这样的示例可以是移动的或不动的人、动物、或车辆。也可以为特殊应用定义其它类不希望的对象。
有利地,若必要/希望的话,在容易(和可能)重复扫描的现场,早已在扫描工作流程期间或者在扫描工作流程之后直接警告用户。在数据中留下不希望的对象的情况下(例如,通过决定不重复扫描/成像),可选地,可以定位那些对象,并且通过在扫描数据和图像中修补(inpainting)来“删除”或“替换”它们。
在优选实施方式中,可以区分已经穿过扫描线的潜在移动对象、或者已经在数字图像中被成像并因此影响扫描数据的潜在移动对象、或者刚刚接近并且有潜在干扰扫描数据的潜在风险的潜在移动对象。然后,对应的动作可以是不同的(例如,暂停以及一旦对象不再太靠近扫描线就恢复扫描/数字成像)。可以将周围环境作为图像流来流传输至用户的移动装置。变得靠近扫描线或摄像机的FoV的潜在不希望的对象可以在预览中进行标记并向用户示出,使得该用户可以在扫描数据被干扰之前决定做什么。
附图说明
下文中,参照附图中示意性描绘的示例性实施方式,完全作为示例,对根据本发明的协调测量装置和用于扫描的方法进行更详细描述。
更具体地,在附图中:
图1示意性地示出了用于扫描测量空间的地面激光扫描器的示例性使用,
图2a至图2e示意性地示出了用于自动确定测量空间中的移动对象并且如果存在这样的对象则确定是否需要对该对象作出反应的方法的示例,
图3示意性地示出了用于自动确定测量空间中的不想要对象并且如果存在这样的对象则确定是否需要对该对象作出反应的方法的示例,以及
图4示意性地示出了用于扫描数据与数字图像数据之间的一致性的现场检查的方法的示例。
具体实施方式
图1示出了作为具有用于扫描测量空间的扫描功能的静止勘测设备的示例的地面激光扫描器1的示例性使用。在该示例中,测量空间或扫描区域是用于协调测量作为测量对象的建筑物表面/属性4、5的室外环境(街道场景)。测量空间的其它示例是室内环境,诸如厂房或房间或公寓的内部。
如本领域中已知的,这种激光扫描器1包括基座12(例如,三脚架),激光扫描器与该基座一起被安置在位置L处。激光扫描器1的上部11可以以马达驱动方式绕竖直轴线A1相对于基座12旋转(箭头R1)。绕第二旋转轴线A2的第二旋转R2是通过旋转反射镜10来提供的,该旋转反射镜将源自激光源(未描绘)的激光束3作为自由射束沿着目标方向偏转到测量空间中。通过使反射镜10绕横向轴线A2旋转R2,以竖直方式在对象的表面上引导测量射束3,同时通过使整个上部11绕竖直轴线A1旋转R1,在该表面上水平引导测量射束3。因此,自由射束3的目标方向根据已知的扫描模式连续地改变。绕两个轴线A1、A2的旋转范围和(最大)测量距离限定了测量空间,该测量空间在图中是针对一个方向由具有竖直开口角α的灰色竖直三角形V来示意性地指示的。通常,执行所谓的球幕(full-dome)扫描,这意味着测量空间在水平方向上旋转一整圈,并且在竖直方向上具有例如α=270°的角度范围,并且最大距离约十米、一百米或几百米,以使提供球形范围,该球形范围几乎描绘了所有空间方向上直至最大范围的整个周围范围。然而,任意的其它角度范围也是可能的。
将控制和评估单元以数据方式连接至扫描器1的光发射器和光接收器(这里未示出)。该控制和评估单元被具体实施成针对多个测量点,例如根据测量射束3及其反向散射分量的飞行时间或相移,来查明激光扫描器1与测量对象4、5之间的距离。除了查明与激光扫描器1(或者与参考系的原点并且相应地相对于站点S)的距离之外,各个测量点皆可以另外具有亮度值,该亮度值同样由控制和评估单元来查明。亮度是例如通过在被指派给测量点的测量时段内对光接收器的经带通滤波和放大的信号进行积分而查明的灰度值。这些值形成扫描的强度图像。
因此,对各个对象点进行测量,其中,确定距对象点的相应距离以及测量射束3与两个测量轴线A1、A2(当前的水平和竖直发射方向)或两个角度有关的相应对准。因此,该扫描处理生成包含关于被扫描对象4、5的表面的三维信息的点集。这种测量的全体测量点被称为扫描,并且例如可以产生点云。可以将显示设备(这里未例示)连接至控制和评估单元,该显示设备可以被配置为直接处于激光扫描器1上的显示器,或者被配置为所连接的计算机(例如,平板电脑或智能手机)的显示器。
可选地,另外还可以借助于协调测量装置1的一个或通常多个彩色摄像机2来生成数字图像,优选为具有例如1MP最小值的高分辨率图像,其允许将附加的颜色值指派给测量点以提供经纹理化或彩色化的点云。这种地面激光扫描器1可以配备有一个或更多个摄像机2,以用于在扫描工作流程期间拍摄图像或者提供周围环境的视频流。此外,具有一个或更多个摄像机2的这种测量装置1也是已知的,所述摄像机2允许记录测量空间的广角或全景图像。
由于这种扫描装置是通过测量射束3的连续扫掠(sweep)以及连续测量而不是单个点的瞄准测量来测量例如数百万个表面点的,因此,以密集的方式或者完全地记录测量空间,这意味着该测量空间内的任何对象都被扫描。这对于静止的、不动的对象尤其如此,但是对于移动对象如果穿过测量射束3并且相应地穿过扫描线,也是如此。因此,如在该示例中所描绘的,不仅扫描打算要测量的建筑物4、5,而且车辆6如果进入测量空间(由箭头14指示)并且在射束3如图所指示那样被引导至建筑物4的时候在该建筑物前方通过,则该车辆也被扫描。如图所示的另一示例是人类7在测量空间中行走(由箭头15指示),甚至可能是扫描器1的操作者自己,并且潜在地干扰测量射束3。其它示例是例如处于内部环境下的动物,比如猫或狗。特别地,与不可移动或者不动对象(比如岩石或扶手椅)或者静物(stilllife)的对象(比如正在行驶的汽车6或者人类7或者动物)相比,这样的移动对象或潜在移动对象(因此涉及非静止的或者可自然移动的或者打算移动/被移动对象)并非打算要被测量/扫描,而是潜在地干扰测量,例如,被成像在点云中以及在最坏的情况下覆盖应当被测量的表面,而这可能不会比在通常太晚而不能重复扫描时的办公室中更早地注意到。本发明提供了一种用于自动地对现场中的这种潜在移动对象6、7作出反应的方法,特别是防止首先记录不想要对象6、7。
图2a至图2e示出了作为激光扫描器的扫描功能的部分执行的用于自动确定测量空间中的潜在移动对象并且如果存在这样的对象则确定是否需要对其作出反应的方法的示例。所描绘的是两个图像I1、I2,作为在扫描期间利用激光扫描器的摄像机获取的测量空间的至少部分的实况图像的示例。被附接或内置于激光扫描器的一个或更多个摄像机具有覆盖当前扫描方向或发射方向的视场。优选地,使用全景图像和/或摄像机提供全方位视觉。
图像I1、I2是关于时间的图像序列的部分,由此第二图像I2是在第一图像I1之后的某一时间拍摄的。选择获取的时间差,使得考虑到激光扫描器的旋转速度,或者更确切地说考虑到激光扫描器的上部绕竖直轴线或方位轴线的旋转速度以及随之的摄像机或视场,图像I1和I2具有重叠。视场的移位在图中是由水平移位ΔR来例示的。
重叠部分的图像内容是通过以旋转速度或者摄像机移动范围ΔR的知识进行图像处理来比较的,例如,使用考虑摄像机旋转的对象跟踪算法。摄像机旋转或移位ΔR优选地由扫描参数已知。对静态或不动的对象(诸如建筑物4,5)进行成像的图像区域根据该移位ΔR进行移位。因此,可以通过与第一图像I1相比的位移ΔR而在第二图像I2中找到所述对象。另一方面,如果区域的位移没有如预期的那样表现,即,不等于总体图像移位ΔR,则该区域的对象一定已经移动。在示例中,图像区域8和9具有由驾驶的汽车6和被成像的行人7的移动而造成的这种发生位移的图像内容。换句话说,在扫描工作流程期间,使用对象跟踪算法来相对于扫描器绕其方位轴线的移动,对比不动的对象滤除移动对象。对象跟踪算法可以基于经典算法和/或使用人工智能技术,诸如神经网络。跟踪算法可选地考虑附加的传感器信息,诸如扫描器的移动(绕方位轴线的移动),或者包括扫描数据和/或其它技术的深度信息(对象到扫描器的距离),以估计移动对象到激光扫描器的距离。
图像I1、I2中的至少一个图像可以通过用于多对象检测(诸如“你只需看一遍(Youonly look once,Yolo)”或者“单步多框目标检测器(single shot multibox detector,SSD)”或者类似检测)的神经网络进行管道输送。神经网络例如提供被检测对象的边界框和中心以及被检测对象的类型(例如“行人”、“汽车”)。另外地或者另选地,可以应用使用图像分割的神经网络,其例如不仅提供边界框,而且提供对象6、7的精确形状/轮廓。
如图2c所示,有利的是,通过诸如对象检测和分类的图像处理,仅对具有发生移位的图像内容/示出移动对象6、7的所述图像区域8,9进行进一步评估。如图中示意性地描绘的,根据一组所定义的对象类(类1至类4)对具有移动对象内容的图像区域8,9进行分类。例如,将区域9分类成“行人”类,并且将区域8分类成“移动的汽车”类。类的其它示例可以是“人类”或“车辆”。一般来说,这些类优选地在广义上指的是自主移动对象中的一个,意指可以靠自己移动的对象类,诸如人类或动物和/或车辆或运输/运移(locomotion)装置,特别是汽车、自行车、踏板车或无人机。此外,可以存在可移动(被设计或配置为移动的)的一类或更多类对象,诸如门扇。
在任何情况下,作为图像处理的结果,例如,如上面所描述的用于对象检测和分类的神经网络和用于在移动(旋转)坐标系中进行对象跟踪的算法的组合,确定移动对象的存在,由此像这样识别移动对象。特别地,这样的移动对象与类似但(实际上)不动的对象被区分开,例如,正在行驶的汽车区别于停放的汽车或者步行的人区别于静立的人(或者死去的人/尸体,其例如在扫描犯罪地点时是相关的)。这样的移动对象甚至可以例如通过经相应训练的神经网络与汽车的图片(例如,广告海报)或者例如在室内扫描中可能存在的人类的图片区分开。在更广泛的方法中,该算法优选地将对象的任何图像与真实对象区分开,因此,例如屏幕上示出移动的汽车或人类的电影也被像这样识别/分类,并且与真实的移动的汽车或行人分离开。
优选地,通过例如使用上面提及的自主移动类而仅考虑主动移动对象来建立附加区分。相反,被动移动对象(诸如因风而晃动的树木枝叶)被忽略/挑出(sorted out),并且不被进一步考虑。从其它方面看,优选地对不是向前进(move on)而只是显示以固定位置为中心的交替移动的移动对象(因此,它们不可能改变它们相对于扫描器的当前相对位置)进行不同对待,首先不进一步处理。这种挑出可以基于这样的对象的类;因此,如果对象被分类到这样的类,则它被忽略用于任何后续处理。该组类也还可以包括要从测量中排除/一般不应被扫描的一类或更多类不想要对象。
在由用户扫描之前,可以可选地从一组类中选择要忽略的对象类或者不想要对象类。另选地或者另外地,这样的对象类被自动地选择为对测量空间的适配。例如,自动地从测量空间的图像中分类测量环境,例如“室外”或“室内”,并且在随之识别出室外环境的情况下,将“树枝”或“植物”类选择为忽略。作为自动选择如何处理或忽略对象的另一标准,可以使用对象距离(例如,在该对象的图像尺寸上估计的对象距离),例如当同一对象不是在较靠近扫描器时,忽略相距较远的对象(超出定义距离(例如,固定值)、和/或与测量空间的范围相关)。
图2d例示了用于进一步处理所识别的要考虑的潜在移动对象的示例,例如,被分类为如上面所描述的相关类,诸如行人7或正在行驶的汽车6。确定对象6、7与当前发射方向E(在图中由虚线E指示)的空间关系,该虚线与对象在当前实况图像I2中的位置(例如由对象6、7的边界框定义的)有关。在示例中,只考虑了发射的水平方向,然而,也可以考虑竖直方向。
空间关系包括对象距扫描线E的相应距离D1、D2。在示例中,还确定对象相对于射束扫掠方向的位置,即,对象是在射束行进方向的前方还是后方。作为又一参数,确定并考虑对象的速度和方位旋转(由箭头14、15、16指示)。总而言之,在该示例中,查看在扫描工作流程期间对象6、7相对于激光扫描器绕方位轴线的移动的移动,以确定它们的相互空间关系。
如图2e示意性地示出,基于所确定的各个对象6、7与发射方向E的空间关系,估计移动对象6、7对测量射束/扫描的可能或潜在干扰。在示例中,汽车6的速度(如扫描器所看到的)使得该汽车具有与水平扫描方向相同的方向,同时具有更高的速度。因此,汽车很可能会停在发射方向E的前头,而不会被测量射束触及。因此,估计将不会干扰射束/扫描(在图中用对号“√”18表示)。
该估计可选地考虑所确定的类的相应对象6、7。例如,考虑所存储的类的典型移动特征((诸如典型移动方式或模式或典型速度),以用于估计是否可能发生/将发生干扰。由此,可以随之考虑对象的位置或周围环境;例如,识别汽车6正行驶于的道路13(参见图2a、图2b),并由其预测沿着该道路的将来移动路径,并且检查该高度可能的移动路径是否将穿过射束路径。
相反,当确定人类7处于扫掠的前方并且以相反的方向行走时,自动估计他将可能穿过扫描线E。这种可能的将来干扰自动触发激光扫描器的反应。
在示例中,触发的一个反应是经由诸如扬声器或指示灯的人机界面或者例如在显示实况图像I2的显示器(例如,激光扫描器的显示器或者与该激光扫描器连接的手持式装置的显示器)上以图形(覆盖感叹号)17的形式的视觉通知,来输出视觉或可听警告。另选地或者另外地,特别是如果操作者没有对该警告17作出反应并且移动对象的干扰即将来临(人17靠近扫描线E并且将在下一秒等内被射束照到(striven)),则自动反应是暂停扫描。通过对扫描的这种中断,自动防止了移动对象7被扫描并且避免了干扰扫描点。
作为另一选项,连续地观察当前干扰对象7的位置,并且当对象7穿过激光扫描器的当前对准(在该示例中,向对准E的右侧移动-所定义的“安全”距离)时,自动地继续扫描。作为另一选项,不仅在扫描期间连续执行测量空间关于移动对象6、7的基于图像的自动监视,直到扫描结束,而且在扫描之前开始,并且如果移动对象6、7没有在测量空间中被检测到或者至少没有处于射束对准附近并且相应地未处于距该射束对准的所定义距离内,则自动开始扫描,由此可以考虑对象的移动方向和速度和/或扫描速度。
作为反应的通知(例如,采用摄像机图像上的图形覆盖的形式)还可以不仅在干扰被估计为可能/很可能的情况下被触发,而且如在图中由对号18(该对号向操作者给出相应对象6将不干扰的通知)所指示的被触发。其它图形指示可以涉及对象的速度(速率和/或方向)或加速度或者该对象与当前发射方向的接近度,例如根据距离或速度的程度而具有不同的颜色。例如,可以将周围环境作为图像流来流传输至用户的平板电脑。变得靠近扫描线E的潜在不希望的对象可以在预览中被标记并向用户示出,使得该用户可以在扫描数据实际上被干扰之前决定做什么。
然而,该估计可能不仅涉及将来的干扰,而且涉及当前或过去的干扰。然后,例如,如果基于所确定的空间关系估计移动对象6、7很可能已经干扰到扫描射束并且相应地已被扫描,那么这也可以以图形符号的形式指示给操作者,例如在实况图像中标记该对象。另选地或者另外地,显示了示出在可能干扰时的对象/测量空间的图像。这允许用户可以在现场决定是否可以容忍该干扰(例如,由于没有相关表面被覆盖或者仅小程度地覆盖,使得例如可以进行修补)或者是否必须(部分地)重复扫描。
如图3示意性地示出,以类似的方式,可以使用示出不想要对象(或者该不想要对象的至少一部分,例如,在大对象的情况下)的摄像机图像,来将如上提及的不想要对象的存在用信号通知给用户。在示例中,定义了“动物”类,并且使用利用对图像内容进行分类的图像处理,如果测量空间具有不想要对象,则在实况摄像机图像I中确定了猫19。
如该图所示,不想要对象19在所显示的图像I中由边界框17a和警告符号17标记为对所确定的存在猫19的反应。因此,用户获知不想要对象存在并且将被扫描,并且可以在现场对存在不想要对象作出反应,该不想要对象可以是也可以不是移动对象,特别是人类或动物。作为另一自动反应,激光扫描器还可以自动地省略测量空间的包含不想要对象的部分,并且如果可能的话(在可移动对象的情况下),在对象(例如,猫19)已经走开时稍后扫描被省略的部分;或者通过放出视觉和/或可听通知来作出反应,以用于驱使人类改变位置/离开测量空间,或者在存在动物19(例如,猫或狗)的情况下,触发激光扫描器的超声发射器或者所连接的装置的超声发射器,来发射超声以把动物19赶走,例如,将该动物赶出测量空间。
上面提及的对潜在移动对象或不想要对象的自动确定和考虑也可以应用于一个或更多个(特别是高分辨率的)图像的收集,作为用于生成被扫描表面的覆盖(纹理、颜色)的源,或者作为独立的过程或优选地与移动对象扫描射束干扰监视/检测相结合,使得扫描和用于进行纹理化/彩色化扫描的图像都没有(不可容忍的)移动对象。因此,使用对测量空间的至少部分(优选为整个测量空间(360°视图))进行成像的实际实况图像(例如,视频流),该测量空间中是否存在潜在移动对象通过图像处理来自动确定,该图像处理包括对实况图像的图像内容以及该图像内容与捕获数字图像所依据的成像方向的空间关系进行分类。基于所确定的空间关系,自动估计移动对象对数字图像的获取的可能干扰,并触发对估计结果的反应。由此,所述实况图像可以是与上面提及的扫描并行获取的实况图像(这意味着扫描和数字成像是并行执行的),或者它们是其它/另外的实况图像,特别是如果在扫描之前或之后执行数字成像的话。
因此,例如,如果在实况图像中识别出行人,则基于例如该行人的位置和移动方向,来估计该行人是否将进入捕获数字图像的激光扫描器的摄像机的当前视场,由此如果特别适用,则考虑扫描器/摄像机的旋转。如果估计该人将进入视场并因此干扰图像获取,则触发数字成像的暂停,并且当该人已经离开视场时,自动继续。其它可能的反应是向操作者警告过去、现在或将来的干扰,原则上也如上所述,例如,使用实况图像或受干扰的数字图像中的一个或更多个图像以视觉方式/图形方式进行警告。因此,该方法使得能够防止受干扰的纹理图像和/或现场识别干扰,从而允许快速反应/补偿。
图4示出了本发明的另一方面,其可以被暗示为上述过程之后的过程或者暗示为单独或独立的过程。示意性地示出了扫描的强度图像21以及用于点云的纹理生成/由扫描生成的点云的彩色化的相应数字图像20。两个图像20、21示出了基本上相同的(部分)测量空间,因此应当具有相等的图像内容并且相应地描绘了相同的对象,在该示例中,示出了对象22、23、7。然而,实际上,可能存在例如由不同的获取时间造成的差别或差异,这可能导致错误的经纹理化或彩色化的点云。
为了防止这种错误,该方法包括以下步骤:使用强度扫描图像21和数字图像21,来对扫描数据(扫描和纹理图像的数据)进行现场一致性检查。目的是通过检测两个图像20、21中的对象22、23并且匹配对应对象22、23并且比较对应对象22、23的位置来检测这两个图像之间的不一致性。
在示例中,首先根据所定义的对象类来确定和分类对象22、23、7。如果是如上所描述的工作流程的一部分,则由此可以使用已经由干扰检查/观察呈现的对象确定结果,例如,被存储为扫描或数字图像的元数据的、关于经分类的移动对象的信息。这些类特别区分移动对象7和静止或不动对象22、23。存在于一个或两个图像20、21中的移动对象7被忽略或者移除,如由没有示出步行者7的经清除的图像20'和21'示意性地示出的。另选地或者另外地,使数字图像20和强度图像21相关,由此将RGB摄像机图像变换成灰度图像,该灰度图像将激光波长的反射率近似地视为灰度值。
其它的静止对象22、23应当在扫描数据/强度图像21中和在用于纹理/颜色生成的球形成像处理期间所收集的图像20中的相同位置处都是可见的。相应的验证在图中由箭头24和25以及要素26指示:该要素验证对应对象22或23在第一图像20中的相应位置P1是否与在第二图像21中的位置P2相同。在示例中,左侧的对象22的位置是一致的或吻合的(concordant),这由对号28示出。相反,右侧对象23的位置是不同的,因为在该示例中,人7已经将对象23移出该人在获取数字图像20与扫描之间的路径。
将关于对象23的这种不一致性作为通知输出给用户,例如,如在使用数字图像20'(或者另选地,实际实况图像)的右侧的图中所指示的,在该示例中,具有通过边界框和感叹号来标记不一致对象23的图形覆盖27。于是,用户知道扫描与彩色化图像之间缺乏一致性,并且可以对其作出反应,例如,重复扫描或成像。另选地或者另外地,在检测到不一致性的情况下的自动反应是自动重新扫描或者捕获数字图像以消除不一致性。
很明显,这些示出的图仅示意性地示出了可能的示例性实施方式。如果没有另外提及,那么所述各种方法还可以根据本发明彼此组合并且与现有技术的对应装置和方法相组合。
Claims (15)
1.一种利用静止地面扫描测量装置(1)来对测量空间进行协调测量的自动方法,所述静止地面扫描测量装置具有发射单元和至少一个摄像机(2),所述发射单元用于将辐射定向发射为自由射束(3),所述至少一个摄像机以与所述发射单元并由此与所述自由射束(3)的发射方向的已知空间关系设置,所述扫描方法包括以下自动步骤:
●与利用所述射束进行扫描并行地,利用所述摄像机(2)获取所述测量空间的多个连续实况图像(I、I1、I2),特别是采用视频流的形式;
●确定所述测量空间中是否存在潜在移动对象,并且在存在潜在移动对象(6、7、19)的情况下,通过对所获取的图像(I、I1、I2)的至少部分进行图像处理,来确定所述潜在移动对象(6、7、19)与当前发射方向(E)的空间关系(D1、D2),所述图像处理包括根据所定义的对象类(Ci)来对图像内容进行分类,
●基于所确定的空间关系(D1、D2),来估计所述潜在移动对象(6、7、19)对所述扫描射束(3)的可能干扰,以及
●响应于所述估计的结果,来触发所述扫描测量装置(1)的自动反应(17、17a、18)。
2.根据权利要求1所述的方法,
其特征在于
所述方法还包括以下步骤:
●与通过所述扫描测量装置(1)沿成像方向捕获所述测量空间的至少一个数字图像(20)并行地,利用所述摄像机(2)获取所述测量空间的多个连续实况图像(I、I1、I2),特别是采用视频流的形式,所述至少一个数字图像(20)专用于与所述测量空间的3D扫描数据进行组合,
●确定所述测量空间中是否存在潜在移动对象(6、7、19),并且在存在潜在移动对象(6、7、19)的情况下,基于对所获取的图像(I、I1、I2)的至少部分的图像处理,来确定所述潜在移动对象(6、7、19)与当前成像方向的空间关系,所述图像处理包括根据预定义的对象类(Ci)来对图像内容进行分类,
●基于所确定的空间关系,来估计所述潜在移动对象(6、7、19)对捕获所述至少一个数字图像(20)的可能干扰,以及
●响应于所述估计的结果,来触发所述扫描测量装置(1)的反应(17、17a、18)。
3.根据权利要求1或2所述的方法,
其特征在于
所定义的对象类(Ci)包括至少一类移动的自主移动对象、特别是人类、动物和/或车辆。
4.根据权利要求1至3中的一项所述的方法,
其特征在于
所定义的对象类(Ci)包括至少一类不动的自主移动对象和/或移动对象的图片和/或自主移动对象的图片。
5.根据前述权利要求中的任一项所述的方法,
其特征在于
所定义的对象类(Ci)包括对于确定空间关系的步骤或估计的步骤中的至少一个步骤来说要忽略的至少一类潜在移动对象。
6.根据前述权利要求中的任一项所述的方法,
其特征在于
所述估计的步骤还基于所述移动对象被分类到的所述类(Ci)。
7.根据前述权利要求中的任一项所述的方法,
其特征在于
所定义的对象类(Ci)包括要从所述扫描和/或数字图像捕获中潜在地排除的至少一类不想要对象,并且所述方法包括以下步骤:基于所述图像处理来确定是否存在这种不想要对象(19),并且在存在不想要对象(19)的情况下,向用户输出通知(17、17a),所述通知用信号通知所述测量空间中存在这种对象并且包括示出所述不想要对象(19)的至少部分的图像(I)。
8.根据前述权利要求中的任一项所述的方法,
其特征在于
所述图像处理包括:在考虑图像获取期间由所述扫描造成的所述摄像机(2)的旋转移动(ΔR)的情况下,比较所述连续图像(I1、I2)中的至少两个图像的对应图像区域的位置,并且仅对具有与所述摄像机旋转不一致的位置移位的图像区域的对象(6、7)进行分类。
9.根据前述权利要求中的任一项所述的方法,
其特征在于
估计可能干扰的步骤包括:估计将来可能的干扰。
10.根据权利要求9所述的方法,
其特征在于
所述反应是在估计即将到来的可能干扰时自动暂停所述扫描和/或数字图像捕获;并且可选地,当所述移动对象(6、7、19)已经从所述发射方向(E)移动离开所定义的距离时,自动继续所述扫描或者数字图像捕获。
11.根据前述权利要求中的任一项所述的方法,
其特征在于
所述反应包括经由人机界面输出通知,由此
●所述通知包括实况图像(I、I1、I2)上的图形覆盖(17、17a、18),所述图形覆盖具有根据以下项对所述对象(6、7、19)的不同标记
□过去的可能干扰或者不干扰,和/或
□移动参数(15、16),和/或
□对象与当前发射方向(E)的接近度(D1、D2),
和/或
●所述通知包括所述多个图像(I、I1、I2)中的示出在过去的可能干扰(3)时所述潜在移动对象(6、7)的至少部分的一个图像。
12.根据前述权利要求中的任一项所述的方法,
其特征在于
所述方法还包括以下步骤:对通过所述扫描生成的扫描(21、21')的强度图像与由所述扫描测量装置(1)获取的所述测量空间的至少部分的数字图像(20、20')之间的一致性进行现场检查,所述数字图像(20)专用于与所述扫描进行组合,具有以下自动步骤:
●匹配(24、25)所述强度图像(21、21')和所述数字图像(20、20')的对应对象(22、23);
●验证(26)所述强度图像(21、21')与所述数字图像(20、20')之间的匹配对象(22、23)的位置(P1、P2)的一致性;
●在对象不匹配和/或位置不一致的情况下,触发反应(27),特别是向用户输出通知。
13.根据权利要求12所述的方法,
其特征在于
任何确定的潜在移动对象(6、7、19)均被从所述匹配中排除。
14.一种静止地面扫描测量装置(1),所述静止地面扫描测量装置包括发射单元和至少一个摄像机(2),所述发射单元用于将辐射定向发射为自由射束(3),所述至少一个摄像机以与所述发射单元并由此与所述自由射束(3)的发射方向的已知空间关系设置,所述扫描测量装置(1)具有被配置成执行根据权利要求1至13中的一项所述的方法的自动协调测量扫描功能。
15.一种计算机程序产品,所述计算机程序产品包括程序代码,所述程序代码被存储在机器可读介质上或者通过包括程序代码段的电磁波来具体实施,并且所述计算机程序产品具有计算机可执行指令,所述计算机可执行指令特别是在根据权利要求14所述的地面扫描测量装置的处理单元上执行时,执行根据权利要求1至13中的任一项所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP22169700.6 | 2022-04-25 | ||
EP22169700.6A EP4270050A1 (en) | 2022-04-25 | 2022-04-25 | Method for coordinative measuring by terrestrial scanning with image-based interference detection of moving objects |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116952203A true CN116952203A (zh) | 2023-10-27 |
Family
ID=81654937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310390655.3A Pending CN116952203A (zh) | 2022-04-25 | 2023-04-11 | 用于通过利用对移动对象的基于图像的干扰检测的地面扫描来进行协调测量的方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230342952A1 (zh) |
EP (1) | EP4270050A1 (zh) |
CN (1) | CN116952203A (zh) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10942256B2 (en) * | 2017-06-05 | 2021-03-09 | Metawave Corporation | Intelligent metamaterial radar for target identification |
US11726184B2 (en) * | 2019-03-08 | 2023-08-15 | Leddartech Inc. | Component for a LIDAR sensor system, LIDAR sensor system, LIDAR sensor device, method for a LIDAR sensor system and method for a LIDAR sensor device |
US10816993B1 (en) * | 2019-11-23 | 2020-10-27 | Ha Q Tran | Smart vehicle |
-
2022
- 2022-04-25 EP EP22169700.6A patent/EP4270050A1/en active Pending
-
2023
- 2023-04-11 CN CN202310390655.3A patent/CN116952203A/zh active Pending
- 2023-04-25 US US18/139,216 patent/US20230342952A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230342952A1 (en) | 2023-10-26 |
EP4270050A1 (en) | 2023-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11604065B2 (en) | Fully automatic position and alignment determination method for a terrestrial laser scanner and method for ascertaining the suitability of a position for a deployment for surveying | |
CN108271408A (zh) | 使用被动和主动测量生成场景的三维地图 | |
US20040066500A1 (en) | Occupancy detection and measurement system and method | |
CN101900528B (zh) | 自动跟踪方法和测量装置 | |
US9869755B2 (en) | Laser scanner and method of registering a scene | |
US9989353B2 (en) | Registering of a scene disintegrating into clusters with position tracking | |
US20060177101A1 (en) | Self-locating device and program for executing self-locating method | |
KR102151815B1 (ko) | 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치 | |
CN109362237B (zh) | 用于检测被监测体积内入侵的方法和系统 | |
CN109946703A (zh) | 一种传感器姿态调整方法及装置 | |
US20220237533A1 (en) | Work analyzing system, work analyzing apparatus, and work analyzing program | |
CN114966714A (zh) | 视窗遮挡检测方法及装置 | |
WO2020105527A1 (ja) | 画像解析装置、画像解析システム、および制御プログラム | |
KR102539835B1 (ko) | 3d 카메라를 이용한 디지털 트윈 생성 및 손상 분석 시스템 | |
CN104917957A (zh) | 用于控制摄像机成像的设备及其系统 | |
CN109285381A (zh) | 用于探测停车场内的空闲区域的方法和系统 | |
Liu et al. | Framework for automated UAV-based inspection of external building façades | |
US20210055420A1 (en) | Base for spherical laser scanner and method for three-dimensional measurement of an area | |
CN116952203A (zh) | 用于通过利用对移动对象的基于图像的干扰检测的地面扫描来进行协调测量的方法 | |
JP6988797B2 (ja) | 監視システム | |
WO2021148522A1 (en) | A method and system for generating a colored tridimensional map | |
KR102498023B1 (ko) | 라이다 센서를 이용한 보안 시스템 및 방법 | |
JP6726043B2 (ja) | 物体検出センサ及び監視システム | |
KR20210010262A (ko) | 모바일매핑시스템을 이용한 시설물 안전점검 이동체 | |
KR102602319B1 (ko) | 인공지능 영상 딥러닝 모델을 이용한 다중 객체 추적기반 교통 정보 수집 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |