CN110363058A - 使用单触发卷积神经网络的用于避障的三维对象定位 - Google Patents
使用单触发卷积神经网络的用于避障的三维对象定位 Download PDFInfo
- Publication number
- CN110363058A CN110363058A CN201910206899.5A CN201910206899A CN110363058A CN 110363058 A CN110363058 A CN 110363058A CN 201910206899 A CN201910206899 A CN 201910206899A CN 110363058 A CN110363058 A CN 110363058A
- Authority
- CN
- China
- Prior art keywords
- image data
- data
- pixel image
- computer
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 claims description 78
- 238000012545 processing Methods 0.000 claims description 75
- 238000003860 storage Methods 0.000 claims description 32
- 230000015654 memory Effects 0.000 claims description 30
- 230000011218 segmentation Effects 0.000 claims description 15
- 238000005520 cutting process Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 49
- 238000010586 diagram Methods 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 5
- 238000013439 planning Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 241001269238 Data Species 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 244000144972 livestock Species 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 241000209094 Oryza Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- CWYNVVGOOAEACU-UHFFFAOYSA-N Fe2+ Chemical compound [Fe+2] CWYNVVGOOAEACU-UHFFFAOYSA-N 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 241000124008 Mammalia Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 235000013339 cereals Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000010903 husk Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 210000005171 mammalian brain Anatomy 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Automation & Control Theory (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Optics & Photonics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Architecture (AREA)
- Biodiversity & Conservation Biology (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
接收场景的像素图像数据,其中像素图像数据包括场景中对象的二维表示。接收点云数据,该点云数据包括对应于对象的二维表示的场景内物理对象的三维点坐标。三维点坐标包括物理对象的深度信息。将点云数据映射到像素图像数据的图像平面,以形成集成的像素图像数据,其中像素图像数据的一个或多个像素具有与其集成的深度信息。基于集成的像素图像数据,使用卷积神经网络预测对象的三维边界框。
Description
技术领域
本发明一般涉及一种用于避障的对象定位的方法、系统和计算机程序产品。更具体地,本发明涉及一种用于使用具有LIDAR/IR传感器的选择性采样的单触发卷积神经网络的用于避障的三维对象定位的方法、系统和计算机程序产品。
背景技术
三维(Three-dimensional,3D)对象定位是处理图像数据以检测、识别和/或确定包含在图像中的三维对象的尺寸的过程。3D对象定位和尺寸估计在许多不同的应用中是重要的,诸如用于自动驾驶汽车的避障、机器人导航或估计牲畜的尺寸。执行3D对象定位的传统系统通常直接在从光检测和测距(Light Detection and Ranging,LIDAR)系统或IR传感器获得的点云信息上工作,或者使用多级处理流水线(pipeline),其中该多级处理流水线利用区域建议神经网络(region proposal neural network)来建议具有包含感兴趣对象的概率的区域,然后进行对象分类来对对象进行分类。点云信息是指一组三维坐标,通常是X、Y和Z坐标,用于表示场景中的3D对象。然而,这些传统系统受到点云信息不捕捉红-绿-蓝(red-green-blue,RGB)像素信息以及由于生成了许多区域建议而计算复杂的事实的限制。
发明内容
说明性实施例提供了一种方法、系统和计算机程序产品。方法的实施例包括接收场景的像素图像数据。在实施例中,像素图像数据包括场景中对象的二维表示。实施例进一步包括接收点云数据,该点云数据包括与对象的二维表示相对应的场景内的物理对象的三维点坐标,三维点坐标包括物理对象的深度信息。实施例进一步包括将点云数据映射到像素图像数据的图像平面,以形成集成的像素图像数据,其中像素图像数据的一个或多个像素具有与其集成的深度信息。该方法进一步包括基于集成的像素图像数据,使用卷积神经网络预测对象的三维边界框。
实施例进一步包括分割对象的三维边界框以形成分割的对象。实施例进一步包括估计分割的对象的对象尺寸。实施例进一步包括基于对象尺寸计算对象的路径信息。实施例进一步包括将路径信息发送到汽车控制系统,该路径信息指示汽车控制系统避开该对象。
实施例进一步包括将点云数据插值到图像数据的像素中的每一个,使得图像数据的每个像素具有与其集成的相关联的深度值。实施例进一步包括基于集成的像素图像数据,使用卷积神经网络预测对象的对象分类。在实施例中,从相机设备接收像素图像数据,并且从点云捕捉设备接收点云数据。
实施例进一步包括基于阈值确定需要对相机设备和点云捕捉设备中的一个或多个进行重新定向,以及计算指示相机设备和点云捕捉设备中的一个或多个重新定向到不同捕捉角度的重新定向信息。实施例进一步包括将重定向信息发送到相机设备和点云捕捉设备中的一个或多个。在实施例中,卷积神经网络是单流(single stream)卷积神经网络。
实施例包括计算机可用程序产品。计算机可用程序产品包括一个或多个计算机可读存储设备,以及存储在一个或多个存储设备中的至少一个上的程序指令。
实施例包括计算机系统。该计算机系统包括一个或多个处理器、一个或多个计算机可读存储器和一个或多个计算机可读存储设备、以及存储在一个或多个存储设备中的至少一个上的程序指令,该指令用于由一个或多个处理器中的至少一个经由一个或多个存储器中的至少一个来执行。
附图说明
在所附权利要求中阐述被认为是本发明特征的某些新颖特征。然而,当结合附图阅读时,通过参考以下说明性实施例的详细描述,将最好地理解本发明本身及其优选使用模式、进一步的目标和优点,其中:
图1描绘其中可以实现说明性实施例的数据处理系统网络的框图;
图2描绘其中可以实现说明性实施例的数据处理系统的框图;
图3描绘根据说明性实施例的示例双线性插值过程;
图4描绘根据说明性实施例的示例卷积神经网络(convolutional neuralnetwork,CNN)结构;
图5描绘根据说明性实施例的示例卷积神经网络(CNN);
图6描绘根据说明性实施例的CNN的3D边界框输出的示例;和
图7描绘使用单触发卷积神经网络(CNN)的用于避障的三维对象定位的示例过程的流程图。
具体实施方式
这里描述的说明性实施例一般涉及使用单触发卷积神经网络的用于避障的三维对象定位。传统的对象定位系统在没有选择性子采样(subsampling)的情况下获得LIDAR数据。在一个或多个实施例中,相机捕捉场景的像素图像数据并且LIDAR子系统、IR传感器或另一合适的点云数据收集设备捕捉同一场景的点云数据。这里描述的一个或多个实施例将点云数据映射到图像平面,以形成集成的具有深度(RGBD)信息的RGB图像数据,并使用单触发卷积神经网络(CNN)处理RGBD信息,以从要被用于3D定位的RGBD图像数据中提取特征。在一个或多个实施例中,快速对象尺寸估计能够用于路径规划和避开对象。在一些实施例中,在特定相机或LIDAR角度没有完全捕捉对象的情况下,重新定位信息被计算并被发送到相机子系统和LIDAR子系统中的一个或多个,以指示特定子系统重新定位相机/LIDAR捕捉角度。
人工神经网络(Artificial Neural Network,ANN),也简称为神经网络,是由许多简单、高度互联的处理元件(节点/过滤器)组成的计算系统,这些处理元件通过它们对外部输入的动态响应来处理信息。ANN是处理设备(算法和/或硬件),其在哺乳动物大脑皮层的神经元结构之后但是在更小的规模上被松散地建模。一个大型ANN可能具有数百或数千个处理器单元,而哺乳动物的大脑具有数十亿个神经元,并且它们的整体交互和突现行为的幅度相应增加。前馈神经网络是一种人工神经网络,其中单元之间的连接不形成循环。
在机器学习中,卷积神经网络(CNN)是一种前馈人工神经网络,其中其节点(神经元/滤波器)之间的连接模式受到动物视觉皮层的组织的启发,其中动物视觉皮层的各个神经元被布置成对平铺视野的重叠区域做出响应。卷积网络模拟生物过程,并被配置为被设计成在处理数据(诸如数字图像)时使用最少量的预处理的多层感知器的变型。
卷积神经网络(CNN)是具有执行卷积任务的重叠的“接收场(reception field)”的网络。CNN在辨识图像特征方面特别有效,诸如通过将数字图像中的像素或像素区域与数字图像中的其它像素或像素区域区分。通常,CNN被设计成辨识图像或图像的一部分,诸如检测图像上辨识的对象的边缘。计算机视觉是CNN常用的一个领域。在一个或多个实施例中,单触发CNN是一种方法,其中如这里进一步描述的,一个CNN主干线(trunk)的单次通过足以使用相机数据和点云数据(例如,LIDAR数据)来对对象进行定位以及分类。
一个或多个实施例使用具有传感器的选择性采样信息的单触发CNN捕捉RGBD信息,用于及时避障。各种实施例描述用于以下各项的过程、系统和方法:基于RGBD信道对LIDAR进行选择性采样以表示场景,使用用于3D对象定位的单触发CNN使得神经元连接的新颖实现,以及如果需要,分析3D框以重新定向LIDAR系统和相机并且将3D对象定位应用于对象尺寸估计和避障。
在一个或多个实施例中,描述一种端到端过程,以从相机子系统收集场景的RGB图像数据、使用LIDAR子系统或IR传感器选择性地采样场景的点云数据、将点云数据映射到图像平面、使用一个流(单流)CNN来融合RGB图像数据和点云数据以同时识别对象以及在其3D坐标上回归、基于聚类分割对象、估计对象的尺寸并启用汽车内的汽车控制子系统的移动以及时避开障碍物。一个或多个实施例比使用区域建议随后进行分类的现有系统更有效,使得可以经由对象的有效检测来主动避障。
在用于避障的三维对象定位的过程的实施例中,汽车的相机子系统捕捉包括x、y像素坐标的场景的RGB图像数据。在实施例中,点云捕捉子系统,诸如LIDAR设备或IR传感器,捕捉包括场景内物理3D对象的X、Y、Z物理点坐标(例如,以米为单位)的点云数据。在所有方向上统一捕捉点云信息是昂贵的,并且可能导致场景的重要空间中的数据稀疏。在实施例中,相机子系统分析以高帧速率捕捉的RGB帧以识别场景中感兴趣的区域,确定LIDAR的定向信息,并将信息传输到LIDAR以指示LIDAR子系统在RGB图像数据中找到感兴趣区域的场景位置处定向捕捉和以高频采样。
在实施例中,数据处理子系统通过将点云点转换成相机坐标并将点投影到2D图像来将点云数据映射到图像平面。在实施例中,数据处理子系统计算捕捉时来自相机的RGB图像数据和由LIDAR捕捉深度云信息时的点云数据之间的转换,以考虑两个传感器的差异以及时间和参照系。在实施例中,点云点被投影到图像平面以获得相应的像素坐标。在特定实施例中,给定点云坐标中的3D点(X,Y,Z),对应的像素坐标(x,y)是:
x=X/Z*fx*rd/ru+cx
y=Y/Z*fy*rd/ru+cy
归一化径向距离ru由以下公式给出:ru=sqrt((X^2+Y^2)/(Z^2))。rd的值取决于3个失真系数k1、k2和k3:rd=ru+k1*ru^3+k2*ru^5+k3*ru^7。变量fx和fy表示焦距,并且cx和cy表示相机系数。
在实施例中,数据处理子系统通过执行双线性插值来补偿点云数据的稀疏性,以在RGB数据的每个像素处获得点云点信息,从而获得其中RGB图像数据的每个像素具有相关联的深度值的RGB图像数据。在特定实施例中,数据处理子系统使用基于KDTree类索引搜索(KDTree-like index-based search)来有效地获得具有点云信息的最近像素。
在实施例中,数据处理系统使用单流CNN流水线来处理RGBD图像数据,并预测图像数据中的一个或多个对象的对象分类和每个对象周围的3D边界框坐标。在特定实施例中,使用单流CNN流水线来融合RGB和点云信息允许在磁盘上存储显著更少的参数以及提供高推理速度。在实施例中,数据处理子系统处理对象的3D边界框和定向,以确定对象的某些面是否不清晰(例如,太小),并指示相机和LIDAR子系统将其自身重新定向到不同的捕捉角度,以重新捕捉图像数据和点云数据中的一个或多个,以获得用于使用CNN进行处理的更有利的数据。在一个或多个实施例中,在获得3D边界框之后,数据处理子系统确定LIDAR和相机是否需要被重新定向,以基于对边界框进行预测的置信度值和3D面尺寸获得对象姿态的更好估计。
在实施例中,数据处理子系统通过使用计算像素距离的深度信息来聚类像素从而分割每个对象以获得准确的对象尺寸。在特定实施例中,像素距离是深度差和R、G、B值的加权组合。在实施例中,数据处理子系统基于图像数据中极值点之间的距离来估计分割的对象的尺寸。在实施例中,数据处理子系统使用用于路径规划的对象的尺寸估计来生成路径信息,以指示汽车控制系统基于距离和对象的尺寸来避开障碍物。尽管各种实施例被描述为用于自动驾驶车辆的避障,但是应当理解,这里描述的原理可以用于其它应用,诸如测量牲畜、增强现实应用或机器人导航。
仅作为示例关于特定类型的3D对象定位、神经网络、传输、验证、响应、传感器、测量、设备、数据处理系统、环境、组件和应用来描述说明性实施例。这些和其它类似人工制品的任何具体表现形式并不旨在限制本发明。在说明性实施例的范围内,可以选择这些和其它类似人工制品的任何合适的表现形式。
此外,说明性实施例可以关于任何类型的数据、数据源或通过数据网络对数据源的访问来实现。在本发明的范围内,任何类型的数据存储设备可以在数据处理系统本地或通过数据网络向本发明的实施例提供数据。在说明性实施例的范围内,在使用移动设备描述实施例的情况下,适合与移动设备一起使用的任何类型的数据存储设备可以在移动设备本地或者通过数据网络向这种实施例提供数据。
仅作为示例使用特定的代码、设计、架构、协议、布局、示意图和工具来描述说明性实施例,而不限于说明性实施例。此外,为了描述清楚,在一些实例中,仅作为示例使用特定软件、工具和数据处理环境来描述说明性实施例。说明性实施例可以结合其它可比拟的或类似目的的结构、系统、应用或架构来使用。例如,在本发明的范围内,其它可比拟的移动设备、结构、系统、应用或架构可以与本发明的这些实施例结合使用。说明性实施例可以以硬件、软件或其组合来实现。
本公开中的示例仅用于描述的清楚,并不限于说明性实施例。根据本公开可以想到附加的数据、操作、动作、任务、活动和操纵,并且这些附加的数据、操作、动作、任务、活动和操纵在说明性实施例的范围内被考虑。
这里列出的任何优点仅仅是示例,并不旨在限制说明性实施例。附加的或不同的优点可以通过特定的说明性实施例来实现。此外,特定的说明性实施例可以具有上面列出的一些、全部优点或没有上面列出的优点。
参考附图,特别是参考图1和图2,这些附图是其中可以实现说明性实施例的数据处理环境的示例图。图1和图2仅仅是示例,并不旨在断言或暗示对可以实现不同实施例的环境的任何限制。基于以下描述,特定实施方式可以对描绘的环境做出许多修改。
图1描绘其中可以实现说明性实施例的数据处理子系统网络的框图。数据处理环境100是其中可以实现说明性实施例的子系统的网络。数据处理环境100包括相机子系统102、LIDAR子系统104、数据处理子系统106和汽车控制子系统108。在一个或多个实施例中,数据处理环境100安装在诸如小汽车的汽车内和/或汽车上。在一个或多个实施例中,网络提供在数据处理环境100内连接在一起的各种设备和计算机之间的通信链路。网络可以包括连接,诸如有线、无线通信链路或光纤电缆。
软件应用可以在数据处理环境100中的任何计算机上执行。诸如数据处理子系统106的数据处理系统可以包含数据,并且可以具有在其上执行的软件应用或软件工具。
仅作为示例,并且不暗示对这种架构的任何限制,图1描绘在实施例的示例实施方式中可用的某些组件。作为另一示例,在说明性实现例的范围内,如所示的,实施例可以跨若干数据处理系统和数据网络分布,而另一实施例可以在单个数据处理系统上实现。相机子系统102、LIDAR子系统104、数据处理子系统106和汽车控制子系统108也表示集群、分区和其它适于实现实施例的配置中的示例节点。
数据处理子系统106实现这里描述的神经网络(诸如卷积神经网络)的实施例。在实施例中,数据处理子系统106包括映射模块110、双线性插值模块112、CNN训练模块114、预测模块116、对象分割模块118、尺寸估计模块120和路径规划/避障模块122。在特定实施例中,映射模块110、双线性插值模块112、CNN训练模块114、预测模块116、对象分割模块118、尺寸估计模块120和路径规划/避障模块122中的一个或多个可以包含在软件应用中。
在实施例中,相机子系统102包括相机,该相机被配置为从场景获得包括x、y、z像素坐标的RGB图像信息。相机子系统102进一步分析RGB信息,以从RGB信息中确定一个或多个感兴趣区域,并将感兴趣区域信息发送到LIDAR子系统104。相机子系统102进一步被配置为基于从数据处理子系统106接收的重新定向指令来定向相机。相机子系统102进一步被配置为将RGB图像信息发送到数据处理子系统106。
在实施例中,LIDAR子系统104被配置为基于从相机子系统102接收的感兴趣角度/区域信息来获得包括场景的X、Y、Z坐标的点云信息。LIDAR子系统104进一步配置为基于从相机子系统102接收的感兴趣区域信息和/或从数据处理子系统106接收的重新定向信息来重新定向LIDAR。LIDAR子系统104进一步被配置为将点云信息发送到数据处理子系统106。
数据处理系统的映射模块110通过将点云点转换成相机坐标并将点投影成2D图像来将点云数据映射到图像平面。双线性插值模块112执行双线性插值,以在RGB数据的每个像素处获得点云点信息,从而获得其中RGB图像数据的每个像素具有相关联的深度值的RGB图像数据。
CNN训练模块114向预测模块116提供训练的CNN模型。预测模块116使用单流CNN流水线来处理RGBD图像数据,并预测图像数据中的一个或多个对象的对象分类以及围绕每个对象的3D边界框坐标。在实施例中,预测模块116处理对象的3D边界框和定向,以确定对象的某些面是否不清晰(例如,太小),并且向相机子系统102和LIDAR子系统104发送重新定向信息,以指示相机和LIDAR将其自身重新定向到不同的角度,以重新捕捉图像数据和点云数据中的一个或多个,从而获得用于使用CNN进行处理的更有利的数据。
在实施例中,对象分割模块118通过使用计算像素距离的深度信息聚类像素来分割每个对象的3D边界框以获得每个对象的对象尺寸。在特定实施例中,像素距离是深度差和R、G、B值的加权组合。在实施例中,尺寸估计模块120基于分割的图像数据的3D边界框中的极值点之间的距离来估计分割的对象的尺寸。在实施例中,路径规划/避障模块122使用对象的尺寸估计来生成路径信息并将路径信息发送到汽车控制子系统108。路径信息指示汽车控制系统108基于对象的距离和尺寸避开障碍物。在特定实施例中,汽车控制子系统可以控制汽车的速度、加速度或方向中的一个或多个。
在描绘的示例中,数据处理环境100可以是因特网。网络可以表示使用传输控制协议/因特网协议(Transmission Control Protocol/Internet Protocol,TCP/IP)和其它协议来彼此通信的网络和网关的集合。因特网的核心是主节点或主计算机之间的数据通信链路的主干,包括成千上万的商业、政府、教育和其它路由数据和消息的计算机系统。当然,数据处理环境100也可以被实现为多个不同类型的网络,诸如例如内联网、局域网(localarea network,LAN)或广域网(wide area network,WAN)。图1旨在作为示例,而不是作为对不同说明性实施例的架构限制。
在其它用途中,数据处理环境100可以用于实现其中可以实现说明性实施例的客户端-服务器环境。客户端-服务器环境使得软件应用和数据能够跨网络分布,使得应用通过使用客户端数据处理系统和服务器数据处理系统之间的交互性来运转。数据处理环境100还可以采用面向服务的架构,其中跨网络分布的可互操作软件组件可以被打包在一起作为一致的业务应用。数据处理环境100也可以采取云的形式,并且采用服务交付的云计算模型,用于实现对可以利用最小的管理精力或与服务提供商的交互来快速提供和发布的可配置计算资源(例如,网络、网络带宽、服务器、处理、存储器、存储、应用、虚拟机和服务)的共享池的方便的、按需的网络访问。
参考图2,该图描绘其中可以实现说明性实施例的数据处理系统的框图。数据处理系统200是计算机的示例,诸如图1中的服务器104和106,或者客户机110、112和114,或者用于说明性实施例的、实现过程的计算机可用程序代码或指令可以位于其中的另一类型的设备。
数据处理系统200也表示数据处理系统或其中的配置,诸如图1中的数据处理子系统106,其中实现说明性实施例的过程的计算机可用程序代码或指令可以位于其中。数据处理系统200仅作为示例被描述为计算机,而不限于此。以其它设备形式的实现方式可以修改数据处理系统200,诸如通过添加触摸接口,并且甚至从数据处理系统200中消除某些描绘的组件,而不脱离这里描述的数据处理系统200的操作和功能的一般描述。
在描绘的示例中,数据处理系统200采用集线器架构,包括北桥和存储器控制器集线器(North Bridge and memory controller hub,NB/MCH)202和南桥以及输入/输出(input/output,I/O)控制器集线器(South Bridge and input/output controller hub,SB/ICH)204。处理单元206、主存储器208和图形处理器210耦合到北桥和存储器控制器集线器(NB/MCH)202。处理单元206可以包含一个或多个处理器,并且可以使用一个或多个异构处理器系统来实现。处理单元206可以是多核处理器。在某些实施方式中,图形处理器210可以通过加速图形端口(accelerated graphics port,AGP)耦合到NB/MCH 202。
在描绘的示例中,局域网(LAN)适配器212耦合到南桥和I/O控制器集线器(SB/ICH)204。音频适配器216、键盘和鼠标适配器220、调制解调器222、只读存储器(read onlymemory,ROM)224、通用串行总线(universal serial bus,USB)和其它端口232以及PCI/PCIe设备234通过总线238耦合到南桥和I/O控制器集线器204。硬盘驱动器(Hard diskdrive,HDD)或固态驱动器(solid-state drive,SSD)226和CD-ROM 230通过总线240耦合到南桥和I/O控制器集线器204。PCI/PCIe设备234可以包括例如用于笔记本电脑的以太网适配器、附加卡和PC卡。PCI使用卡总线控制器,而PCIe不使用。ROM 224可以是例如快闪二进制输入/输出系统(binary input/output system,BIOS)。硬盘驱动器226和CD-ROM 230可以使用例如集成驱动电子设备(integrated drive electronic,IDE)、串行高级技术附件(serial advanced technology attachment,SATA)接口或者诸如外部SATA(external-SATA,eSATA)和微SATA(micro-SATA,mSATA)的变体。超级I/O(super I/O,SIO)设备236可以通过总线238耦合到南桥和I/O控制器集线器(SB/ICH)204。
诸如主存储器208、ROM 224或闪存(未示出)的存储器是计算机可用存储设备的一些示例。硬盘驱动器或固态驱动器226、CD-ROM 230和其它类似可用的设备是包括计算机可用存储介质的计算机可用存储设备的一些示例。
操作系统在处理单元206上运行。操作系统协调并提供对图2中数据处理系统200内各种组件的控制。操作系统可以是用于任何类型的计算平台(包括但不限于服务器系统、个人计算机和移动设备)的商业可用的操作系统。面向对象或其它类型的编程系统可以结合操作系统操作,并且从在数据处理系统200上执行的程序或应用向操作系统提供调用。
用于操作系统、面向对象编程系统以及应用或程序的指令位于存储设备上,诸如以硬盘驱动器226上的代码226A的形式,并且可以被加载到一个或多个存储器(诸如主存储器208)中的至少一个中,用于由处理单元206执行。说明性实施例的过程可以由使用计算机实现的指令的处理单元206来执行,这些指令可以位于存储器中,诸如例如主存储器208、只读存储器224或一个或多个外围设备中。
此外,在一种情况下,代码226A可以通过网络201A从远程系统201B下载,在该远程系统201B中,类似的代码201C存储在存储设备201D上。在另一情况下,代码226A可以通过网络201A下载到远程系统201B,在该远程系统201B中,下载的代码201C存储在存储设备201D上。
图1-图2中的硬件可以根据实现方式而变化。除了图1-图2中描绘的硬件之外或代替图1-图2中描绘的硬件,可以使用其它内部硬件或外围设备,诸如闪存、等效的非易失性存储器或光盘驱动器等。此外,说明性实施例的过程可以应用于多处理器数据处理系统。
在一些说明性示例中,数据处理系统200可以是个人数字助理(personal digitalassistant,PDA),其通常配置有闪存,以提供用于存储操作系统文件和/或用户生成的数据的非易失性存储器。总线系统可以包括一个或多个总线,诸如系统总线、I/O总线和PCI总线。当然,总线系统可以使用任何类型的通信构造或架构来实现,其中该通信构造或架构提供附接到该构造或架构的不同组件或设备之间的数据传递。
通信单元可以包括用于传输和接收数据的一个或多个设备,例如调制解调器或网络适配器。存储器可以是例如主存储器208或高速缓存,诸如在北桥和存储器控制器集线器202中找到的高速缓存。处理单元可以包括一个或多个处理器或CPU。
图1-图2中描绘的示例和上述示例并不意味着暗示架构的限制。例如,除了采取移动或可穿戴设备的形式之外,数据处理系统200还可以是平板计算机、膝上型计算机或电话设备。
在计算机或数据处理系统被描述为虚拟机、虚拟设备或虚拟组件的情况下,虚拟机、虚拟设备或虚拟组件使用数据处理系统200中描绘的一些或所有组件的虚拟化表现形式以数据处理系统200的方式操作。例如,在虚拟机、虚拟设备或虚拟组件中,处理单元206被表现为主机数据处理系统中可用的所有或一些数量的硬件处理单元206的虚拟化实例,主存储器208被表现为主机数据处理系统中可用的主存储器208的全部或一些部分的虚拟化实例,并且盘226被表现为主机数据处理系统中可用的盘226的全部或一些部分的虚拟化实例。在这种情况下的主机数据处理系统由数据处理系统200表示。
对于图3,该图描绘根据说明性实施例的示例双线性插值过程300。在将点云点映射到图像像素之后,由于与图像数据相比,点云数据的采样间隔较低,因此一些图像像素可能不具有来自点云数据的相应深度数据。在其它情况下,由于存在难以获得点云数据的对象(诸如黑色金属对象或玻璃对象),深度数据可能从点云数据中缺失。因此,在一个或多个实施例中,数据处理子系统106对图像数据的每个像素执行点云数据的双线性插值,以获得图像数据的每个像素的深度信息。在图3的示例中,x、y表示像素的坐标,并且X、Y、Z表示现实世界对象的点云点的坐标。为了找到对应于像素(x,y)的点云点(X,Y,Z),数据处理子系统106使用KDTree算法在具有相关联的点云点的、以(x,y)为中心的四个象限中的每一个中找到最接近的点。四个最接近的像素由具有相关联的点云点(X0,Y0,Z0),(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3)的(x0,y0),(x1,y1),(x2,y2),(x3,y3)表示。
插值过程进一步包括找到值m和n,并如下确定像素坐标(xm,ym):
xm=xn=x
ym=yo+(x-x0)*(y1-y0)/(x1-x0)
yn=y3+(x-x3)*(y2-y0)/(x2-x3)
插值过程进一步包括使用线性插值确定对应于像素坐标(xm,ym)的点云点(X,Y,Z)。
对于图4,该图描绘根据说明性实施例的示例卷积神经网络(CNN)结构400。CNN结构400包括输入402、多个卷积层404、多个全连接层406和输出408。卷积层404计算连接到输入中的局部区域的神经元的输出,每个神经元计算它们的权重与它们在输入中连接到的小区域之间的点积。在示例中,输入402接收RGBD数据并将该RGBD数据提供给卷积层404。在实施例中,卷积层404从RGBD数据中提取诸如对象的特征,并且全连接层406对对象进行分类。在特定实施例中,使用大量训练数据来训练卷积层404和全连接层406,并且卷积层404和全连接层406能够在其它模型上提高准确度,因为它们能够表示可能存在于数据中的非线性。输出408输出一个或多个对象的3D边界框坐标和分类概率。分类概率包括对象的对象分类的概率,诸如对象是汽车、标志、树还是人。
对于图5,该图描绘根据说明性实施例的示例卷积神经网络(CNN)500。CNN 500包括416x416x4(RGBD)输入,该输入包括416像素乘416像素的阵列,其中每个像素包括红色(red,R)、绿色(green,G)、蓝色(blue,B)和深度(depth,D)值。CNN 500的隐含层包括23个不同尺寸和滤波器的卷积层以及多个最大池化层。最大池化层将一层神经元簇的输出组合到下一层的单个神经元中。在实施例中,CNN 500的输出包括在RGBD输入数据中找到的一个或多个对象的分类概率和3D边界框坐标。在特定实施例中,3D边界框坐标包括指定3D边界框的维数和定向的x、y、高度(height,h)、宽度(width,w)、深度(depth,d)以及角度(α)。
对于图6,该图描绘根据说明性实施例的CNN的3D边界框输出的示例。在图6的实施例中,边界框602由CNN输出,以识别在RGBD数据中检测到的汽车的边界。
对于图7,该图描绘使用单触发卷积神经网络(CNN)的用于避障的三维对象定位的示例过程700的流程图。在一个或多个实施例中,过程700可以在数据处理子系统106的应用中实现。
在702中,数据处理子系统106从相机子系统102的相机接收场景的像素图像数据。在特定实施例中,像素图像数据包括多个x、y像素坐标的RGB图像数据。在704中,数据处理子系统106从点云捕捉子系统/设备(诸如LIDAR设备或IR传感器)接收场景的点云数据。在特定实施例中,点云数据包括场景内一个或多个物理3D对象的X、Y、Z物理点坐标(例如,以米为单位)。在特定实施例中,相机子系统分析以高帧速率捕捉的RGB帧,并指示LIDAR子系统在RGB图像数据中找到感兴趣对象的场景位置处以高频进行采样。
在706中,数据处理子系统106通过将点云点转换成相机坐标并将点云点投影到像素数据的2D图像来将点云数据映射到图像平面。在708中,数据处理子系统106将点云数据插值到图像像素中的每一个,使得图像数据的每个像素具有相关联的深度值。在特定实施例中,数据处理子系统106执行双线性插值,以在RGB数据的每个像素处获得点云点信息,从而获得RGB图像数据,其中RGB图像数据的每个像素具有相关联的深度值。在特定实施例中,数据处理子系统使用基于KDTree类索引搜索来有效地获得具有点云信息的最近像素。
在710中,数据处理子系统106使用CNN预测包括深度信息的图像数据中的一个或多个对象的对象分类概率和3D边界框坐标。在特定实施例中,CNN是单流CNN的单触发。在712中,数据处理子系统106基于阈值(诸如,对象的某些面是否不清晰(例如,太小))来确定是否需要对相机设备和点云捕捉设备(例如,LIDAR)中的一个或多个重新定向。如果需要重新定向,则在714中,数据处理子系统106计算指示相机设备和点云捕捉设备中的一个或多个将它们自己重新定向到不同的角度的重新定向信息。在716中,数据处理子系统106将重新定向信息发送到相机和点云捕捉设备中的一个或多个。响应于接收重新定向信息,相机和点云捕捉设备中的一个或多个重新定向捕捉角度,以重新捕捉图像数据和点云数据中的一个或多个,从而获得用于使用CNN进行处理的更有利的数据。
如果不需要重新定向,则在718中,数据处理子系统106通过使用计算像素距离的深度信息聚类像素来分割每个对象的3D边界框以形成分割的对象。在特定实施例中,像素距离是深度差和R、G、B值的加权组合。在720中,数据处理子系统106基于图像数据中极值点之间的距离来估计分割的对象的尺寸。在722中,数据处理子系统106使用对象的尺寸估计来计算路径信息,以指示汽车控制系统108基于对象的距离和尺寸来避开对象。在724中,数据处理子系统106将路径信息发送到汽车控制子系统108。响应于接收路径信息,汽车控制子系统108被配置成控制汽车的一个或多个系统以避开对象中的一个或多个。此后过程700结束。尽管各种实施例被描述为用于自动驾驶车辆的避障,但是应当理解,这里描述的原理可以用于其它应用,诸如测量牲畜、增强现实应用或机器人导航。
因此,在说明性实施例中提供了一种计算机实现的方法、系统或装置以及计算机程序产品,用于使用单触发卷积神经网络的用于避障的三维对象定位。在关于设备类型描述的实施例或其一部分的情况下,计算机实现的方法、系统或装置、计算机程序产品或其一部分被适配或配置为与该类型的设备的适当且可比拟的表现形式一起使用。
在实施例被描述为在应用中实现的情况下,软件即服务(Software as aService,SaaS)模型中应用的交付在说明性实施例的范围内被考虑。在SaaS模型中,通过在云基础设施中执行应用,实现实施例的应用的能力被提供给用户。用户可以通过诸如web浏览器(例如,基于web的电子邮件)的瘦客户端接口或其它轻量级客户端应用使用各种客户端设备来访问应用。用户不管理或控制包括网络、服务器、操作系统或云基础架构存储的底层云基础架构。在某些情况下,用户甚至可能无法管理或控制SaaS应用的功能。在一些其它情况下,应用的SaaS实现可能允许有限的用户特定应用配置设置的可能的例外。
本发明可以是以任何可能的集成的技术细节级别的系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是——但不限于——电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其它自由传播的电磁波、通过波导或其它传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其它设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
Claims (20)
1.一种方法,包括:
接收场景的像素图像数据,所述像素图像数据包括场景中对象的二维表示;
接收点云数据,所述点云数据包括与对象的二维表示相对应的场景内的物理对象的三维点坐标,所述三维点坐标包括物理对象的深度信息;
将所述点云数据映射到所述像素图像数据的图像平面,以形成集成的像素图像数据,其中所述像素图像数据的一个或多个像素具有与其集成的深度信息;和
基于所述集成的像素图像数据,使用卷积神经网络预测对象的三维边界框。
2.如权利要求1所述的方法,进一步包括:
分割对象的三维边界框以形成分割的对象。
3.如权利要求2所述的方法,进一步包括:
估计所述分割的对象的对象尺寸。
4.如权利要求3所述的方法,进一步包括:
基于所述对象尺寸计算对象的路径信息。
5.如权利要求4所述的方法,将所述路径信息发送到汽车控制系统,所述路径信息指示所述汽车控制系统避开对象。
6.如权利要求1所述的方法,进一步包括:
将所述点云数据插值到图像数据的像素中的每一个,使得图像数据的每个像素具有与其集成的相关联的深度值。
7.如权利要求1所述的方法,进一步包括:
基于所述集成的像素图像数据,使用卷积神经网络预测对象的对象分类。
8.如权利要求1所述的方法,其中,从相机设备接收所述像素图像数据,并且从点云捕捉设备接收所述点云数据。
9.如权利要求8所述的方法,进一步包括:
基于阈值确定需要对所述相机设备和所述点云捕捉设备中的一个或多个进行重新定向;和
计算指示所述相机设备和所述点云捕捉设备中的一个或多个重新定向到不同捕捉角度的重新定向信息。
10.如权利要求9所述的方法,进一步包括:
将所述重新定向信息发送到所述相机设备和所述点云捕捉设备中的一个或多个。
11.如权利要求1所述的方法,其中卷积神经网络是单流卷积神经网络。
12.一种计算机可用程序产品,包括一个或多个计算机可读存储设备,以及存储在一个或多个存储设备中的至少一个上的程序指令,存储的程序指令包括:
接收场景的像素图像数据的程序指令,所述像素图像数据包括场景中对象的二维表示;
接收点云数据的程序指令,所述点云数据包括与对象的二维表示相对应的场景内的物理对象的三维点坐标,所述三维点坐标包括物理对象的深度信息;
将所述点云数据映射到所述像素图像数据的图像平面以形成集成的像素图像数据的程序指令,其中所述像素图像数据的一个或多个像素具有与其集成的深度信息;和
基于所述集成的像素图像数据使用卷积神经网络预测对象的三维边界框的程序指令。
13.如权利要求12所述的计算机可用程序产品,进一步包括:
分割对象的三维边界框以形成分割的对象的程序指令。
14.如权利要求13所述的计算机可用程序产品,进一步包括:
估计所述分割的对象的对象尺寸的程序指令。
15.如权利要求14所述的计算机可用程序产品,进一步包括:
基于所述对象尺寸计算对象的路径信息的程序指令。
16.如权利要求15所述的计算机可用程序产品,进一步包括:
将所述路径信息发送到汽车控制系统的程序指令,所述路径信息指示所述汽车控制系统避开对象。
17.如权利要求12所述的计算机可用程序产品,其中所述计算机可用代码存储在数据处理系统中的计算机可读存储设备中,并且其中所述计算机可用代码通过网络从远程数据处理系统传递。
18.如权利要求12所述的计算机可用程序产品,其中所述计算机可用代码存储在服务器数据处理系统中的计算机可读存储设备中,并且其中所述计算机可用代码通过网络下载到远程数据处理系统,以在与所述远程数据处理系统相关联的计算机可读存储设备中使用。
19.一种计算机系统,包括一个或多个处理器、一个或多个计算机可读存储器和一个或多个计算机可读存储设备、以及存储在一个或多个存储设备中的至少一个上的程序指令,所述程序指令用于由一个或多个处理器中的至少一个处理器经由一个或多个存储器中的至少一个存储器来执行,以执行权利要求1-11中任一项的方法。
20.一种计算机系统,所述系统包括分别用于执行权利要求1-11中任一项的方法的步骤的模块。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/935,195 | 2018-03-26 | ||
US15/935,195 US11618438B2 (en) | 2018-03-26 | 2018-03-26 | Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110363058A true CN110363058A (zh) | 2019-10-22 |
CN110363058B CN110363058B (zh) | 2023-06-27 |
Family
ID=67984744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910206899.5A Active CN110363058B (zh) | 2018-03-26 | 2019-03-19 | 使用单触发卷积神经网络的用于避障的三维对象定位 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11618438B2 (zh) |
CN (1) | CN110363058B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749727A (zh) * | 2019-10-29 | 2021-05-04 | 财团法人资讯工业策进会 | 本地服务器、影像辨识系统及其更新方法 |
CN113269820A (zh) * | 2021-05-26 | 2021-08-17 | 北京地平线信息技术有限公司 | 空间几何信息估计模型的生成方法和装置 |
WO2021160097A1 (en) * | 2020-02-14 | 2021-08-19 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | System and method for object detection for augmented reality |
TWI766560B (zh) * | 2021-01-27 | 2022-06-01 | 國立臺灣大學 | 結合語義分割與光達點雲之物件辨識與測距系統 |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019133922A1 (en) * | 2017-12-29 | 2019-07-04 | Flir Systems, Inc. | Point cloud denoising systems and methods |
US10854011B2 (en) | 2018-04-09 | 2020-12-01 | Direct Current Capital LLC | Method for rendering 2D and 3D data within a 3D virtual environment |
US11521044B2 (en) * | 2018-05-17 | 2022-12-06 | International Business Machines Corporation | Action detection by exploiting motion in receptive fields |
EP3573021B1 (de) * | 2018-05-22 | 2020-07-08 | Sick Ag | Visualisieren von 3d-bilddaten |
US11373411B1 (en) * | 2018-06-13 | 2022-06-28 | Apple Inc. | Three-dimensional object estimation using two-dimensional annotations |
US11258987B2 (en) * | 2018-09-21 | 2022-02-22 | Microsoft Technology Licensing, Llc | Anti-collision and motion control systems and methods |
US11823461B1 (en) | 2018-09-28 | 2023-11-21 | Direct Current Capital LLC | Systems and methods for perceiving a scene around a mobile device |
CN110147706B (zh) * | 2018-10-24 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 障碍物的识别方法和装置、存储介质、电子装置 |
DK201970115A1 (en) | 2018-11-08 | 2020-06-09 | Aptiv Technologies Limited | DEEP LEARNING FOR OBJECT DETECTION USING PILLARS |
WO2020122143A1 (ja) * | 2018-12-12 | 2020-06-18 | 国立大学法人 東京大学 | 計測システム、計測方法、及び計測プログラム |
US11567497B1 (en) | 2019-02-04 | 2023-01-31 | Direct Current Capital LLC | Systems and methods for perceiving a field around a device |
US11460855B1 (en) | 2019-03-29 | 2022-10-04 | Direct Current Capital LLC | Systems and methods for sensor calibration |
CN111797650B (zh) * | 2019-04-09 | 2024-02-27 | 广州文远知行科技有限公司 | 障碍物的识别方法、装置、计算机设备和存储介质 |
US11815598B2 (en) | 2019-06-10 | 2023-11-14 | Microsoft Technology Licensing, Llc | Anti-collision and motion monitoring, control, and alerting systems and methods |
GB2621701A (en) * | 2019-11-14 | 2024-02-21 | Motional Ad Llc | Sequential fusion for 3D object detection |
KR20210061722A (ko) * | 2019-11-20 | 2021-05-28 | 팅크웨어(주) | 고정밀 지도 제작 방법, 고정밀 지도 제작 장치, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체 |
CN111046743B (zh) * | 2019-11-21 | 2023-05-05 | 新奇点智能科技集团有限公司 | 一种障碍物信息标注方法、装置、电子设备和存储介质 |
CN110992325A (zh) * | 2019-11-27 | 2020-04-10 | 同济大学 | 基于深度学习的目标清点方法、装置和设备 |
CN111046776B (zh) * | 2019-12-06 | 2023-06-09 | 杭州成汤科技有限公司 | 基于深度相机的移动机器人行进路径障碍物检测的方法 |
CN111028279A (zh) * | 2019-12-12 | 2020-04-17 | 商汤集团有限公司 | 点云数据处理方法及装置、电子设备和存储介质 |
CN112989877A (zh) * | 2019-12-13 | 2021-06-18 | 阿里巴巴集团控股有限公司 | 点云数据中标注对象的方法及装置 |
CN110991468B (zh) * | 2019-12-13 | 2023-12-19 | 深圳市商汤科技有限公司 | 三维目标检测和智能行驶方法、装置、设备 |
US11940804B2 (en) | 2019-12-17 | 2024-03-26 | Motional Ad Llc | Automated object annotation using fused camera/LiDAR data points |
CN111259829B (zh) * | 2020-01-19 | 2023-10-20 | 北京小马慧行科技有限公司 | 点云数据的处理方法和装置、存储介质及处理器 |
EP3862850B1 (en) * | 2020-02-06 | 2023-03-29 | Dassault Systèmes | Method for locating a center of rotation of an articulated joint |
CN111339880A (zh) * | 2020-02-19 | 2020-06-26 | 北京市商汤科技开发有限公司 | 一种目标检测方法及装置、电子设备和存储介质 |
JP7019118B1 (ja) * | 2020-03-24 | 2022-02-14 | 三菱電機株式会社 | 情報処理装置及び情報処理方法 |
US11886968B2 (en) | 2020-03-27 | 2024-01-30 | Intel Corporation | Methods and devices for detecting objects and calculating a time to contact in autonomous driving systems |
US11803955B1 (en) * | 2020-04-30 | 2023-10-31 | Everguard, Inc. | Multimodal safety systems and methods |
CN111860493B (zh) * | 2020-06-12 | 2024-02-09 | 北京图森智途科技有限公司 | 一种基于点云数据的目标检测方法及装置 |
US11823458B2 (en) * | 2020-06-18 | 2023-11-21 | Embedtek, LLC | Object detection and tracking system |
CN111860388A (zh) * | 2020-07-27 | 2020-10-30 | 上海商汤智能科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
JP2022042146A (ja) * | 2020-09-02 | 2022-03-14 | 株式会社トプコン | データ処理装置、データ処理方法およびデータ処理用プログラム |
CN112149561B (zh) * | 2020-09-23 | 2024-04-16 | 杭州睿琪软件有限公司 | 图像处理方法和装置、电子设备和存储介质 |
CN112258631B (zh) * | 2020-10-20 | 2023-12-08 | 河海大学常州校区 | 一种基于深度神经网络的三维目标检测方法及系统 |
CN112348781A (zh) * | 2020-10-26 | 2021-02-09 | 广东博智林机器人有限公司 | 一种基准面高度检测方法、装置、设备及存储介质 |
CN112509126A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 三维物体检测的方法、装置、设备及存储介质 |
WO2022159803A1 (en) * | 2021-01-22 | 2022-07-28 | Dtis, Llc | Visual data management system and method |
CN112949400B (zh) * | 2021-01-26 | 2022-07-08 | 四川大学 | 一种基于深度学习的动物智能实验系统与方法 |
CN112907746A (zh) * | 2021-03-25 | 2021-06-04 | 上海商汤临港智能科技有限公司 | 电子地图的生成方法、装置、电子设备及存储介质 |
CN113111887B (zh) * | 2021-04-26 | 2022-04-15 | 河海大学常州校区 | 一种基于相机和激光雷达信息融合的语义分割方法及系统 |
CN113223176B (zh) * | 2021-05-12 | 2022-09-20 | 武汉中仪物联技术股份有限公司 | 多维度管道特征参数的获取方法和装置 |
CN115240093B (zh) * | 2022-09-22 | 2022-12-23 | 山东大学 | 基于可见光和激光雷达点云融合的输电通道自动巡检方法 |
CN116452791B (zh) * | 2023-03-27 | 2024-03-22 | 广州市斯睿特智能科技有限公司 | 多相机点位的缺陷区域定位方法、系统、装置及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040239670A1 (en) * | 2003-05-29 | 2004-12-02 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
EP2485495A2 (en) * | 2011-02-03 | 2012-08-08 | Broadcom Corporation | Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information |
US9098754B1 (en) * | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using laser point clouds |
CN104899855A (zh) * | 2014-03-06 | 2015-09-09 | 株式会社日立制作所 | 三维障碍物检测方法和装置 |
CN105975915A (zh) * | 2016-04-28 | 2016-09-28 | 大连理工大学 | 一种基于多任务卷积神经网络的前方车辆参数识别方法 |
CN106227218A (zh) * | 2016-09-27 | 2016-12-14 | 深圳乐行天下科技有限公司 | 一种智能移动设备的导航避障方法及装置 |
CN106826815A (zh) * | 2016-12-21 | 2017-06-13 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
WO2017139516A1 (en) * | 2016-02-10 | 2017-08-17 | Hrl Laboratories, Llc | System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation |
CN107077735A (zh) * | 2014-10-28 | 2017-08-18 | 惠普发展公司,有限责任合伙企业 | 三维对象识别 |
CN107192994A (zh) * | 2016-03-15 | 2017-09-22 | 山东理工大学 | 多线激光雷达海量点云数据快速有效提取及车辆、车道线特征识别方法 |
CN107576960A (zh) * | 2017-09-04 | 2018-01-12 | 苏州驾驶宝智能科技有限公司 | 视觉雷达时空信息融合的目标检测方法及系统 |
US9886769B1 (en) * | 2014-12-09 | 2018-02-06 | Jamie Douglas Tremaine | Use of 3D depth map with low and high resolution 2D images for gesture recognition and object tracking systems |
US20180068198A1 (en) * | 2016-09-06 | 2018-03-08 | Carnegie Mellon University | Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9796400B2 (en) | 2013-11-27 | 2017-10-24 | Solfice Research, Inc. | Real time machine vision and point-cloud analysis for remote sensing and vehicle control |
WO2016100814A1 (en) | 2014-12-19 | 2016-06-23 | United Technologies Corporation | Multi-modal sensor data fusion for perception systems |
US9710714B2 (en) | 2015-08-03 | 2017-07-18 | Nokia Technologies Oy | Fusion of RGB images and LiDAR data for lane classification |
US10663594B2 (en) | 2016-03-14 | 2020-05-26 | Imra Europe S.A.S. | Processing method of a 3D point cloud |
US9760806B1 (en) | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
US20170329331A1 (en) | 2016-05-16 | 2017-11-16 | Magna Electronics Inc. | Control system for semi-autonomous control of vehicle along learned route |
CN106909924B (zh) * | 2017-02-18 | 2020-08-28 | 北京工业大学 | 一种基于深度显著性的遥感影像快速检索方法 |
US10509947B1 (en) * | 2017-04-11 | 2019-12-17 | Zoox, Inc. | Converting multi-dimensional data for image analysis |
US10242294B2 (en) * | 2017-05-01 | 2019-03-26 | Intel Corporation | Target object classification using three-dimensional geometric filtering |
US10401866B2 (en) | 2017-05-03 | 2019-09-03 | GM Global Technology Operations LLC | Methods and systems for lidar point cloud anomalies |
-
2018
- 2018-03-26 US US15/935,195 patent/US11618438B2/en active Active
-
2019
- 2019-03-19 CN CN201910206899.5A patent/CN110363058B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040239670A1 (en) * | 2003-05-29 | 2004-12-02 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
EP2485495A2 (en) * | 2011-02-03 | 2012-08-08 | Broadcom Corporation | Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information |
CN104899855A (zh) * | 2014-03-06 | 2015-09-09 | 株式会社日立制作所 | 三维障碍物检测方法和装置 |
US9098754B1 (en) * | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using laser point clouds |
CN107077735A (zh) * | 2014-10-28 | 2017-08-18 | 惠普发展公司,有限责任合伙企业 | 三维对象识别 |
US9886769B1 (en) * | 2014-12-09 | 2018-02-06 | Jamie Douglas Tremaine | Use of 3D depth map with low and high resolution 2D images for gesture recognition and object tracking systems |
WO2017139516A1 (en) * | 2016-02-10 | 2017-08-17 | Hrl Laboratories, Llc | System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation |
CN107192994A (zh) * | 2016-03-15 | 2017-09-22 | 山东理工大学 | 多线激光雷达海量点云数据快速有效提取及车辆、车道线特征识别方法 |
CN105975915A (zh) * | 2016-04-28 | 2016-09-28 | 大连理工大学 | 一种基于多任务卷积神经网络的前方车辆参数识别方法 |
US20180068198A1 (en) * | 2016-09-06 | 2018-03-08 | Carnegie Mellon University | Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network |
CN106227218A (zh) * | 2016-09-27 | 2016-12-14 | 深圳乐行天下科技有限公司 | 一种智能移动设备的导航避障方法及装置 |
CN106826815A (zh) * | 2016-12-21 | 2017-06-13 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
CN107576960A (zh) * | 2017-09-04 | 2018-01-12 | 苏州驾驶宝智能科技有限公司 | 视觉雷达时空信息融合的目标检测方法及系统 |
Non-Patent Citations (7)
Title |
---|
CHARLES R. QI ET AL.: "Frustum PointNets for 3D Object Detection from RGB-D Data", 《ARXIV:1711.08488V1 [CS.CV]》 * |
CHARLES R. QI ET AL.: "Frustum PointNets for 3D Object Detection from RGB-D Data", 《ARXIV:1711.08488V1 [CS.CV]》, 22 November 2017 (2017-11-22), pages 1 - 15 * |
IGOR JOVANČEVIĆ ET AL.: "3D Point Cloud Analysis for Detection and Characterization of Defects on Airplane Exterior Surface", 《JOURNAL OF NONDESTRUCTIVE EVALUATION》, pages 1 - 17 * |
XIAOZHI CHEN ET AL.: "Multi-View 3D Object Detection Network for Autonomous Driving", 《ARXIV:1611.07759V3 [CS.CV]》 * |
XIAOZHI CHEN ET AL.: "Multi-View 3D Object Detection Network for Autonomous Driving", 《ARXIV:1611.07759V3 [CS.CV]》, 22 June 2017 (2017-06-22), pages 1 - 9 * |
张名芳等: "基于激光雷达的远距离运动车辆位姿估计", 《公路交通科技》, vol. 34, no. 12, pages 131 - 139 * |
张颖等: "基于3D卷积神经网络的人体行为识别方法", 《软件导刊》, vol. 16, no. 11, pages 9 - 11 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749727A (zh) * | 2019-10-29 | 2021-05-04 | 财团法人资讯工业策进会 | 本地服务器、影像辨识系统及其更新方法 |
US11393181B2 (en) * | 2019-10-29 | 2022-07-19 | Institute For Information Industry | Image recognition system and updating method thereof |
TWI772700B (zh) * | 2019-10-29 | 2022-08-01 | 財團法人資訊工業策進會 | 影像辨識系統及其更新方法 |
WO2021160097A1 (en) * | 2020-02-14 | 2021-08-19 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | System and method for object detection for augmented reality |
TWI766560B (zh) * | 2021-01-27 | 2022-06-01 | 國立臺灣大學 | 結合語義分割與光達點雲之物件辨識與測距系統 |
CN113269820A (zh) * | 2021-05-26 | 2021-08-17 | 北京地平线信息技术有限公司 | 空间几何信息估计模型的生成方法和装置 |
WO2022247414A1 (zh) * | 2021-05-26 | 2022-12-01 | 北京地平线信息技术有限公司 | 空间几何信息估计模型的生成方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190291723A1 (en) | 2019-09-26 |
US11618438B2 (en) | 2023-04-04 |
CN110363058B (zh) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363058A (zh) | 使用单触发卷积神经网络的用于避障的三维对象定位 | |
US11989861B2 (en) | Deep learning-based real-time detection and correction of compromised sensors in autonomous machines | |
WO2019179464A1 (zh) | 用于预测目标对象运动朝向的方法、车辆控制方法及装置 | |
CN111079619B (zh) | 用于检测图像中的目标对象的方法和装置 | |
JP2021089724A (ja) | 構造的制約及び物理的制約を伴う3d自動ラベル付け | |
WO2022116933A1 (zh) | 一种训练模型的方法、数据处理的方法以及装置 | |
US20200311855A1 (en) | Object-to-robot pose estimation from a single rgb image | |
WO2018162933A1 (en) | Improved object recognition system | |
JP7091485B2 (ja) | 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器 | |
CN110646787A (zh) | 自运动估计方法和设备以及模型训练方法和设备 | |
CN114723955A (zh) | 图像处理方法、装置、设备和计算机可读存储介质 | |
CN110264495A (zh) | 一种目标跟踪方法及装置 | |
JP7138361B2 (ja) | 3次元仮想空間モデルを利用したユーザポーズ推定方法および装置 | |
JP7468675B2 (ja) | 機械学習モデル | |
O’Mahony et al. | Computer vision for 3d perception: a review | |
CN115273002A (zh) | 一种图像处理方法、装置、存储介质及计算机程序产品 | |
Faruqui et al. | Trackez: an iot-based 3d-object tracking from 2d pixel matrix using mez and fsl algorithm | |
US20170190048A1 (en) | Marsupial Robotic System | |
CN114554279A (zh) | 基于远程分析的触发器响应剪辑提取 | |
US20220383582A1 (en) | Hybrid differentiable rendering for light transport simulation systems and applications | |
WO2023049387A1 (en) | System and method for reducing surveillance detection errors | |
US20230062313A1 (en) | Generating 2d mapping using 3d data | |
US11823415B2 (en) | 3D pose estimation in robotics | |
US11267128B2 (en) | Online utility-driven spatially-referenced data collector for classification | |
Peng et al. | A pushing-grasping collaborative method based on deep Q-network algorithm in dual viewpoints |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |