CN112101069A - 确定行驶区域信息的方法及装置 - Google Patents
确定行驶区域信息的方法及装置 Download PDFInfo
- Publication number
- CN112101069A CN112101069A CN201910525320.1A CN201910525320A CN112101069A CN 112101069 A CN112101069 A CN 112101069A CN 201910525320 A CN201910525320 A CN 201910525320A CN 112101069 A CN112101069 A CN 112101069A
- Authority
- CN
- China
- Prior art keywords
- information
- region
- driving area
- determining
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000001514 detection method Methods 0.000 claims abstract description 124
- 238000004590 computer program Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 description 61
- 238000007499 fusion processing Methods 0.000 description 23
- 230000005540 biological transmission Effects 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4049—Relationship among other objects, e.g. converging dynamic objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本申请实施例提供了一种确定行驶区域信息的方法及装置。该方法包括:获取第一信息;所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;获取第二信息;所述第二信息包括雷达检测信息;根据所述第一信息和所述第二信息确定第一行驶区域信息。通过本申请提供的确定行驶区域信息的方法得到的第一行驶区域信息,融合了图像信息和雷达检测信息,准确度更高。在摄像装置或雷达装置一方出现检测不准确的时候,例如摄像装置在阴影或遮挡的环境中,或者,激光雷达受气候影响,车载雷达受噪声信号影响等,都可以通过另一方的检测信息提高第一行驶区域信息的准确度,确保车辆行驶的安全性。
Description
技术领域
本申请涉及自动驾驶技术领域,尤其涉及一种确定行驶区域信息的方法及装置。
背景技术
车辆的行驶区域为车辆所处行驶环境中可供车辆行驶的区域,车辆的行驶区域必须避开车辆所处行驶环境中的其它车辆、行人、道路中的非车辆行驶区域以及其它障碍物区域等。
现有技术中,可以使用摄像装置拍摄车辆所处行驶环境中待检测区域的图像,之后采用基于卷积神经网络(convolutional neural networks,CNN)的语义分割算法或实例分割算法对图像进行识别,确定出待检测区域中的行驶区域,但是由于摄像装置受光照条件影响较大,在存在阴影或遮挡的环境中,容易发生误判,导致获得的行驶区域信息不准确。此外,还可以使用激光雷达向待检测区域中发射激光或使用车载雷达向待检测区域中发射电磁波,通过回波确定待检测区域中的障碍物目标,从而确定出待检测区域中的行驶区域,但是由于激光雷达容易受气候影响,在雨雪等极端气候下,激光雷达的测量精度会降低,从而导致得到的行驶区域信息不准确;而车载雷达容易受环境中噪声信号的影响,在噪声信号的幅度超过检测门限时,车载雷达会发生误判障碍物目标的虚警现象,或者环境中存在多个强干扰目标时,会发生漏检障碍物目标的问题,从而导致得到的行驶区域信息不准确。
发明内容
本申请实施例提供了一种确定行驶区域信息的方法及装置,以解决获得的行驶区域信息不准确的问题。
第一方面,本申请实施例提供了一种确定行驶区域信息的方法,该方法包括:获取第一信息;所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;获取第二信息;所述第二信息包括雷达检测信息;根据所述第一信息和所述第二信息确定第一行驶区域信息。
本实现方式中,首先获取第一信息,第一信息包括根据图像确定的初始行驶区域的信息,然后获取包括雷达检测信息的第二信息,最后,根据第一信息和第二信息确定第一行驶区域信息。由此可知,通过本实现方式提供的确定行驶区域信息的方法得到的第一行驶区域信息,融合了图像信息和雷达检测信息,准确度更高,其次,在摄像装置或雷达装置一方出现检测不准确的时候,例如摄像装置在阴影或遮挡的环境中,或者,激光雷达受气候影响,车载雷达受噪声信号影响等,都可以通过另一方的检测信息提高第一行驶区域信息的准确度,确保车辆行驶的安全性。
结合第一方面,在第一方面第一种可能的实现方式中,所述雷达检测信息包括所述初始行驶区域的检测信息。
本实现方式中,将雷达检测信息包括的初始行驶区域的检测信息确定为第二信息,后续雷达只需将初始行驶区域的检测信息发送给行驶区域信息获取装置即可,数据传输量较小,并且后续根据第一信息和第二信息确定第一行驶区域信息时,需要进行融合处理的数据量较少,计算量较小,从而可以提高行驶区域信息确定的效率。
结合第一方面,在第一方面第二种可能的实现方式中,所述方法还包括:根据所述第一信息和所述第二信息确定是否存在感兴趣区域。
本实现方式中,通过确定是否存在感兴趣区域,可以进一步确定第一行驶区域信息的准确性,进而确保确定出的第一行驶区域信息的准确度。
结合第一方面,在第一方面第三种可能的实现方式中,所述方法还包括:确定存在感兴趣区域;获取第二行驶区域信息和所述感兴趣区域的区域信息;根据所述感兴趣区域的区域信息,获取所述感兴趣区域的检测结果;根据所述第二行驶区域信息和所述感兴趣区域的检测结果确定所述第一行驶区域信息。
本实现方式中,在确定存在感兴趣区域时,将第一信息和第二信息融合处理后得到的信息确定为第二行驶区域信息,并且根据感兴趣区域的区域信息,对感兴趣区域进行检测,得到感兴趣区域的检测结果,最后,根据第二行驶区域信息和感兴趣区域的检测结果确定所述第一行驶区域信息,使得确定出的第一行驶区域信息的准确度更高,后续车辆根据该第一行驶区域信息行驶时,安全性更高。
结合第一方面,在第一方面第四种可能的实现方式中,所述初始行驶区域的信息包括所述初始行驶区域对应的至少一个像素点的信息;或者,所述初始行驶区域的信息通过所述初始行驶区域的边界信息指示。
本实现方式中,初始行驶区域的信息可以通过所述初始行驶区域的边界信息指示,使得在发送所述初始行驶区域的信息时,可以减少数据传输量,从而可以提高行驶区域信息确定的效率。
结合第一方面,在第一方面第五种可能的实现方式中,所述雷达检测信息包括位置坐标信息;或者,所述雷达检测信息包括位置坐标信息和位置坐标的协方差信息。
本实现方式中,雷达检测信息可以包括位置坐标信息和位置坐标的协方差信息,使得雷达将所述雷达检测信息发送给行驶区域信息获取装置后,行驶区域信息获取装置可以更加精确的确定出雷达检测的目标点,从而提高后续确定出的第一行驶区域信息的准确度。
第二方面,本申请实施例提供了一种确定行驶区域信息的方法,该方法包括:接收第一信息;所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;生成第二信息;所述第二信息包括根据所述第一信息生成的所述初始行驶区域的雷达检测信息;发送所述第二信息。
本实现方式中,首先接收第一信息,然后根据第一信息生成包括初始行驶区域的雷达检测信息的第二信息,最后向行驶区域信息获取装置发送第二信息。由此可知,采用本实现方式提供的方法,雷达只需将初始行驶区域的雷达检测信息发送给行驶区域信息获取装置即可,数据传输量较小,并且后续根据第一信息和第二信息确定第一行驶区域信息时,需要进行融合处理的数据量较少,计算量较小,从而可以提高行驶区域信息确定的效率。
第三方面,本申请实施例提供了一种确定行驶区域信息的装置,该装置包括:获取模块,用于获取第一信息;所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;所述获取模块还用于获取第二信息;所述第二信息包括雷达检测信息;确定模块,用于根据所述第一信息和所述第二信息确定第一行驶区域信息。
本实现方式提供的装置,首先获取第一信息,第一信息包括根据图像确定的初始行驶区域的信息,然后获取包括雷达检测信息的第二信息,最后,根据第一信息和第二信息确定第一行驶区域信息。由此可知,通过本实现方式提供的确定行驶区域信息的装置得到的第一行驶区域信息,融合了图像信息和雷达检测信息,准确度更高,其次,在摄像装置或雷达装置一方出现检测不准确的时候,例如摄像装置在阴影或遮挡的环境中,或者,激光雷达受气候影响,车载雷达受噪声信号影响等,都可以通过另一方的检测信息提高第一行驶区域信息的准确度,确保车辆行驶的安全性。
结合第三方面,在第三方面第一种可能的实现方式中,所述雷达检测信息包括所述初始行驶区域的检测信息。
本实现方式提供的装置,将雷达检测信息包括的初始行驶区域的检测信息确定为第二信息,后续雷达只需将初始行驶区域的检测信息发送给行驶区域信息获取装置即可,数据传输量较小,并且后续根据第一信息和第二信息确定第一行驶区域信息时,需要进行融合处理的数据量较少,计算量较小,从而可以提高行驶区域信息确定的效率。
结合第三方面,在第三方面第二种可能的实现方式中,所述确定模块还用于:根据所述第一信息和所述第二信息确定是否存在感兴趣区域。
本实现方式提供的装置,通过确定是否存在感兴趣区域,可以进一步确定第一行驶区域信息的准确性,进而确保确定出的第一行驶区域信息的准确度。
结合第三方面,在第三方面第三种可能的实现方式中,所述确定模块还用于确定存在感兴趣区域;所述获取模块还用于获取第二行驶区域信息和所述感兴趣区域的区域信息;所述获取模块还用于根据所述感兴趣区域的区域信息,获取所述感兴趣区域的检测结果;所述确定模块还用于根据所述第二行驶区域信息和所述感兴趣区域的检测结果确定所述第一行驶区域信息。
本实现方式提供的装置,在确定存在感兴趣区域时,将第一信息和第二信息融合处理后得到的信息确定为第二行驶区域信息,并且根据感兴趣区域的区域信息,对感兴趣区域进行检测,得到感兴趣区域的检测结果,最后,根据第二行驶区域信息和感兴趣区域的检测结果确定所述第一行驶区域信息,使得确定出的第一行驶区域信息的准确度更高,后续车辆根据该第一行驶区域信息行驶时,安全性更高。
结合第三方面,在第三方面第四种可能的实现方式中,所述初始行驶区域的信息包括所述初始行驶区域对应的至少一个像素点的信息;或者,所述初始行驶区域的信息通过所述初始行驶区域的边界信息指示。
本实现方式提供的装置中,初始行驶区域的信息可以通过所述初始行驶区域的边界信息指示,使得在发送所述初始行驶区域的信息时,可以减少数据传输量,从而可以提高行驶区域信息确定的效率。
结合第三方面,在第三方面第五种可能的实现方式中,所述雷达检测信息包括位置坐标信息;或者,所述雷达检测信息包括位置坐标信息和位置坐标的协方差信息。
本实现方式提供的装置中,雷达检测信息可以包括位置坐标信息和位置坐标的协方差信息,使得雷达将所述雷达检测信息发送给行驶区域信息获取装置后,行驶区域信息获取装置可以更加精确的确定出雷达检测的目标点,从而提高后续确定出的第一行驶区域信息的准确度。
第四方面,本申请实施例提供了一种确定行驶区域信息的装置,该装置包括:接收模块,用于接收第一信息;所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;生成模块,用于生成第二信息;所述第二信息包括根据所述第一信息生成的所述初始行驶区域的雷达检测信息;发送模块,用于发送所述第二信息。
本实现方式提供的装置,首先接收第一信息,然后根据第一信息生成包括初始行驶区域的雷达检测信息的第二信息,最后向行驶区域信息获取装置发送第二信息。由此可知,本实现方式提供的装置,雷达只需将初始行驶区域的雷达检测信息发送给行驶区域信息获取装置即可,数据传输量较小,并且后续根据第一信息和第二信息确定第一行驶区域信息时,需要进行融合处理的数据量较少,计算量较小,从而可以提高行驶区域信息确定的效率。
第五方面,本申请实施例提供了一种装置,所述装置包括处理器,所述处理器用于与存储器耦合,所述处理器用于读取存储器中的指令使所述装置根据所述指令执行第一方面、第一方面的各种可能的实现方式及第二方面中的方法。
第六方面,本申请实施例提供了一种计算机存储介质,该计算机存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行第一方面、第一方面的各种可能的实现方式及第二方面中的方法的部分或全部步骤。
第七方面,本申请实施例提供了一种计算机程序产品,该计算机程序产品在计算机上运行时,使得计算机执行第一方面、第一方面的各种可能的实现方式及第二方面中的方法的部分或全部步骤。
为解决获得的行驶区域信息不准确的问题,本申请实施例提供了一种确定行驶区域信息的方法及装置。该方法中,首先获取第一信息,第一信息包括根据图像确定的初始行驶区域的信息,然后获取包括雷达检测信息的第二信息,最后,根据第一信息和第二信息确定第一行驶区域信息。由此可知,通过本申请提供的确定行驶区域信息的方法得到的第一行驶区域信息,融合了图像信息和雷达检测信息,准确度更高。其次,在摄像装置或雷达装置一方出现检测不准确的时候,例如摄像装置在阴影或遮挡的环境中,或者,激光雷达受气候影响,车载雷达受噪声信号影响等,都可以通过另一方的检测信息提高第一行驶区域信息的准确度,确保车辆行驶的安全性。
附图说明
图1为本申请提供的确定行驶区域信息的系统的一种实施方式的结构框图;
图2为本申请提供的确定行驶区域信息的系统的另一种实施方式的结构框图;
图3为本申请提供的确定行驶区域信息的方法的一种实施方式的流程示意图;
图4为本申请提供的获取第一信息的方法的一种实施方式的流程示意图;
图5为本申请提供的获取第一信息的方法的另一种实施方式的流程示意图;
图6为本申请提供的获取第一信息的方法的另一种实施方式的流程示意图;
图7为本申请提供的获取第二信息的方法的一种实施方式的流程示意图;
图8为本申请提供的获取第二信息的方法的另一种实施方式的流程示意图;
图9为本申请提供的获取第二信息的方法的另一种实施方式的流程示意图;
图10为本申请提供的根据第一信息和第二信息确定第一行驶区域信息的方法的一种实施方式的流程示意图;
图11为本申请提供的根据第一信息和第二信息确定第一行驶区域信息的方法的另一种实施方式的流程示意图;
图12为本申请提供的确定行驶区域信息的装置的一种实施方式的结构框图;
图13为本申请提供的确定行驶区域信息的装置的另一种实施方式的结构框图。
具体实施方式
下面结合附图,对本申请的技术方案进行描述。
首先对本申请提供的确定行驶区域信息的系统进行说明,本申请提供的确定行驶区域信息的方法可以在该系统中实现。
参见图1和图2,图1为本申请提供的确定行驶区域信息的系统的一种实施方式的结构框图。图2为本申请提供的确定行驶区域信息的系统的另一种实施方式的结构框图。结合图1和图2可知,该系统100可以包括:摄像模块10、雷达20、融合模块30;其中,摄像模块10包括至少一个,该摄像模块10可以用于拍摄车辆所处行驶环境的图像,并根据拍摄的图像确定初始行驶区域的信息;雷达20可以为激光雷达,也可以为车载雷达,可以用于向车辆所处行驶环境中发射激光或者电磁波,根据激光或者电磁波的回波生成雷达检测信息;融合模块30可以用于对摄像模块10确定的初始行驶区域的信息和雷达20生成的雷达检测信息进行融合处理,得到车辆的行驶区域信息,使得车辆根据该行驶区域信息行驶时,安全性更高。其中,融合模块30可以单独设置(如图1所示),也可以设置于摄像模块10中(如图2所示)。
本领域技术人员可以理解,图1和图2示出的确定行驶区域信息的系统的结构并不构成对本申请确定行驶区域信息的系统的限定,本申请的确定行驶区域信息的系统可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
下面对本申请提供的确定行驶区域信息的方法的实施例进行说明。
参见图3,图3为本申请提供的确定行驶区域信息的方法的一种实施方式的流程示意图。该方法的执行主体可以为单独设置的融合模块,也可以为内部设置有融合模块的摄像模块,结合图3可知,该方法包括:
步骤101、获取第一信息。
其中,第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块。进一步,第一信息的具体内容可以参考后续实施例的内容。
获取第一信息的实现方式可以包括多种,当图3所示方法的执行主体为内部设置有融合模块的摄像模块时,如图4所示,获取第一信息,可以按照下述步骤实现:
步骤201、摄像模块拍摄待检测区域的图像。
其中,待检测区域是指车辆所处行驶环境中待确定出行驶区域信息的检测区域,也就是说,在车辆所处行驶环境中,需要确定出哪些检测区域中的行驶区域信息,就可以将这些检测区域确定为待检测区域。例如,需要确定出车辆正前方检测区域中的行驶区域信息时,可以将车辆正前方检测区域确定为待检测区域;或者,需要确定出车辆后方检测区域中的行驶区域信息时,可以将车辆后方检测区域确定为待检测区域;以此类推,需要确定出车辆所处行驶环境中其它检测区域中的行驶区域信息时,可以将该检测区域确定为待检测区域,此处不再一一列举。
待检测区域的图像可以为一个,也可以为多个。如果待检测区域的图像为多个,则这多个图像可以通过一个摄像模块拍摄得到,也可以通过多个摄像模块拍摄得到。
步骤202、所述摄像模块对所述图像进行分类识别处理,得到所述待检测区域的图像信息。
可选的,摄像模块可以使用基于CNN的语义分割算法或实例分割算法对所述图像进行分类识别处理,得到待检测区域的图像信息。其中,待检测区域的图像信息包括所述待检测区域对应的m个像素点的信息,所述m个像素点的信息在像素坐标系中可以表示为[(a1,b1,c1),(a2,b2,c2),…,(ai,bi,ci),…,(am,bm,cm)];其中,所述ai,bi表示所述待检测区域对应的第i个像素点的位置坐标,所述ci表示所述第i个像素点的类别;所述m为大于等于1的整数。
需要说明的是,待检测区域的图像信息也可以转换到车体坐标系或世界坐标系中表示。
步骤203、所述摄像模块根据所述图像信息确定第一信息,所述第一信息包括初始行驶区域的信息。
摄像模块得到待检测区域的图像信息后,根据图像信息中每一个像素点对应的类别,将类别为可行驶类别的所有像素点的信息确定为初始行驶区域的信息,相应的,将类别为可行驶类别的所有像素点组成的区域确定为初始行驶区域。
初始行驶区域的信息可以采用多种方式表示,例如:
第一种方式:初始行驶区域的信息包括所述初始行驶区域对应的n个像素点的信息,所述n个像素点的信息在像素坐标系中可以表示为[(d1,e1),(d2,e2),…,(di,ei),…,(dn,en)];其中,所述di,ei表示所述初始行驶区域对应的第i个像素点的位置坐标;所述n为大于等于1的整数,且所述n小于等于所述m。
第二种方式:初始行驶区域的信息可以通过所述初始行驶区域的边界信息表示。所述边界信息包括f个像素点的信息,所述f个像素点的信息在像素坐标系中可以表示为[(u1,h1),(u2,h2),(u3,h3),…,(ui,hi),…,(uf,hf)];其中,所述ui,hi表示所述边界信息中第i个像素点的位置坐标;所述f为大于等于1的整数,且所述f小于等于所述n。
第三种方式:初始行驶区域的信息可以通过所述初始行驶区域的边界信息表示。所述边界信息包括r个像素点的信息,所述r个像素点的信息在像素坐标系中可以表示为[step,(g1,k1),k2,k3,…,ki,…,kr]或者[step,(g1,k1),k2,k3,…,ki,…,kr,method];其中,所述g1,k1表示所述边界信息中第一个像素点的位置坐标;所述ki表示所述边界信息中第i个像素点的纵坐标,所述第i个像素点的横坐标根据所述step得到;所述step表示第i个像素点与第i+1个像素点横坐标之间的间隔步长,第i个像素点与第i-1个像素点横坐标之间的间隔步长与第i个像素点与第i+1个像素点横坐标之间的间隔步长相同;所述method表示所有间隔步长之间的连接关系;所述r为大于等于1的整数,所述r小于所述n。
第四种方式:初始行驶区域的信息可以通过所述初始行驶区域的边界信息表示。所述边界信息包括s个像素点的信息,所述s个像素点的信息在像素坐标系中可以表示为[(p1,q1),(p2,q2),(p3,q3),…,(pi,qi),…,(ps,qs),method];其中,所述pi,qi表示所述边界信息中第i个像素点的位置坐标;第i个像素点与第i+1个像素点横坐标之间具有间隔步长,第i个像素点与第i-1个像素点横坐标之间的间隔步长与第i个像素点与第i+1个像素点横坐标之间的间隔步长不同;所述method表示所有间隔步长之间的连接关系;所述s为大于等于1的整数,所述s小于所述n。
上述第三种方式和第四种方式中的method可以设置为多种方式,例如,method可以设置为线性插值、二次插值、三次样条插值或保形分段三次插值等。
需要说明的是,初始行驶区域的信息也可以转换到车体坐标系或世界坐标系中表示。
采用图4所示的方法获取第一信息,由于融合模块设置于摄像模块内部,通过融合模块直接获取第一信息,减少了数据的传输量,后续可以提高行驶区域信息确定的效率。
当图3所示方法的执行主体为单独设置的融合模块时,如图5所示,获取第一信息,还可以按照下述步骤实现:
步骤301、摄像模块拍摄待检测区域的图像。
步骤302、所述摄像模块对所述图像进行分类识别处理,得到所述待检测区域的图像信息。
步骤301和步骤302的具体实现方式,可以参考图4所示实施例中步骤201和步骤202,此处不再赘述。
步骤303、所述摄像模块向融合模块发送所述图像信息。
步骤304、所述融合模块接收所述摄像模块发送的所述图像信息。
步骤305、所述融合模块根据所述图像信息确定第一信息,所述第一信息包括初始行驶区域的信息。
步骤305的具体实现方式,可以参考图4所示实施例中步骤203,此处不再赘述。
采用图5所示的方法获取第一信息,可以减少摄像模块中的数据计算量,降低摄像模块的开销,从而节省摄像模块的资源。
当图3所示方法的执行主体为单独设置的融合模块时,如图6所示,获取第一信息,还可以按照下述步骤实现:
步骤401、摄像模块拍摄待检测区域的图像。
步骤402、所述摄像模块对所述图像进行分类识别处理,得到所述待检测区域的图像信息。
步骤403、所述摄像模块根据所述图像信息确定第一信息,所述第一信息包括初始行驶区域的信息。
步骤401至步骤403的具体实现方式,可以参考图4所示实施例中步骤201至步骤203,此处不再赘述。
步骤404、所述摄像模块向融合模块发送所述第一信息。
摄像模块向融合模块发送所述第一信息时,如果所述第一信息包括的初始行驶区域的信息按照上述第二种至第四种方式表示,可以减少数据传输量,后续可以提高行驶区域信息确定的效率。
步骤405、所述融合模块接收所述摄像模块发送的所述第一信息。
采用图6所示的方法获取第一信息,可以减少融合模块中的数据计算量,降低融合模块的开销,从而节省融合模块的资源。
步骤102、获取第二信息。
其中,第二信息包括雷达检测信息。进一步,第二信息的具体内容可以参考后续实施例的内容。
获取第二信息的实现方式可以包括多种,如图7所示,获取第二信息,可以按照下述步骤实现:
步骤501、雷达检测待检测区域,得到第二信息,所述第二信息包括待检测区域的雷达检测信息。
其中,雷达可以为激光雷达或者车载雷达。雷达向待检测区域发射激光或者电磁波后,通过激光或者电磁波的回波,可以得到待检测区域的雷达检测信息。
待检测区域的雷达检测信息包括待检测区域对应的t个目标点的信息,所述t个目标点的信息在车体坐标系或世界坐标系中可以表示为[(X1,Y1),(X2,Y2),…,(Xi,Yi),…,(Xt,Yt)]或者[(X1,Y1,R1),(X2,Y2,R2),…,(Xi,Yi,Ri),…,(Xt,YtRt)];其中,所述Xi,Yi表示所述待检测区域对应的第i个目标点的位置坐标信息;Ri表示所述第i个目标点的位置坐标的协方差信息;所述t为大于等于1的整数。
步骤502、所述雷达向行驶区域信息获取装置发送所述第二信息。
步骤503、所述行驶区域信息获取装置接收所述雷达发送的所述第二信息。
当图3所示方法的执行主体为单独设置的融合模块时,图7所示实施例中,行驶区域信息获取装置为单独设置的融合模块。当图3所示方法的执行主体为内部设置有融合模块的摄像模块时,图7所示实施例中,行驶区域信息获取装置为内部设置有融合模块的摄像模块。
采用图7所示的方法获取第二信息,可以减少雷达的数量计算量,降低雷达的开销,从而节省雷达的资源。
按照图7所示的实施方式获取第二信息,雷达需要将待检测区域的雷达检测信息发送给行驶区域信息获取装置,数据传输量较大,并且后续根据第一信息和第二信息确定行驶区域信息时,需要进行融合处理的数据量较多,计算量较大,导致行驶区域信息确定的效率较低。为了解决这一问题,如图8所示,获取第二信息,还可以按照下述步骤实现:
步骤601、摄像模块拍摄待检测区域的图像。
步骤602、所述摄像模块对所述图像进行分类识别处理,得到所述待检测区域的图像信息。
步骤603、所述摄像模块根据所述图像信息确定第一信息,所述第一信息包括初始行驶区域的信息。
步骤601至步骤603的具体实现方式,可以参考图4所示实施例中步骤201至步骤203,此处不再赘述。
步骤604、所述摄像模块向雷达发送所述第一信息。
所述摄像模块向雷达发送包括初始行驶区域的信息的第一信息时,初始行驶区域的信息必须转换到车体坐标系或者世界坐标系中表示。
步骤605、所述雷达接收所述摄像模块发送的所述第一信息。
步骤606、所述雷达检测所述待检测区域,得到所述待检测区域的雷达检测信息。
步骤606的具体实现方式,可以参考图7所示实施例中步骤501,此处不再赘述。
步骤607、所述雷达根据所述第一信息确定第二信息,所述第二信息为所述雷达检测信息中包含的初始行驶区域的检测信息。
步骤608、所述雷达向行驶区域信息获取装置发送所述第二信息。
步骤609、所述行驶区域信息获取装置接收所述雷达发送的所述第二信息。
当图3所示方法的执行主体为单独设置的融合模块时,图8所示实施例中,行驶区域信息获取装置为单独设置的融合模块。当图3所示方法的执行主体为内部设置有融合模块的摄像模块时,图8所示实施例中,行驶区域信息获取装置为内部设置有融合模块的摄像模块。
图8所示实施例中,步骤605和步骤606的执行顺序可以互换,也就是说,可以先执行步骤605,再执行步骤606,也可以先执行步骤606,再执行步骤605,本申请对此不进行限制。
采用图8所示的方法获取第二信息,雷达只需将初始行驶区域的检测信息发送给行驶区域信息获取装置即可,数据传输量较小,并且后续根据第一信息和第二信息确定行驶区域信息时,需要进行融合处理的数据量较少,计算量较小,从而可以提高行驶区域信息确定的效率。
如图9所示,获取第二信息,还可以按照下述步骤实现:
步骤701、摄像模块拍摄待检测区域的图像。
步骤702、所述摄像模块对所述图像进行分类识别处理,得到所述待检测区域的图像信息。
步骤703、所述摄像模块根据所述图像信息确定第一信息,所述第一信息包括初始行驶区域的信息。
步骤701至步骤703的具体实现方式,可以参考图4所示实施例中步骤201至步骤203,此处不再赘述。
步骤704、所述摄像模块向雷达发送所述第一信息。
所述摄像模块向雷达发送作为第一信息的初始行驶区域的信息时,初始行驶区域的信息必须转换到车体坐标系或者世界坐标系中表示。
步骤705、所述雷达接收所述摄像模块发送的所述第一信息。
步骤706、所述雷达根据所述第一信息,检测所述初始行驶区域,得到第二信息,所述第二信息包括所述初始行驶区域的雷达检测信息。
步骤706的具体实现方式,可以参考图7所示实施例中步骤501,此处不再赘述。
步骤707、所述雷达向行驶区域信息获取装置发送所述第二信息。
步骤708、所述行驶区域信息获取装置接收所述雷达发送的所述第二信息。
当图3所示方法的执行主体为单独设置的融合模块时,图9所示实施例中,行驶区域信息获取装置为单独设置的融合模块。当图3所示方法的执行主体为内部设置有融合模块的摄像模块时,图9所示实施例中,行驶区域信息获取装置为内部设置有融合模块的摄像模块。
采用图9所示的方法获取第二信息,雷达只需将初始行驶区域的检测信息发送给行驶区域信息获取装置即可,数据传输量较小,并且后续根据第一信息和第二信息确定行驶区域信息时,需要进行融合处理的数据量较少,计算量较小,从而可以提高行驶区域信息确定的效率。
步骤103、根据所述第一信息和所述第二信息确定第一行驶区域信息。
当图3所示方法的执行主体为单独设置的融合模块或内部设置有融合模块的摄像模块时,根据所述第一信息和所述第二信息确定第一行驶区域信息,都可以按照下述方式实现:对所述第一信息和所述第二信息进行融合处理,将融合处理后生成的信息确定为第一行驶区域信息。
为了进一步提高第一行驶区域信息的准确度,根据所述第一信息和所述第二信息确定第一行驶区域信息,还可以按照下述两种方式实现:
第一种方式中,图3所示方法的执行主体为内部设置有融合模块的摄像模块,如图10所示,根据所述第一信息和所述第二信息确定第一行驶区域信息,可以按照下述步骤实现:
步骤801、融合模块根据第一信息和第二信息,确定是否存在感兴趣区域。
融合模块采用统计融合算法,例如贝叶斯算法,对第一信息和第二信息进行统计融合处理,根据统计融合处理的结果确定初始行驶区域中是否存在检测结果可疑的区域,即检测结果不准确的区域,本申请实施例中,将检测结果可疑的区域简称为感兴趣区域(region of interest,ROI)。
步骤802、如果所述融合模块确定不存在所述感兴趣区域,则执行步骤804。
步骤803、如果所述融合模块确定存在所述感兴趣区域,则执行步骤805。
步骤804、所述融合模块对所述第一信息和所述第二信息进行融合处理,并将融合处理后得到的信息确定为第一行驶区域信息。
步骤805、所述融合模块对所述第一信息和所述第二信息进行融合处理,并将融合处理后得到的信息确定为第二行驶区域信息。
步骤806、所述融合模块确定出所述感兴趣区域的区域信息。
融合模块可以根据步骤801中得到的统计融合处理的结果确定出感兴趣区域的区域信息。
步骤807、摄像模块根据所述融合模块确定出的所述感兴趣区域的区域信息,对所述感兴趣区域进行检测,得到所述感兴趣区域的检测结果。
摄像模块根据所述感兴趣区域的区域信息,对待检测区域的图像再次进行分类识别处理,根据分类识别的结果,确定感兴趣区域对应的像素点的类别是否为可行驶类别,从而确定感兴趣区域是否为可供车辆行使的区域。
基于此,感兴趣区域的检测结果包括:感兴趣区域为可供车辆行驶的区域;或者,感兴趣区域为不可以供车辆行驶的障碍物区域。
可选的,在执行步骤807时,摄像模块可以使用基于CNN的语义分割算法或实例分割算法对待检测区域的图像进行分类识别处理;也可以使用其它较为简单的分类器,例如支持向量机分类器(SVM)或AdaBoost分类器对待检测区域的图像进行分类识别处理。
步骤808、所述融合模块根据所述第二行驶区域信息和所述感兴趣区域的检测结果确定出第一行驶区域信息。
如果感兴趣区域的检测结果为感兴趣区域为可供车辆行驶的区域,则融合模块将第二行驶区域信息确定为第一行驶区域信息。或者,如果感兴趣区域的检测结果为感兴趣区域为不可以供车辆行驶的障碍物区域,则融合模块将第二行驶区域信息中除去感兴趣区域的区域信息后余下的信息确定为第一行驶区域信息。
采用图10所示的方法确定第一行驶区域信息,确定出的第一行驶区域信息更加准确,后续车辆根据该第一行驶区域信息行驶时,安全性更高。
第二种方式中,图3所示方法的执行主体为单独设置的融合模块,如图11所示,根据所述第一信息和所述第二信息确定第一行驶区域信息,可以按照下述步骤实现:
步骤901、融合模块根据第一信息和第二信息,确定是否存在感兴趣区域。
步骤901的具体实现方式,可以参考图10所示实施例中步骤801,此处不再赘述。
步骤902、如果所述融合模块确定不存在所述感兴趣区域,则执行步骤904。
步骤903、如果所述融合模块确定存在所述感兴趣区域,则执行步骤905。
步骤904、所述融合模块对所述第一信息和所述第二信息进行融合处理,并将融合处理后得到的信息确定为第一行驶区域信息。
步骤905、所述融合模块对所述第一信息和所述第二信息进行融合处理,并将融合处理后得到的信息确定为第二行驶区域信息。
步骤906、所述融合模块确定出所述感兴趣区域的区域信息。
步骤906的具体实现方式可以参考图10所示实施例中步骤806,此处不再赘述。
步骤907、所述融合模块向摄像模块发送所述感兴趣区域的区域信息。
步骤908、所述摄像模块接收所述融合模块发送的所述感兴趣区域的区域信息。
步骤909、所述摄像模块根据所述感兴趣区域的区域信息,对所述感兴趣区域进行检测,得到所述感兴趣区域的检测结果。
步骤909的具体实现方式,可以参考图10所示实施例中步骤807,此处不再赘述。
步骤910、所述摄像模块向所述融合模块发送所述感兴趣区域的检测结果。
步骤911、所述融合模块接收所述摄像模块发送的所述感兴趣区域的检测结果。
步骤912、所述融合模块根据所述第二行驶区域信息和所述感兴趣区域的检测结果确定出第一行驶区域信息。
步骤912的具体实现方式可以参考图10所示实施例中步骤808,此处不再赘述。
采用图11所示的方法确定第一行驶区域信息,确定出的第一行驶区域信息更加准确,后续车辆根据该第一行驶区域信息行驶时,安全性更高。
本申请提供的确定行驶区域信息的方法,首先获取第一信息,第一信息包括根据图像确定的初始行驶区域的信息,然后获取包括雷达检测信息的第二信息,最后,根据第一信息和第二信息确定第一行驶区域信息。由此可知,通过本申请提供的确定行驶区域信息的方法得到的第一行驶区域信息,融合了图像信息和雷达检测信息,准确度更高,其次,在摄像装置或雷达装置一方出现检测不准确的时候,例如摄像装置在阴影或遮挡的环境中,或者,激光雷达受气候影响,车载雷达受噪声信号影响等,都可以通过另一方的检测信息提高第一行驶区域信息的准确度,确保车辆行驶的安全性。
下面介绍与上述方法实施例对应的装置实施例。
参见图12,图12为本申请提供的确定行驶区域信息的装置的一种实施方式的结构框图。结合图12可知,该装置1200包括:
获取模块1201,用于获取第一信息;所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;所述获取模块1201还用于获取第二信息;所述第二信息包括雷达检测信息;确定模块1202,用于根据所述第一信息和所述第二信息确定第一行驶区域信息。
本申请提供的装置,首先获取第一信息,第一信息包括根据图像确定的初始行驶区域的信息,然后获取包括雷达检测信息的第二信息,最后,根据第一信息和第二信息确定第一行驶区域信息。由此可知,通过本申请提供的确定行驶区域信息的装置得到的第一行驶区域信息,融合了图像信息和雷达检测信息,准确度更高,其次,在摄像装置或雷达装置一方出现检测不准确的时候,例如摄像装置在阴影或遮挡的环境中,或者,激光雷达受气候影响,车载雷达受噪声信号影响等,都可以通过另一方的检测信息提高第一行驶区域信息的准确度,确保车辆行驶的安全性。
可选的,所述雷达检测信息包括所述初始行驶区域的检测信息。
可选的,所述确定模块1202还用于:根据所述第一信息和所述第二信息确定是否存在感兴趣区域。
可选的,所述确定模块1202还用于确定存在感兴趣区域;所述获取模块1201还用于获取第二行驶区域信息和所述感兴趣区域的区域信息;所述获取模块1201还用于根据所述感兴趣区域的区域信息,获取所述感兴趣区域的检测结果;所述确定模块1202还用于根据所述第二行驶区域信息和所述感兴趣区域的检测结果确定所述第一行驶区域信息。
可选的,所述初始行驶区域的信息包括所述初始行驶区域对应的至少一个像素点的信息;或者,所述初始行驶区域的信息通过所述初始行驶区域的边界信息指示。
可选的,所述雷达检测信息包括位置坐标信息;或者,所述雷达检测信息包括位置坐标信息和位置坐标的协方差信息。
图12所示实施例提供的装置1200可以为单独设置的融合模块,也可以为内部设置有融合模块的摄像模块。使用装置1200可以实施图3所示实施例提供的方法,并得到相同的有益效果。
参见图13,图13为本申请提供的确定行驶区域信息的装置的另一种实施方式的结构框图。结合图13可知,该装置1300包括:
接收模块1301,用于接收第一信息;所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;
生成模块1302,用于生成第二信息;所述第二信息包括根据所述第一信息生成的所述初始行驶区域的雷达检测信息;
发送模块1303,用于发送所述第二信息。
本实现方式提供的装置,首先接收第一信息,然后根据第一信息生成包括初始行驶区域的雷达检测信息的第二信息,最后向行驶区域信息获取装置发送第二信息。由此可知,本实现方式提供的装置,雷达只需将初始行驶区域的雷达检测信息发送给行驶区域信息获取装置即可,数据传输量较小,并且后续根据第一信息和第二信息确定第一行驶区域信息时,需要进行融合处理的数据量较少,计算量较小,从而可以提高行驶区域信息确定的效率。
具体实现中,本申请实施例还提供了一种计算机存储介质,其中,该计算机存储介质可存储有程序,所述程序包括指令,该程序执行时可包括本申请提供的确定行驶区域信息的方法的部分或全部步骤。所述计算机存储介质可以为磁碟、光盘、只读存储记忆体(read-only memory,ROM)或随机存储记忆体(random access memory,RAM)等。
在上述实施例中,可以全部或部分通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机指令时,全部或部分地产生按照本申请所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solidstate disk,SSD))等。
应理解,在本申请的各个实施例中,各步骤的执行顺序应以其功能和内在逻辑确定,各步骤序号的大小并不意味着执行顺序的先后,不对实施例的实施过程构成限定。
此外,在本申请的描述中,除非另有说明,“多个”是指两个或多于两个。另外,为了便于清楚描述本申请实施例的技术方案,在本申请的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
本说明书的各个部分均采用递进的方式进行描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点介绍的都是与其他实施例不同之处。尤其,对于确定行驶区域信息的装置的实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例中的说明即可。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
以上所述的本申请实施方式并不构成对本申请保护范围的限定。
Claims (17)
1.一种确定行驶区域信息的方法,其特征在于,包括:
获取第一信息,所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;
获取第二信息;所述第二信息包括雷达检测信息;
根据所述第一信息和所述第二信息确定第一行驶区域信息。
2.根据权利要求1所述的方法,其特征在于,所述雷达检测信息包括所述初始行驶区域的检测信息。
3.根据权利要求1-2任一项所述的方法,其特征在于,所述方法还包括:
根据所述第一信息和所述第二信息确定是否存在感兴趣区域。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述方法还包括:
确定存在感兴趣区域;
获取第二行驶区域信息和所述感兴趣区域的区域信息;
根据所述感兴趣区域的区域信息,获取所述感兴趣区域的检测结果;
根据所述第二行驶区域信息和所述感兴趣区域的检测结果确定所述第一行驶区域信息。
5.根据权利要求1-4任一项所述的方法,其特征在于,
所述初始行驶区域的信息包括所述初始行驶区域对应的至少一个像素点的信息;或者,
所述初始行驶区域的信息通过所述初始行驶区域的边界信息指示。
6.根据权利要求1-5任一项所述的方法,其特征在于,
所述雷达检测信息包括位置坐标信息;或者,
所述雷达检测信息包括位置坐标信息和位置坐标的协方差信息。
7.一种确定行驶区域信息的方法,其特征在于,包括:
接收第一信息;所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;
生成第二信息;所述第二信息包括根据所述第一信息生成的所述初始行驶区域的雷达检测信息;
发送所述第二信息。
8.一种确定行驶区域信息的装置,其特征在于,包括:
获取模块,用于获取第一信息;所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;
所述获取模块还用于获取第二信息;所述第二信息包括雷达检测信息;
确定模块,用于根据所述第一信息和所述第二信息确定第一行驶区域信息。
9.根据权利要求8所述的装置,其特征在于,所述雷达检测信息包括所述初始行驶区域的检测信息。
10.根据权利要求8-9任一项所述的装置,其特征在于,所述确定模块还用于:
根据所述第一信息和所述第二信息确定是否存在感兴趣区域。
11.根据权利要求8-10任一项所述的装置,其特征在于,所述确定模块还用于:
确定存在感兴趣区域;
所述获取模块还用于获取第二行驶区域信息和所述感兴趣区域的区域信息;
所述获取模块还用于根据所述感兴趣区域的区域信息,获取所述感兴趣区域的检测结果;
所述确定模块还用于根据所述第二行驶区域信息和所述感兴趣区域的检测结果确定所述第一行驶区域信息。
12.根据权利要求8-11任一项所述的装置,其特征在于,
所述初始行驶区域的信息包括所述初始行驶区域对应的至少一个像素点的信息;或者,
所述初始行驶区域的信息通过所述初始行驶区域的边界信息指示。
13.根据权利要求8-12任一项所述的装置,其特征在于,
所述雷达检测信息包括位置坐标信息;或者,
所述雷达检测信息包括位置坐标信息和位置坐标的协方差信息。
14.一种确定行驶区域信息的装置,其特征在于,包括:
接收模块,用于接收第一信息;所述第一信息包括根据至少一个图像确定的初始行驶区域的信息,所述至少一个图像来自至少一个摄像模块;
生成模块,用于生成第二信息;所述第二信息包括根据所述第一信息生成的所述初始行驶区域的雷达检测信息;
发送模块,用于发送所述第二信息。
15.一种装置,其特征在于,所述装置包括处理器,所述处理器用于与存储器耦合,所述处理器用于读取存储器中的指令使所述装置根据所述指令执行如权利要求1至7中任意一项所述的方法。
16.一种计算机存储介质,其特征在于,所述计算机存储介质中包括指令,当所述指令在计算机上运行时,使得计算机执行如权利要求1至7中任意一项所述的方法。
17.一种计算机程序产品,其特征在于,当所述计算机程序产品在计算机上运行时,使得计算机执行如权利要求1至7中任意一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910525320.1A CN112101069A (zh) | 2019-06-18 | 2019-06-18 | 确定行驶区域信息的方法及装置 |
PCT/CN2020/096755 WO2020253764A1 (zh) | 2019-06-18 | 2020-06-18 | 确定行驶区域信息的方法及装置 |
JP2021575407A JP7418476B2 (ja) | 2019-06-18 | 2020-06-18 | 運転可能な領域情報を決定するための方法及び装置 |
EP20825659.4A EP3975042B1 (en) | 2019-06-18 | 2020-06-18 | Method and apparatus for determining running region information |
US17/644,920 US11698459B2 (en) | 2019-06-18 | 2021-12-17 | Method and apparatus for determining drivable region information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910525320.1A CN112101069A (zh) | 2019-06-18 | 2019-06-18 | 确定行驶区域信息的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112101069A true CN112101069A (zh) | 2020-12-18 |
Family
ID=73748616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910525320.1A Pending CN112101069A (zh) | 2019-06-18 | 2019-06-18 | 确定行驶区域信息的方法及装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11698459B2 (zh) |
EP (1) | EP3975042B1 (zh) |
JP (1) | JP7418476B2 (zh) |
CN (1) | CN112101069A (zh) |
WO (1) | WO2020253764A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023039733A1 (zh) * | 2021-09-14 | 2023-03-23 | 华为技术有限公司 | 信号处理方法及相关装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210062144A (ko) * | 2019-11-20 | 2021-05-31 | 현대자동차주식회사 | 군집 주행 시 가상 차선 표시 장치 및 그 방법 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105667518A (zh) * | 2016-02-25 | 2016-06-15 | 福州华鹰重工机械有限公司 | 车道检测的方法及装置 |
CN106249239A (zh) * | 2016-08-23 | 2016-12-21 | 深圳市速腾聚创科技有限公司 | 目标检测方法及装置 |
CN107161141A (zh) * | 2017-03-08 | 2017-09-15 | 深圳市速腾聚创科技有限公司 | 无人驾驶汽车系统及汽车 |
CN107202983A (zh) * | 2017-05-19 | 2017-09-26 | 深圳佑驾创新科技有限公司 | 基于图像识别和毫米波雷达融合的自动刹车方法和系统 |
US20180232947A1 (en) * | 2017-02-11 | 2018-08-16 | Vayavision, Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
CN108960183A (zh) * | 2018-07-19 | 2018-12-07 | 北京航空航天大学 | 一种基于多传感器融合的弯道目标识别系统及方法 |
CN108957413A (zh) * | 2018-07-20 | 2018-12-07 | 重庆长安汽车股份有限公司 | 传感器目标定位准确度测试方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004117071A (ja) | 2002-09-24 | 2004-04-15 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
JP4674179B2 (ja) * | 2006-03-30 | 2011-04-20 | 株式会社デンソーアイティーラボラトリ | 影認識方法及び影境界抽出方法 |
US8634593B2 (en) * | 2008-04-24 | 2014-01-21 | GM Global Technology Operations LLC | Pixel-based texture-less clear path detection |
US8605947B2 (en) * | 2008-04-24 | 2013-12-10 | GM Global Technology Operations LLC | Method for detecting a clear path of travel for a vehicle enhanced by object detection |
CN101975951B (zh) * | 2010-06-09 | 2013-03-20 | 北京理工大学 | 一种融合距离和图像信息的野外环境障碍检测方法 |
JP5820774B2 (ja) * | 2012-06-21 | 2015-11-24 | 株式会社豊田中央研究所 | 路面境界推定装置及びプログラム |
CN104331703A (zh) * | 2013-07-22 | 2015-02-04 | 博世汽车部件(苏州)有限公司 | 监测车辆行驶状态的方法及实现该方法的汽车导航设备 |
US9612123B1 (en) * | 2015-11-04 | 2017-04-04 | Zoox, Inc. | Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes |
US10145951B2 (en) * | 2016-03-30 | 2018-12-04 | Aptiv Technologies Limited | Object detection using radar and vision defined image detection zone |
JP7206583B2 (ja) * | 2016-11-25 | 2023-01-18 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム |
CN107389084B (zh) * | 2017-06-09 | 2020-06-05 | 深圳市速腾聚创科技有限公司 | 行车路径规划方法及存储介质 |
EP3664064A4 (en) | 2017-08-03 | 2021-01-27 | Koito Manufacturing Co., Ltd. | VEHICLE LIGHTING SYSTEM, VEHICLE SYSTEM AND VEHICLE |
CN107991671A (zh) * | 2017-11-23 | 2018-05-04 | 浙江东车智能科技有限公司 | 一种基于雷达数据和视频信号融合识别危险目标的方法 |
CN108297795A (zh) * | 2018-01-31 | 2018-07-20 | 成都华远科技有限公司 | 一种电动车的车道识别系统 |
KR20210022570A (ko) * | 2018-06-29 | 2021-03-03 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 정보 처리 장치 및 정보 처리 방법, 촬상 장치, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치 |
CN109298415B (zh) * | 2018-11-20 | 2020-09-22 | 中车株洲电力机车有限公司 | 一种轨道和道路障碍物检测方法 |
CN109543600A (zh) * | 2018-11-21 | 2019-03-29 | 成都信息工程大学 | 一种实现可行驶区域检测方法及系统和应用 |
CN109829386B (zh) * | 2019-01-04 | 2020-12-11 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
CN109828571A (zh) * | 2019-02-18 | 2019-05-31 | 奇瑞汽车股份有限公司 | 基于v2x的自动驾驶车辆、方法和装置 |
CN109733284B (zh) * | 2019-02-19 | 2021-10-08 | 广州小鹏汽车科技有限公司 | 一种应用于车辆的安全泊车辅助预警方法及系统 |
-
2019
- 2019-06-18 CN CN201910525320.1A patent/CN112101069A/zh active Pending
-
2020
- 2020-06-18 JP JP2021575407A patent/JP7418476B2/ja active Active
- 2020-06-18 WO PCT/CN2020/096755 patent/WO2020253764A1/zh unknown
- 2020-06-18 EP EP20825659.4A patent/EP3975042B1/en active Active
-
2021
- 2021-12-17 US US17/644,920 patent/US11698459B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105667518A (zh) * | 2016-02-25 | 2016-06-15 | 福州华鹰重工机械有限公司 | 车道检测的方法及装置 |
CN106249239A (zh) * | 2016-08-23 | 2016-12-21 | 深圳市速腾聚创科技有限公司 | 目标检测方法及装置 |
US20180232947A1 (en) * | 2017-02-11 | 2018-08-16 | Vayavision, Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
CN107161141A (zh) * | 2017-03-08 | 2017-09-15 | 深圳市速腾聚创科技有限公司 | 无人驾驶汽车系统及汽车 |
CN107202983A (zh) * | 2017-05-19 | 2017-09-26 | 深圳佑驾创新科技有限公司 | 基于图像识别和毫米波雷达融合的自动刹车方法和系统 |
CN108960183A (zh) * | 2018-07-19 | 2018-12-07 | 北京航空航天大学 | 一种基于多传感器融合的弯道目标识别系统及方法 |
CN108957413A (zh) * | 2018-07-20 | 2018-12-07 | 重庆长安汽车股份有限公司 | 传感器目标定位准确度测试方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023039733A1 (zh) * | 2021-09-14 | 2023-03-23 | 华为技术有限公司 | 信号处理方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2020253764A1 (zh) | 2020-12-24 |
EP3975042A1 (en) | 2022-03-30 |
JP7418476B2 (ja) | 2024-01-19 |
EP3975042B1 (en) | 2024-01-03 |
JP2022537557A (ja) | 2022-08-26 |
US20220108552A1 (en) | 2022-04-07 |
US11698459B2 (en) | 2023-07-11 |
EP3975042A4 (en) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111352110B (zh) | 处理雷达数据的方法和装置 | |
CN111712731B (zh) | 目标检测方法、系统及可移动平台 | |
US20210350149A1 (en) | Lane detection method and apparatus,lane detection device,and movable platform | |
US20200225321A1 (en) | Machine learning based highway radar vehicle classification across multiple lanes and speeds | |
KR20210096607A (ko) | 레이더 딥 러닝 | |
CN109993192B (zh) | 目标对象识别方法及装置、电子设备、存储介质 | |
CN110146865B (zh) | 用于雷达图像的目标识别方法及装置 | |
US11698459B2 (en) | Method and apparatus for determining drivable region information | |
WO2020191978A1 (zh) | Sar成像方法及其成像系统 | |
CN114662600A (zh) | 一种车道线的检测方法、装置和存储介质 | |
US20240103132A1 (en) | Radar apparatus and method for classifying object | |
CN112034464A (zh) | 一种目标分类方法 | |
Meis et al. | Radar image acquisition and interpretation for automotive applications | |
CN116587978A (zh) | 一种基于车载显示屏的碰撞预警方法及系统 | |
EP4099211A1 (en) | Method and device for training a machine learning algorithm | |
US20220101025A1 (en) | Temporary stop detection device, temporary stop detection system, and recording medium | |
CN115421160A (zh) | 路沿检测方法、装置、设备、车辆及存储介质 | |
CN108885262A (zh) | 用于捕捉至少一个对象的方法、传感器设备的装置、传感器设备和具有至少一个传感器设备的驾驶员辅助系统 | |
CN107003405B (zh) | 用于检测机动车辆的传感器装置由物体屏蔽的方法、计算装置、驾驶员辅助系统和机动车辆 | |
WO2021199104A1 (ja) | 物体検知システムおよび物体検知方法 | |
CN111301374B (zh) | 一种汽车全景检测自动防撞系统 | |
CN116413683A (zh) | 激光雷达及其扫描方法、可读存储介质 | |
CN113687348B (zh) | 基于追踪微多普勒图的行人识别方法和装置 | |
CN112672047B (zh) | 图像采集系统及图像处理方法 | |
TWI843116B (zh) | 移動物體檢測方法、裝置、電子設備及存儲介質 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |