CN113610860A - 高精地图斑马线生成方法、装置及电子设备 - Google Patents
高精地图斑马线生成方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113610860A CN113610860A CN202110672284.9A CN202110672284A CN113610860A CN 113610860 A CN113610860 A CN 113610860A CN 202110672284 A CN202110672284 A CN 202110672284A CN 113610860 A CN113610860 A CN 113610860A
- Authority
- CN
- China
- Prior art keywords
- vertex
- target
- cutting
- target edge
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 241000283070 Equus zebra Species 0.000 title claims abstract description 156
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000005520 cutting process Methods 0.000 claims abstract description 196
- 238000009877 rendering Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 13
- 230000001502 supplementing effect Effects 0.000 claims description 13
- 238000003860 storage Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 11
- 230000001154 acute effect Effects 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 abstract description 46
- 238000012545 processing Methods 0.000 abstract description 24
- 230000000694 effects Effects 0.000 abstract description 11
- 230000000007 visual effect Effects 0.000 abstract description 10
- 238000013473 artificial intelligence Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000012163 sequencing technique Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000005267 amalgamation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3811—Point data, e.g. Point of Interest [POI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3679—Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
- G01C21/3682—Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
- G01C21/3822—Road feature data, e.g. slope data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本公开提供了一种斑马线生成方法、装置及电子设备,涉及图像处理领域,尤其涉及计算机视觉等人工智能领域,可应用于智能交通场景下,包括获取用于生成斑马线的原始顶点序列,并对原始顶点序列进行顶点合并,确定合并后的第一顶点序列;对第一顶点序列中的顶点按照顺序连线,并从所有连线中确定出第一目标边和近似第二目标边;获取第一目标边对应的第一顶点集和近似第二目标边对应的第二顶点集,并基于第一顶点集和第二顶点集生成待切割区域;对待切割区域进行切割,并对切割出的部分切割单元进行间隔填充,生成斑马线。本公开中,斑马线的成像具有切割效果,保证了视觉效果,强化了斑马线的成像精度,提高了斑马线的生成效率。
Description
技术领域
本公开涉及图像处理领域,尤其涉及计算机视觉等人工智能领域、智能交通领域。
背景技术
目前,高精地图已经广泛应用于实际场景中。其中,针对斑马线的成像,相关技术中,或者是仅绘制斑马线的外轮廓,对斑马线的外接形状成像,精度较低且视觉效果差。或者是通过人工干预,进行斑马线的绘制成像,人工成本较高且效率低。
因此,如何提高斑马线的成像效率以及斑马线的成像精度,是目前需要解决的问题。
发明内容
本公开提供了一种斑马线生成方法、装置、电子设备、存储介质及计算机程序产品。
根据本公开的第一方面,一种斑马线生成方法,包括:获取图像中用于生成斑马线的原始顶点序列,并对所述原始顶点序列进行顶点合并,确定合并后的第一顶点序列;对所述第一顶点序列中的顶点按照顺序连线,并从所有连线中确定出第一目标边和近似第二目标边;获取所述第一目标边对应的第一顶点集和所述近似第二目标边对应的第二顶点集,并基于所述第一顶点集和所述第二顶点集生成待切割区域;对所述待切割区域进行切割,并对切割出的部分切割单元进行间隔填充,生成斑马线。
根据本公开的第二方面,一种斑马线生成装置,包括:合并模块,用于获取图像中用于生成斑马线的原始顶点序列,并对所述原始顶点序列进行顶点合并,确定合并后的第一顶点序列;确定模块,用于对所述第一顶点序列中的顶点按照顺序连线,并从所有连线中确定出第一目标边和近似第二目标边;获取模块,用于获取所述第一目标边对应的第一顶点集和所述近似第二目标边对应的第二顶点集,并基于所述第一顶点集和所述第二顶点集生成待切割区域;切割生成模块,用于对所述待切割区域进行切割,并对切割出的部分切割单元进行间隔填充,生成斑马线。
根据本公开的第三方面,提出了一种电子设备,包括:包括处理器和存储器;其中,所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于实现如上述第一方面中任一项所述的斑马线生成方法。
根据本公开的第四方面,提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面中任一项所述的斑马线生成方法。
根据本公开的第五方面,提出了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时实现如上述第一方面中任一项所述的斑马线生成方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开一实施例的斑马线生成方法的流程示意图;
图2为本公开另一实施例的斑马线生成方法的流程示意图;
图3为本公开另一实施例的斑马线生成方法的流程示意图;
图4为本公开另一实施例的斑马线生成方法的流程示意图;
图5为本公开另一实施例的斑马线生成方法的流程示意图;
图6为本公开另一实施例的斑马线生成方法的流程示意图;
图7为本公开另一实施例的斑马线生成方法的流程示意图;
图8为本公开另一实施例的斑马线生成方法的流程示意图;
图9为本公开另一实施例的斑马线生成方法的流程示意图;
图10为本公开另一实施例的斑马线生成方法的流程示意图;
图11为本公开一实施例的斑马线生成装置的结构示意图;
图12为本公开另一实施例的斑马线生成装置的结构示意图;
图13为本公开一实施例的电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图像处理(Image Processing),用计算机对图像进行分析,以达到所需结果的技术。又称影像处理。图像处理一般指数字图像处理。数字图像是指用工业相机、摄像机、扫描仪等设备经过拍摄得到的一个大的二维数组,该数组的元素称为像素,其值称为灰度值。图像处理技术一般包括图像压缩,增强和复原,匹配、描述和识别3个部分。
计算机视觉(Computer Vision),是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。这里所指的信息指Shannon定义的,可以用来帮助做一个“决定”的信息。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。
智能交通(Intelligent Traffic System,简称ITS),又称智能运输系统(Intelligent Transportation System),是将先进的科学技术,比如信息技术、计算机技术、数据通信技术、传感器技术、电子控制技术、自动控制理论、运筹学、人工智能等,有效地综合运用于交通运输、服务控制和车辆制造,加强车辆、道路、使用者三者之间的联系,从而形成一种保障安全、提高效率、改善环境、节约能源的综合运输系统。
图1为本公开一实施例的斑马线生成方法的流程示意图,该方法的执行主体为客户端,如图1所示,该方法包括:
S101,获取图像中用于生成斑马线的原始顶点序列,并对原始顶点序列进行顶点合并,确定合并后的第一顶点序列。
目前,高精地图已经广泛应用于实际场景中,比如,无人驾驶的车辆可以通过高精地图实现环境的感知、定位以及决策。在一些场景中,基于高精地图,可以结合高精定位、云计算等相关技术,实现对于特殊车辆的监控、导航、公交优先等等。因此,高精地图的精度越高、信息量越大,所能提供的支持也会越加精准。
实际场景中,为了更加清楚的标识行人可安全行走的区域,人行横道的外观类似于斑马的外观,基于车道原本的颜色,用白色的色块进行分割,呈现黑白相间,是以人行横道又可称为斑马线。
实现中,在车辆行驶的道路上,可以通过斑马线的标识限定行人横穿车道的步行范围,以保证行人的安全。因此,在高清地图的成像中最大限度的提升斑马线的成像精度,可以为出行安全提供更有利的支撑。
可选地,可以通过高精地图的图像采集设备获取到斑马线的原始轮廓,比如无人机、航拍等等。其中,采集到的斑马线的原始轮廓多为不规则的多边形,多边形中的每个顶点可以确定为斑马线的原始顶点。
一般情况下,利用高精地图的图像采集设备进行图像采集时,可以获取采集范围内地面的建筑物和/或地标的多个相关信息,其中,可以针对不同的建筑物和/或地标设置标识,并将采集到的数据存储于相应的标识之下。比如,可以将采集到的斑马线的原始顶点序列数据存储与斑马线相应的标识下的设定位置,通过建立标识和采集数据之间的映射关系,使得采集数据可以实现调取。进一步地,可以获取斑马线的原始顶点序列。
需要说明的是,获取到的原始顶点存在排序,可以是顺时针排序,也可以是逆时针排序。
由于获取到的斑马线的原始轮廓往往是不规则的多边形,为了更加精准实现斑马线的成像,因此,需要对斑马线的原始轮廓进行进一步处理。
可选地,可以通过对斑马线的原始顶点进行合并,以过滤掉多余的顶点对斑马线成像的影响。
比如,当获取到的原始顶点中,针对相邻的两个原始顶点A和B,若原始顶点A与原始顶点B之间的距离非常小,则可以将原始顶点A与原始顶点B合并,生成一个新的顶点C,将顶点C作为斑马线轮廓的多边形的新顶点。
再比如,获取到的原始顶点序列中,针对相邻的三个原始顶点D、E、F,可以将原始顶点D与原始顶点E之间连线生成边长1、原始顶点E与原始顶点F之间连线生成边长2,若在视觉上边长1与边长2相连接后近似于一条直线,则可以将原始顶点E过滤,将原始顶点D与原始顶点F之间的连线作为新的边长。
进一步地,将处理后的顶点所组成的序列确定为第一顶点序列。
S102,对第一顶点序列中的顶点按照顺序连线,并从所有连线中确定出第一目标边和近似第二目标边。
进一步地,将第一顶点序列中的全部顶点按顺序两两相连,其中,可以按照顺时针的顺序,也可以按照逆时针的顺序,直至全部的顶点首尾相接,获取到斑马线的外轮廓所对应的多边形。
一般情况下,多边形的每个边存在长短不一的情况,将全部边的边长进行对比,获取其中长度最长的边,并将其确定为第一目标边。其中,第一目标边为一个线段。
其中,第一目标边的长度往往与其对应的实际场景中的斑马线所在的车道的宽度相同。
进一步地,确定第一目标边后,可以获取多边形中属于第一目标边的两个顶点,在多边形全部的顶点中,将除了该两个顶点之外的其他顶点之间的进行连线,可以获取到一条折线,将该折线确定为近似第二目标边。
其中,近似第二目标边与第一目标边之间的相对位置大致平行,因此,可以根据第二目标边与第一目标边之间的距离确定斑马线的宽度。
S103,获取第一目标边对应的第一顶点集和近似第二目标边对应的第二顶点集,并基于第一顶点集和第二顶点集生成待切割区域。
为了保证斑马线的成像的视觉效果,根据实际场景下斑马线的外观,可以将斑马线的外轮廓所对应的多边形进行切割,使得最终的成像具有切割效果。
其中,可以根据斑马线的外轮廓对应的多边形的顶点确定待切割区域。
本公开实施例中,第一目标边中包含的顶点为第一顶点集,近似第二目标边中包含的顶点为第二顶点集。进一步地,基于第一顶点集与第二顶点集可以实现待切割区域的确定。
第一顶点集中包含第一目标边两端的两个顶点,第二顶点集中包含近似第二目标边两端的两个顶点。针对第一目标边的两端的两个顶点中的其中一个顶点,获取近似第二目标边的两端的两个顶点中与其距离最近的其中一个顶点,将二者之间连线,该连线可以作为待切割区域的其中一个边界。进一步地,将第一目标边的两端的两个顶点中的另一个顶点,与近似第二目标边的两端的两个顶点中的另一顶点进行连线,该连线可以作为待切割区域的另一个边界。
进一步地,基于上述两个边界、第一目标边以及近似第二目标边,生成待切割区域。其中,待切割区域可以理解为,斑马线的外轮廓的对应的多边形。
S104,对待切割区域进行切割,并对切割出的部分切割单元进行间隔填充,生成斑马线。
可以从设定的起始位置开始,基于设定的切割宽度对待切割区域进行切割,进而获取到切割后的多个切割单元。
可选地,可以获取待切割区域中用于生成切割单元的边界线的边界点,将第一目标边上边界点与近似第二目标边上的相应的边界点之间连线,可以生成切割单元中的边界线,进而实现待切割区域的切割,以获取到切割单元。
其中,可以将第一顶点集中的任一个顶点作为切割的起始点。
实际场景中,斑马线的外观是深浅不同颜色相间的,因此可以用设定的颜色对获取到的切割单元中的部分切割单元进行填充。本公开实施例中,获取到的切割单元存在排列顺序,为了更加接近于实际场景下的斑马线,在全部的切割单元中间隔的对切割单元进行颜色的填充。比如,若对第一个切割单元进行颜色填充,则可以对间隔的第三个切割单元进行颜色填充,进而实现斑马线的成像。
本公开提供的斑马线生成方法,通过对采集获取到的斑马线的原始顶点序列的合并处理,生成新的多边形的第一顶点序列,对第一顶点序列顺序进行两两连线,进而获取斑马线的外轮廓对应的多边形中的第一目标边和第二近似目标边,并获取第一目标边对应的第一顶点集以及近似第二目标边对应的第二顶点集。进一步地,基于第一顶点集与第二顶点集生成待切割区域,并对待切割区域进行切割,获取到切割单元,并间隔的对其中的部分切割单元进行填充,实现斑马线的图像生成。本公开中,无需过多的人工干预,有效提高了斑马线的图像生成效率,通过对于原始顶点序列的合并处理,使得原始顶点中的噪声顶点可以被过滤,基于第一顶点集与第二顶点集实现待切割区域的生成,并对获取到的切割单元间隔填充,使得最终的斑马线的成像具有切割效果,保证了视觉效果,强化了斑马线的成像精度。
上述实施例中,关于原始顶点序列的处理,可结合图2进一步理解,图2为本公开另一实施例的斑马线生成方法的流程示意图,该方法执行主体为客户端,如图2所示,该方法包括:
S201,确定原始顶点序列的顶点顺序,响应于顶点顺序为顺时针,将顶点的顺序变更为逆时针顺序。
一般情况下,可以从图像采集设备采集到的原始顶点序列中,获取到原始顶点的排列顺序。其中,原始顶点的排序可以是顺时针的,也可以是逆时针的。
本公开实施例中,需要将顶点的排序进行逆时针的校正处理,可以理解为,若获取到的原始顶点的排序为顺时针排序,则需要对顶点基于逆时针方向重新排序。
如图3(a)所示,P0、P1、P2、P3、P4、P5、P6、P7、P8为采集到的原始顶点,如图3(a)所示,采集到的原始顶点是基于顺时针的方向排序的,则将原始顶点按逆时针的顺序重新进行排序,如图3(b)所示。
S202,从原始顶点序列中确定邻近顶点和平行顶点,对邻近顶点和平行顶点进行合并。
一般情况下,多边形的形状可以由多边形的边的数量、边的长度以及内角的值决定,因此,通过图像采集设备采集到的斑马线的原始顶点中可能存在噪声,可以理解为,可能存在部分原始顶点对于斑马线的外轮廓对应的多边形的形状的构成产生的影响较为微弱,在对斑马线进行外轮廓形状的生成时,可以对该部分属于噪声的原始顶点进行过滤处理。
进一步地,属于噪声的原始顶点可以是邻近顶点,也可以是平行顶点,或者是其他可以进行顶点合并的情况。
其中,当相邻的两个顶点之间的距离较小时,该两个顶点可以被确定为邻近顶点。可选地,可以设置一个坐标系,将原始顶点序列置于坐标系中,进而获取每个原始顶点的坐标。基于每相邻的两个顶点之间的坐标可以获取二者之间的距离,当该距离满足邻近顶点的判断标准时,则可以将该两个相邻的顶点确定为邻近顶点。
进一步地,可以将邻近顶点中的其中一个顶点作为噪声过滤。
如图3(b)所示,图中顶点P7与P6之间的距离较小,因此,P6和P7被确定为邻近顶点,可以将P7与P6合并,由于P6处于拐点,因此,需要将P6保留,过滤掉顶点P7,如图3(c)所示。
其中,针对三个相邻的顶点,可以每两个顶点顺序连线,该两条线段连接后,视觉上近乎于一条线段,进一步地,可以将产生上述效果的三个相邻的顶点确定为平行顶点。可选地,可以设置一个坐标系,将原始顶点序列置于坐标系中,进而获取每个原始顶点的坐标。基于三个相邻的顶点,可以通过对每两个顶点之间顺序连线,进而获取到每两个顶点之间的连线之间的夹角,当该夹角满足平行顶点的判断标准时,则可以将该三个相邻的顶点确定为平行顶点。
进一步地,可以将三个相邻的顶点中位于中间位置的顶点作为噪声过滤。
如图3(b)所示,图中顶点P0、P1以及P2是三个相邻的顶点,其中,P0、P1之间连线获取线段1,P1、P2之间连线获取线段2,则由图可知,线段1与线段2之间的夹角接近于0°,视觉上,线段1与线段2连接后,与P0、P2之间连线近乎重叠,因此,可以将P0、P1以及P2三个相邻的顶点合并,过滤掉顶点P1,如图3(c)所示。
进一步地,完成原始顶点中的噪声顶点过滤后,将剩余的顶点确定为第一顶点序列,可以基于第一顶点序列生成斑马线的外轮廓对应的用于后续斑马线成像的多边形。
本公开提供的斑马线生成方法,对原始顶点序列进行逆时针排序顺序的校正,后将全部的原始顶点中的邻近顶点以及平行顶点进行合并处理,过滤到了原始顶点中的噪声顶点,有效提高了斑马线的成像效率。
上述实施例的基础上,关于第一目标边与近似第二目标边的确定,可结合图4进一步理解,图4为本公开另一实施例的斑马线生成方法的流程示意图,该方法执行主体为客户端,如图4所示,该方法包括:
S401,获取每个连线的长度,选取长度最大的连线作为第一目标边。
本公开实施例中,基于第一目标边可以确定斑马线成像的长,因此,需要从斑马线的外轮廓对应的多边形中,选择边长最长的一条边,作为第一目标边。
进一步地,斑马线的原始顶点合并后可以获取到第一顶点序列,将第一顶点序列每两个顶点顺序连接,可以获取合并处理后的斑马线的外轮廓对应的多边形的每个边。进一步地,基于获取到的每个边的长度,并从中选取一个最长的边,将其确定为第一目标边。
如图3(c)所示,对顶点进行合并处理后,过滤掉了噪声顶点P1以及P7,将剩余的顶点P0、P2、P3、P4、P5、P6、P8作为多边形的顶点,并获取由该7个顶点所组成第一顶点序列。由图3(c)可知,将上述7个顶点按序两两之间连线后,最长的连线为P0与P2之间的连线,因此,可以将P0与P2之间的连线确定为第一目标边。
S402,根据剩余的连线,确定近似第二目标边。
其中,确定第一目标边对应的连线后,可以基于剩余的连线确定近似第二目标边。可以理解为,确定第一目标边后,剩余不属于第一目标边的顶点之间进行连线后,所组成的折线可以确定为初始的近似第二目标边。
进一步地,可以基于剩余连线中位于两端的两个顶点与第一目标边之间的相对关系,确定对近似第二目标边的补充连线,并基于初始的近似第二目标边与确定的补充连线,生成最终的近似第二目标边。
作为一种可能的实现方式,通过近似第二目标边两端的顶点投影至第一目标边上的位置,可以确定近似第二目标边的补充连线,其中:
首先,从剩余的连线中,确定与第一目标边共享同一顶点的目标连线。
剩余连线中,存在与第一目标边共享顶点的目标连线,即为剩余的连线中,存在部分连线的其中一个顶点与第一目标边包含的顶点重合。
如图3(c)所示,确定P0与P2之间的连线为第一目标边,则P0与P8之间的连线以及P2与P3之间的连线,即为与第一目标边共享同一顶点的目标连线。
其次,响应于目标连线的另一顶点向第一目标边投影的投影点落入第一目标边上,将目标连线补充至近似第二目标边。
其中,目标连线另一端的顶点,可以理解为,目标连线上不属于第一目标边的顶点。如图5(a)所示,可以将目标连线另一端的顶点在第一目标边上进行投影,当该顶点可以投影到第一目标边上时,则可以将目标连线确定为近似第二目标边的补充连线。
作为另一种可能的实现方式,可通过近似第二目标边两端的顶点与第一目标边两端顶点连线后生成的夹角的大小,可以确定近似第二目标边的补充连线,其中:
首先,从剩余的连线中,确定与第一目标边共享同一顶点的目标连线。
目标连线的确认可参加上述相关详细内容,此处不再赘述。
其次,获取目标连线与第一目标边的第一夹角。
将目标连线与第一目标边之间的夹角确定为第一夹角。如图6所示,夹角1即为第一夹角。
再次,响应于第一夹角为锐角,将目标连线补充至近似第二目标边。
一般情况下,夹角可以分为锐角、直角、钝角等等。如图5(b)所示,当第一夹角为锐角时,则可以将该目标连线确定为补充连线。
进一步地,可以将目标连线补充至近似第二目标边中,生成最终的近似第二目标边。
S403,响应于目标连线补充至近似第二目标边,则将目标连线的另一顶点补充至第二顶点集中。
本公开实施例中,目标连线不属于补充前的初始的近似第二目标边,因此,目标连线的两个顶点中,存在一个顶点不属于补充前的近似第二目标边的第二顶点集。
当目标连线确定为补充连线是,可以将目标连线中不属于补充前的初始的近似第二目标边的第二顶点集的顶点补充至第二顶点集中。
其中,需要补充至第二顶点集中的顶点,即为与目标连线与第一目标边共享的顶点。补充至第二顶点集后,该顶点既属于第一顶点集,也属于第二顶点集。
本公开提供的斑马线生成方法,基于获取到的目标连线与第一目标边之间的相对关系,确定目标连线是否补充至近似第二目标边,进而获取最终的近似第二目标边。保证了斑马线成像的准确率,以获取更好的切割效果。
进一步地,基于第一目标边以及近似第二目标边可以实现多边形的切割,如图6所示,图6为本公开另一实施例的斑马线生成方法的流程示意图,该方法执行主体为客户端,该方法包括:
S601,获取待切割区域的两个边界连线,其中,边界连线与第一目标边共享同一顶点。
一般情况下,为了更保证最终成像的视觉效果,在获取斑马线的外轮廓对应的多边形后,需要对其进行切割,以使得最终的斑马线成像具有切割效果,以最大限度的接近实际场景中斑马线的外观。
其中,可以通过获取待切割区域的两个边界连线,同时结合第一目标边与近似第二目标边,获取待切割区域的覆盖范围。
可选地,当近似第二目标边的两端的顶点与第一目标边两端的顶点重合时,则可以将重合的顶点与近似第二目标边中与其相邻的顶点之间的连线,作为待切割区域的边界连线。
可选地,当近似第二目标边的两端的顶点与第一目标边两端的顶点未重合时,则可以将近似第二目标边两端的顶点与第一目标边两端顶点中与其相邻的顶点分别进行连线,并将获取到的连线作为待切割区域的边界连线。
需要说明的是,待切割区域的两个边界连线中,每一个边界连线中存在一个顶点属于第一目标边。
如图7(a)所示,第一目标边的两个顶点是P0和P2,近似第二目标边的两个顶点为P8和P2。
其中,P2为近似第二目标边的两端的顶点与第一目标边两端的顶点的重合顶点,则将P2与近似第二目标边中与其相邻的顶点P3进行连线,P2与P3之间的连线可以确定为待切割区域中的一个边界连线。
进一步地,近似第二目标边的另一端的顶点P8与第一目标边的两个顶点P0和P2并不重合,因此,可以将第一目标边中与其相邻的顶点P0与P8连接,P0与P8之间的连线可以确定为待切割区域中的另一个边界连线。
再进一步,基于两个边界连线与第一目标边、近似第二目标边生成待切割区域。
S602,获取两个边界连线各自与第一目标边之间的第二夹角。
进一步地,确定两个边界连线后,基于边界连线与第一目标边之间的位置关系,可以获取两个边界连线与第一目标边之间的夹角,并将其确定为第二夹角。
如图7(a)所示,P0与P8之间的边界连线与第一目标边之间的夹角,以及P2与P3之间的边界连线与第一目标边之间的夹角,即为第二夹角。
S603,确定第二夹角大的边界连线开始向第二夹角小的边界连线进行切割。
本公开实施例中,可以从两个边界连线中的一条,作为对待切割区域开始切割的起始位置。其中,可以根据第二夹角的大小判断切割的起始位置。
一般情况下,第二夹角的角度值会存在差异,可以获取角度值较大的第二夹角,并将其对应的边界连线作为切割的起始位置。
如图7(a)所示,P0与P8之间的边界连线与第一目标边之间的第二夹角,大于P2与P3之间的边界连线与第一目标边之间的第二夹角,则将P0与P8之间的边界连线作为切割的起始边界连线。
S604,按照切割方向,从第一顶点集中确定切割起点,从切割起点开始进行滑动切割,生成待切换区域的多个切割单元。
为了实现最终成像的切割效果,针对待切割区域,可以设置一个切割距离,并基于设定的切割方向以及切割距离,从设定的起始位置开始进行滑动切割,顺序生成待切割区域的多个切割单元。
一般情况下,作为起始位置的边界连线中,存在与第一目标边共享的顶点,可以将该顶点作为切割起点。进一步地,根据实际场景中斑马线的整体面积与其中的一个色块面积之间的比值,以及第一目标边的边长,实现切割距离的设定。
如图7(a)所示,设定第一目标边上的顶点P0为切割的初始位置,切割距离为P0与C1之间的线段距离,则从P0开始,基于P0与C1之间的线段距离进行滑动切割,获取到待切割区域的切割后的多个切割单元。
本公开提供的方法,确定待切割区域的两个边界连线,以及两个边界连线与第一目标边之间的第二夹角,基于两个第二夹角的大小确定切割起始位置以及切割方向,并从切割起始位置进行滑动切割,进而获取待切割区域的多个切割单元。通过滑动切割获取的切割单元,使得最终的斑马线的成像具有切割效果,可以最大限度的接近实际情况,保证了成像的视觉效果。
进一步地,需要对切割单元进行填充处理,可结合图8,图8为本公开另一实施例的斑马线生成方法的流程示意图,该方法执行主体为客户端,如图8所示,该方法包括:
S801,按照预设的滑动距离,从切割起点开始进行切割,获取切割后形成的候选切割单元。
本公开实施例中,预设的滑动距离可以理解为预设的切割距离,基于预设的滑动距离进行切割,即可获取到待切割区域处理后的切割单元。
进一步地,针对第一个切割单元的获取,可以将确定好的切割起始位置的边界连线作为第一个切割单元的边界线。从切割的起始位置开始滑动,当滑动的距离与预设的滑动距离相同时停止滑动,将停止滑动时的第一目标边上的点与近似第二目标边上的相应的点相连接,二者之间的连接线可以作为第一个切割单元的另一个边界线。
其中,通过停止滑动位置的点与近似第二目标边上相应的点连接获取到的另一边界线,与切割初始位置的边界线相对平行。
如图7(b)所示,第一目标边上的顶点P0为切割的初始位置,设定滑动距离为P0与C1之间的线段距离,则从P0开始滑动切割,当滑动至C1的位置时停止滑动,并将第一目标边上的C1与近似第二目标边上相应的点C0相连接,C0与C1之间的连线即为第一个切割单元的其中一个边界线。将初始位置的边界线P0与P8之间的连线作为另一个边界线,进一步结合第一目标边与近似第二目标边,可以生成第一个切割单元。
进一步地,将第一个切割单元中C0与C1之间的边界线作为下一个切割单元的边界线,基于P0与C1之间的线段距离继续进行滑动切割,以此类推,完成对于待切割区域的切割操作,获取到多个切割单元。
其中,由于需要对切割单元进行进一步的色彩处理,因此可以将获取到的全部的切割单元确定为色彩处理的候选切割单元。
S802,从候选切割单元中选取多个目标切割单元,作为待渲染的部分切割单元。
为了使得斑马线的成像可以接近实际场景,在对待切割区域完成切割后,基于实际场景中斑马线的外观,可以从候选切割单元中筛选出部分切割单元,并对其进行颜色的填充渲染。
其中,可以通过对全部的候选切割单元进行间隔筛选,获取其中的部分候选切割单元,确定为待渲染的目标切割单元。
如图7(b)所示,将全部的8个切割单元确定为色彩处理的候选切割单元,可以从中进行间隔获取,将切割单元1、切割单元3、切割单元5、切割单元7作为待渲染的目标切割单元。
S803,将每个目标切割单元进行颜色渲染,以生成斑马线。
进一步地,获取到目标切割单元后,对目标切割单元进行颜色渲染处理,以生成接近于实际场景下的斑马线外观的斑马线的成像。
首先,获取每个目标切割单元对应的顶点集。
确定目标切割单元后,可以获取到每个目标切割单元对应的顶点,并将其整合成为每个目标切割单元对应的顶点集。
其次,根据目标切割单元的顶点集生成待渲染区域,对待渲染区域进行颜色渲染,以生成斑马线。
如图7(c)所示,基于目标单元的顶点集可以确定待渲染区域在斑马线的外轮廓对应的新多边形中的覆盖范围,进一步地,对该覆盖范围进行颜色的填充以及渲染,通过渲染使得斑马线的成像可以最大限度的接近于实际场景。
再比如,设定图7(b)中的切割单元8为待渲染的目标切割单元,切割单元8的顶点C12、C13、P2,以及每两个顶点之间的连线构成了待渲染的三角区域,对该区域进行颜色渲染,即可生成切割区域8对应的斑马线。
可选地,对待渲染区域的颜色渲染,可以采用三维渲染的方式。
其中,确定待渲染的目标切割单元后,基于实际场景中的斑马线,计算斑马线的成像过程中所需的光源参数、阴影参数、斑马线的纹理参数、颜色参数等等,并基于计算获取到的相关参数实现斑马线的三维渲染,以获取无限接近于实际场景的斑马线的立体图像。
如图9所示,通过对待渲染区域的三维渲染,实现斑马线的立体成像。
本公开提供的斑马线生成方法,通过对待切割区域进行滑动切割,获取到多个切割单元,并筛选其中需要进行颜色渲染的切割单元进行渲染后,生成斑马线。通过切割以及颜色的渲染,使得斑马线的最终成像具有了切割效果,保证了斑马线的视觉效果。
进一步地,为更好理解上述实施例,可结合图10,图10为本公开另一实施例的斑马线生成方法的流程示意图,如图10所示,该方法包括:
S1001,获取原始顶点序列。
S1002,对获取到的原始顶点序列进行逆时针校正。
S1003,对校正后的原始顶点中的邻近顶点和/或平行顶点进行合并处理,获取第一顶点序列。
S1004,基于第一顶点序列获取第一目标边。
S1005,获取近似第二目标边。
S1006,获取待切割区域。
S1007,获取切割初始位置、切割方向以及滑动距离,并对待切割区域进行滑动切割,进而获取到多个切割单元。
S1008,对全部的切割单元间隔获取,确定用于渲染的目标切割单元,并对目标切割单元进行渲染。
S1009,生成斑马线。
获取斑马线的原始顶点序列后,对其进行逆时针排序校正,完成校正后,对其中的邻近顶点和/或平行顶点进行合并处理,以过滤噪声顶点,并获取第一顶点序列。基于第一顶点序列中每两个相邻顶点顺序连线,获取其中最长的连线作为第一目标边,基于第一目标边以及剩余连线确定近似第二目标边。进一步地,基于第一目标边以及第二目标边中的全部顶点,生成待切割区域,并基于获取到的切割起始位置、切割方向以及切割距离进行滑动切割,获取到多个切割单元,并对切割单元中间隔获取到的目标切割单元进行色彩的渲染,以生成最终的斑马线。本公开中,无需过多的人工干预,有效提高了斑马线的图像生成效率,通过对于原始顶点序列的合并处理,使得原始顶点中的噪声顶点可以被过滤,基于第一顶点集与第二顶点集实现待切割区域的生成,并对获取到的切割单元间隔填充,使得最终的斑马线的成像具有切割效果,保证了视觉效果,强化了斑马线的成像精度。
与上述几种实施例提出的斑马线成像方法相对应,本公开的一个实施例还提出了一种斑马线成像装置,由于本公开实施例提出的斑马线成像装置与上述几种实施例提出的斑马线成像方法相对应,因此上述斑马线成像方法的实施方式也适用于本公开实施例提出的斑马线成像装置,在下述实施例中不再详细描述。
图11为本公开一实施例的斑马线成像装置的结构示意图,如图11所示,斑马线成像装置100,包括合并模块11、确定模块12、获取模块13、切割生成模块14,其中:
合并模块11,用于获取图像中用于生成斑马线的原始顶点序列,并对原始顶点序列进行顶点合并,确定合并后的第一顶点序列;
确定模块12,用于对第一顶点序列中的顶点按照顺序连线,并从所有连线中确定出第一目标边和近似第二目标边;
获取模块13,用于获取第一目标边对应的第一顶点集和近似第二目标边对应的第二顶点集,并基于第一顶点集和第二顶点集生成待切割区域;
切割生成模块14,用于对待切割区域进行切割,并对切割出的部分切割单元进行间隔填充,生成斑马线。
图12为本公开一实施例的斑马线成像装置的结构示意图,如图12所示,斑马线成像装置200,包括合并模块21、确定模块22、获取模块23、切割生成模块24,其中:
需要说明的是,合并模块11、确定模块12、获取模块13、切割生成模块14与合并模块21、确定模块22、获取模块23、切割生成模块24,具有相同的结构和功能。
本公开实施例中,确定模块22,还用于:获取每个连线的长度,选取长度最大的连线作为第一目标边;根据剩余的连线,确定近似第二目标边。
本公开实施例中,确定模块22,还用于:从剩余的连线中,确定与第一目标边共享同一顶点的目标连线;响应于目标连线的另一顶点向第一目标边投影的投影点落入第一目标边上,将目标连线补充至近似第二目标边。
本公开实施例中,确定模块22,还用于:从剩余的连线中,确定与第一目标边共享同一顶点的目标连线;获取目标连线与第一目标边的第一夹角;响应于第一夹角为锐角,将目标连线补充至近似第二目标边。
本公开实施例中,确定模块22,还用于:将目标连线的另一顶点补充至第二顶点集中。
本公开实施例中,切割生成模块24,还用于:获取待切割区域的两个边界连线,其中,边界连线与第一目标边共享同一顶点;获取两个边界连线各自与第一目标边之间的第二夹角;确定第二夹角大的边界连线开始向第二夹角小的边界连线进行切割。
本公开实施例中,切割生成模块,还用于:按照切割方向,从第一顶点集中确定切割起点,从切割起点开始进行滑动切割,生成待切换区域的多个切割单元。
本公开实施例中,切割生成模块24,还用于:按照预设的滑动距离,从切割起点开始进行切割,获取切割后形成的候选切割单元;从候选切割单元中选取多个目标切割单元,作为待渲染的部分切割单元;将每个目标切割单元进行颜色渲染,以生成斑马线。
本公开实施例中,切割生成模块24,还用于:获取每个目标切割单元对应的顶点集;根据目标切割单元的顶点集生成待渲染区域,对待渲染区域进行颜色渲染,以生成斑马线。
本公开实施例中,合并模块21,还用于:确定原始顶点序列的顶点顺序,响应于顶点顺序为顺时针,将顶点的顺序变更为逆时针顺序。
本公开实施例中,合并模块21,还用于:从原始顶点序列中确定邻近顶点和平行顶点,对邻近顶点和平行顶点进行合并。
本公开提供斑马线成像装置,无需过多的人工干预,有效提高了斑马线的图像生成效率,通过对于原始顶点序列的合并处理,使得原始顶点中的噪声顶点可以被过滤,基于第一顶点集与第二顶点集实现待切割区域的生成,并对获取到的切割单元间隔填充,使得最终的斑马线的成像具有切割效果,保证了视觉效果,强化了斑马线的成像精度。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图13示出了可以用来实施本公开的实施例的示例电子设备1300的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图13所示,设备1300包括计算单元1301,其可以根据存储在只读存储器(ROM)1302中的计算机程序或者从存储单元1308加载到随机访问存储器(RAM)1303中的计算机程序,来执行各种适当的动作和处理。在RAM 1303中,还可存储设备1300操作所需的各种程序和数据。计算单元1301、ROM1302以及RAM1303通过总线1304彼此相连。输入/输出(I/O)接口1305也连接至总线1304。
设备1300中的多个部件连接至I/O接口1305,包括:输入单元1306,比如键盘、鼠标等;输出单元1307,比如各种类型的显示器、扬声器等;存储单元1308,比如磁盘、光盘等;以及通信单元1309,比如网卡、调制解调器、无线通信收发机等。通信单元1309允许设备1300通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1301可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1301的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1301执行上文所描述的各个方法和处理,比如斑马线成像方法。比如,在一些实施例中,斑马线成像方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,比如存储单元1308。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1302和/或通信单元1309而被载入和/或安装到设备1300上。当计算机程序加载到RAM 1303并由计算单元1301执行时,可以执行上文描述的斑马线成像方法一个或多个步骤。备选地,在其他实施例中,计算单元1301可以通过其他任何适当的方式(比如,借助于固件)而被配置为执行斑马线成像方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与使用者的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向使用者显示信息的显示装置(比如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(比如,鼠标或者轨迹球),使用者可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与使用者的交互;比如,提供给使用者的反馈可以是任何形式的传感反馈(比如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自使用者的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(比如,作为数据服务器)、或者包括中间件部件的计算系统(比如,应用服务器)、或者包括前端部件的计算系统(比如,具有图形使用者界面或者网络浏览器的使用者计算机,使用者可以通过该图形使用者界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(比如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务端可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(“Virtual Private Server”,或简称“VPS”)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。比如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (25)
1.一种斑马线生成方法,包括:
获取图像中用于生成斑马线的原始顶点序列,并对所述原始顶点序列进行顶点合并,确定合并后的第一顶点序列;
对所述第一顶点序列中的顶点按照顺序连线,并从所有连线中确定出第一目标边和近似第二目标边;
获取所述第一目标边对应的第一顶点集和所述近似第二目标边对应的第二顶点集,并基于所述第一顶点集和所述第二顶点集生成待切割区域;
对所述待切割区域进行切割,并对切割出的部分切割单元进行间隔填充,生成斑马线。
2.根据权利要求1所述的方法,其中,所述从所有连线中确定出第一目标边和近似第二目标边,包括:
获取每个所述连线的长度,选取所述长度最大的连线作为所述第一目标边;
根据剩余的所述连线,确定所述近似第二目标边。
3.根据权利要求2所述的方法,其中,所述根据剩余的所述连线,确定所述近似第二目标边,包括:
从剩余的所述连线中,确定与所述第一目标边共享同一顶点的目标连线;
响应于所述目标连线的另一顶点向所述第一目标边投影的投影点落入所述第一目标边上,将所述目标连线补充至所述近似第二目标边。
4.根据权利要求2所述的方法,其中,所述根据剩余的所述连线,确定所述近似第二目标边,包括:
从剩余的所述连线中,确定与所述第一目标边共享同一顶点的目标连线;
获取所述目标连线与所述第一目标边的第一夹角;
响应于所述第一夹角为锐角,将所述目标连线补充至所述近似第二目标边。
5.根据权利要求2或3所述的方法,其中,所述方法还包括:
将所述目标连线的另一顶点补充至所述第二顶点集中。
6.根据权利要求1所述的方法,其中,所述对所述待切割区域进行切割之前,还包括:
获取所述待切割区域的两个边界连线,其中,所述边界连线与所述第一目标边共享同一顶点;
获取所述两个边界连线各自与所述第一目标边之间的第二夹角;
确定所述第二夹角大的边界连线开始向所述第二夹角小的边界连线进行切割。
7.根据权利要求6所述的方法,其中,所述对所述待切割区域进行切割,包括:
按照切割方向,从所述第一顶点集中确定切割起点,从所述切割起点开始进行滑动切割,生成所述待切换区域的多个切割单元。
8.根据权利要求7所述的方法,其中,所述对切割出的部分切割单元进行间隔填充,生成斑马线,包括:
按照预设的滑动距离,从切割起点开始进行切割,获取切割后形成的候选切割单元;
从所述候选切割单元中选取多个目标切割单元,作为待渲染的部分切割单元;
将每个所述目标切割单元进行颜色渲染,以生成所述斑马线。
9.根据权利要求8所述的方法,其中,所述将每个所述目标切割单元进行颜色渲染,以生成所述斑马线,包括:
获取每个所述目标切割单元对应的顶点集;
根据所述目标切割单元的顶点集生成待渲染区域,对所述待渲染区域进行颜色渲染,以生成所述斑马线。
10.根据权利要求1-3或6-9任一项所述的方法,其中,所述对所述原始顶点序列进行顶点合并之前,还包括:
确定所述原始顶点序列的顶点顺序,响应于所述顶点顺序为顺时针,将所述顶点的顺序变更为逆时针顺序。
11.根据权利要求10所述的方法,其中,所述对所述原始顶点序列进行顶点合并,包括:
从所述原始顶点序列中确定邻近顶点和平行顶点,对所述邻近顶点和所述平行顶点进行合并。
12.一种斑马线生成装置,包括:
合并模块,用于获取图像中用于生成斑马线的原始顶点序列,并对所述原始顶点序列进行顶点合并,确定合并后的第一顶点序列;
确定模块,用于对所述第一顶点序列中的顶点按照顺序连线,并从所有连线中确定出第一目标边和近似第二目标边;
获取模块,用于获取所述第一目标边对应的第一顶点集和所述近似第二目标边对应的第二顶点集,并基于所述第一顶点集和所述第二顶点集生成待切割区域;
切割生成模块,用于对所述待切割区域进行切割,并对切割出的部分切割单元进行间隔填充,生成斑马线。
13.根据权利要求12所述的装置,其中,所述确定模块,还用于:
获取每个所述连线的长度,选取所述长度最大的连线作为所述第一目标边;
根据剩余的所述连线,确定所述近似第二目标边。
14.根据权利要求13所述的装置,其中,所述确定模块,还用于:
从剩余的所述连线中,确定与所述第一目标边共享同一顶点的目标连线;
响应于所述目标连线的另一顶点向所述第一目标边投影的投影点落入所述第一目标边上,将所述目标连线补充至所述近似第二目标边。
15.根据权利要求13所述的装置,其中,所述确定模块,还用于:
从剩余的所述连线中,确定与所述第一目标边共享同一顶点的目标连线;
获取所述目标连线与所述第一目标边的第一夹角;
响应于所述第一夹角为锐角,将所述目标连线补充至所述近似第二目标边。
16.根据权利要求13或14所述的装置,其中,所述确定模块,还用于:
将所述目标连线的另一顶点补充至所述第二顶点集中。
17.根据权利要求12所述的装置,其中,所述切割生成模块,还用于:
获取所述待切割区域的两个边界连线,其中,所述边界连线与所述第一目标边共享同一顶点;
获取所述两个边界连线各自与所述第一目标边之间的第二夹角;
确定所述第二夹角大的边界连线开始向所述第二夹角小的边界连线进行切割。
18.根据权利要求17所述的装置,其中,所述切割生成模块,还用于:
按照切割方向,从所述第一顶点集中确定切割起点,从所述切割起点开始进行滑动切割,生成所述待切换区域的多个切割单元。
19.根据权利要求18所述的装置,其中,所述切割生成模块,还用于:
按照预设的滑动距离,从切割起点开始进行切割,获取切割后形成的候选切割单元;
从所述候选切割单元中选取多个目标切割单元,作为待渲染的部分切割单元;
将每个所述目标切割单元进行颜色渲染,以生成所述斑马线。
20.根据权利要求19所述的装置,其中,所述切割生成模块,还用于:
获取每个所述目标切割单元对应的顶点集;
根据所述目标切割单元的顶点集生成待渲染区域,对所述待渲染区域进行颜色渲染,以生成所述斑马线。
21.根据权利要求12-14或17-20任一项所述的装置,其中,所述合并模块,还用于:
确定所述原始顶点序列的顶点顺序,响应于所述顶点顺序为顺时针,将所述顶点的顺序变更为逆时针顺序。
22.根据权利要求21所述的装置,其中,所述合并模块,还用于:
从所述原始顶点序列中确定邻近顶点和平行顶点,对所述邻近顶点和所述平行顶点进行合并。
23.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-11中任一项所述的方法。
24.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-11中任一项所述的方法。
25.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-11中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110672284.9A CN113610860B (zh) | 2021-06-17 | 2021-06-17 | 高精地图斑马线生成方法、装置及电子设备 |
EP22163313.4A EP3998458A3 (en) | 2021-06-17 | 2022-03-21 | Method and apparatus for generating zebra crossing in high resolution map, and electronic device |
US17/716,318 US20220230453A1 (en) | 2021-06-17 | 2022-04-08 | Method and apparatus for generating zebra crossing in high resolution map, and electronic device |
KR1020220072123A KR20220092462A (ko) | 2021-06-17 | 2022-06-14 | 고정밀 지도 횡단보도 생성 방법, 장치 및 전자 기기 |
JP2022097734A JP7360510B2 (ja) | 2021-06-17 | 2022-06-17 | 高精度マップの横断歩道の生成方法、装置及び電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110672284.9A CN113610860B (zh) | 2021-06-17 | 2021-06-17 | 高精地图斑马线生成方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113610860A true CN113610860A (zh) | 2021-11-05 |
CN113610860B CN113610860B (zh) | 2023-12-15 |
Family
ID=78303573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110672284.9A Active CN113610860B (zh) | 2021-06-17 | 2021-06-17 | 高精地图斑马线生成方法、装置及电子设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220230453A1 (zh) |
EP (1) | EP3998458A3 (zh) |
JP (1) | JP7360510B2 (zh) |
KR (1) | KR20220092462A (zh) |
CN (1) | CN113610860B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009223817A (ja) * | 2008-03-18 | 2009-10-01 | Zenrin Co Ltd | 路面標示地図生成方法 |
JP2012133132A (ja) * | 2010-12-22 | 2012-07-12 | Geo Technical Laboratory Co Ltd | 地図データ生成システム |
CN112069282A (zh) * | 2020-09-08 | 2020-12-11 | 湖北亿咖通科技有限公司 | 一种道路的斑马线的生成方法、电子设备和存储介质 |
CN112488217A (zh) * | 2020-12-05 | 2021-03-12 | 武汉中海庭数据技术有限公司 | 斑马线纠正方法、电子装置和存储介质 |
CN112528917A (zh) * | 2020-12-18 | 2021-03-19 | 深兰科技(上海)有限公司 | 斑马线区域识别方法、装置、电子设备和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3876972B2 (ja) * | 2001-10-12 | 2007-02-07 | 株式会社デンソー | 案内画像生成装置、案内画像表示装置、ナビゲーション装置、及びプログラム |
JP4712487B2 (ja) * | 2005-08-25 | 2011-06-29 | 株式会社リコー | 画像処理方法及び装置、デジタルカメラ装置、並びに画像処理プログラムを記録した記録媒体 |
JP5557472B2 (ja) * | 2009-05-21 | 2014-07-23 | 三菱電機株式会社 | 道路レーンデータ生成装置、道路レーンデータ生成方法および道路レーンデータ生成プログラム |
JP2013186664A (ja) * | 2012-03-07 | 2013-09-19 | Toyota Motor Corp | 横断歩道認識装置および横断歩道認識方法 |
US9135754B2 (en) * | 2012-05-07 | 2015-09-15 | Honda Motor Co., Ltd. | Method to generate virtual display surfaces from video imagery of road based scenery |
JP7183020B2 (ja) * | 2018-12-11 | 2022-12-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
-
2021
- 2021-06-17 CN CN202110672284.9A patent/CN113610860B/zh active Active
-
2022
- 2022-03-21 EP EP22163313.4A patent/EP3998458A3/en not_active Withdrawn
- 2022-04-08 US US17/716,318 patent/US20220230453A1/en not_active Abandoned
- 2022-06-14 KR KR1020220072123A patent/KR20220092462A/ko not_active Application Discontinuation
- 2022-06-17 JP JP2022097734A patent/JP7360510B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009223817A (ja) * | 2008-03-18 | 2009-10-01 | Zenrin Co Ltd | 路面標示地図生成方法 |
JP2012133132A (ja) * | 2010-12-22 | 2012-07-12 | Geo Technical Laboratory Co Ltd | 地図データ生成システム |
CN112069282A (zh) * | 2020-09-08 | 2020-12-11 | 湖北亿咖通科技有限公司 | 一种道路的斑马线的生成方法、电子设备和存储介质 |
CN112488217A (zh) * | 2020-12-05 | 2021-03-12 | 武汉中海庭数据技术有限公司 | 斑马线纠正方法、电子装置和存储介质 |
CN112528917A (zh) * | 2020-12-18 | 2021-03-19 | 深兰科技(上海)有限公司 | 斑马线区域识别方法、装置、电子设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
MD. KHALILUZZAMAN AND KAUSHIK DEB: "Zebra-crossing Detection Based on Geometric Feature and Vertical Vanishing Point", IEEE, pages 1 - 6 * |
李谦: "行车记录仪数据稀疏点云重建及斑马线检测应用", 知网, pages 1 - 114 * |
Also Published As
Publication number | Publication date |
---|---|
CN113610860B (zh) | 2023-12-15 |
US20220230453A1 (en) | 2022-07-21 |
EP3998458A2 (en) | 2022-05-18 |
JP2022123068A (ja) | 2022-08-23 |
JP7360510B2 (ja) | 2023-10-12 |
EP3998458A3 (en) | 2022-11-30 |
KR20220092462A (ko) | 2022-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8270704B2 (en) | Method and apparatus for reconstructing 3D shape model of object by using multi-view image information | |
CN111462275B (zh) | 一种基于激光点云的地图生产方法和装置 | |
CN107223269B (zh) | 三维场景定位方法和装置 | |
CN106548516B (zh) | 三维漫游方法和装置 | |
CN113192179B (zh) | 一种基于双目立体视觉的三维重建方法 | |
CN106908052B (zh) | 用于智能机器人的路径规划方法及装置 | |
CN109255808B (zh) | 基于倾斜影像的建筑物纹理提取方法和装置 | |
CN113724368B (zh) | 图像采集系统、三维重建方法、装置、设备以及存储介质 | |
US9437034B1 (en) | Multiview texturing for three-dimensional models | |
CN111721281B (zh) | 位置识别方法、装置和电子设备 | |
CN112102489B (zh) | 导航界面显示方法、装置、计算设备和存储介质 | |
CN110782507A (zh) | 一种基于人脸网格模型的纹理贴图生成方法、系统及电子设备 | |
KR101593316B1 (ko) | 스테레오 카메라를 이용한 3차원 모델 재구성 방법 및 장치 | |
KR101549155B1 (ko) | 라이다 자료를 활용한 구조물의 직선경계 추출방법 | |
CN112651881A (zh) | 图像合成方法、装置、设备、存储介质以及程序产品 | |
CN112634414A (zh) | 地图显示方法及装置 | |
CN111583381A (zh) | 游戏资源图的渲染方法、装置及电子设备 | |
CN114140592A (zh) | 高精地图生成方法、装置、设备、介质及自动驾驶车辆 | |
CN115222889A (zh) | 基于多视图图像的3d重建方法、装置及相关设备 | |
CN107958489B (zh) | 一种曲面重建方法及装置 | |
CN114693836A (zh) | 道路要素矢量的生成方法和系统 | |
CN114120254A (zh) | 道路信息识别方法、装置及存储介质 | |
CN114005098A (zh) | 高精地图车道线信息的检测方法、装置和电子设备 | |
CN113610860B (zh) | 高精地图斑马线生成方法、装置及电子设备 | |
CN112668505A (zh) | 基于路侧相机的外参的三维感知信息获取方法和路侧设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |