KR20200142315A - Method and apparatus of updating road network - Google Patents
Method and apparatus of updating road network Download PDFInfo
- Publication number
- KR20200142315A KR20200142315A KR1020190069413A KR20190069413A KR20200142315A KR 20200142315 A KR20200142315 A KR 20200142315A KR 1020190069413 A KR1020190069413 A KR 1020190069413A KR 20190069413 A KR20190069413 A KR 20190069413A KR 20200142315 A KR20200142315 A KR 20200142315A
- Authority
- KR
- South Korea
- Prior art keywords
- road network
- road
- information
- type
- update
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000012937 correction Methods 0.000 claims abstract description 39
- 239000013598 vector Substances 0.000 claims description 28
- 238000013507 mapping Methods 0.000 claims description 17
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 14
- 238000009434 installation Methods 0.000 claims description 13
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 14
- 238000001514 detection method Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G06T3/0031—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
아래의 실시예들은 도로 네트워크를 갱신하는 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for updating a road network.
도로 네트워크를 구축 및 관리하기 위해서는 도로에 표시된 도로 표지 이외에도 다양한 도로 시설물들에 대한 정보를 획득하는 것이 필요하다. 이를 위해 거리 또는 도로를 직접 방문하여 영상을 촬영함으로써 해당 정보를 획득하거나, 또는 미리 촬영된 영상으로부터 해당 정보를 획득할 수 있다. 다만, 이러한 정보의 획득 과정은 많은 수작업을 수반하므로 획득된 정보가 휴먼 에러(human error)를 포함할 수 있고, 이로 인해 획득된 정보를 처리 또는 가공한 결과에서 오류가 발생할 가능성이 매우 높다.In order to establish and manage a road network, it is necessary to acquire information on various road facilities in addition to road signs displayed on the road. To this end, corresponding information may be obtained by directly visiting a street or road and photographing an image, or corresponding information may be obtained from a pre-captured image. However, since the process of acquiring such information involves a lot of manual work, the acquired information may include a human error, and there is a high possibility that an error may occur in the result of processing or processing the acquired information.
일 측에 따르면, 도로 네트워크를 갱신하는 방법은 입력 영상으로부터 도로 네트워크에 포함되는 적어도 하나의 객체를 검출하는 단계; 상기 객체의 유형(type)을 식별하는 단계; 상기 객체의 유형에 따라 상기 객체에 대응하는 보정 방법을 결정하는 단계; 상기 보정 방법에 따라 상기 객체의 정보를 보정하는 단계; 및 상기 보정된 객체의 정보에 기초하여 상기 도로 네트워크를 갱신하는 단계를 포함한다. According to one side, a method of updating a road network includes: detecting at least one object included in the road network from an input image; Identifying the type of the object; Determining a correction method corresponding to the object according to the type of the object; Correcting the information of the object according to the correction method; And updating the road network based on the corrected object information.
상기 객체의 정보는 상기 입력 영상 내의 상기 객체 에 대응하는 영역 정보; 및 상기 입력 영상에 대응하는 3차원 공간 내의 상기 객체 에 대응하는 위치 정보 중 적어도 하나를 포함할 수 있다. The object information includes region information corresponding to the object in the input image; And at least one of location information corresponding to the object in the 3D space corresponding to the input image.
상기 객체의 유형은 상기 도로 네트워크에 포함된 도로의 차선 및 차로 경계선을 포함하는 도로 노면 표시(road surface marking)에 해당하는 제1 유형; 및 상기 도로 네트워크에 포함된 도로 교통 표지판을 포함하는 도로 시설물(street furniture)에 해당하는 제2 유형 중 적어도 하나를 포함할 수 있다. The type of the object is a first type corresponding to a road surface marking including a lane and a lane boundary line of a road included in the road network; And at least one of the second types corresponding to street furniture including road traffic signs included in the road network.
상기 객체의 유형이 제1 유형인 경우, 상기 보정 방법을 결정하는 단계는 상기 객체의 그룹핑(grouping) 시에 상기 입력 영상 내에서 인식의 대상이 되는 제1 객체들을 그룹핑하기 위하여, 상기 인식의 대상에서 제외되는 제2 객체에 기초하여 상기 제1 객체에 대응하는 영역 정보를 보정하는 제1 보정 방법을 상기 보정 방법으로 결정하는 단계를 포함할 수 있다. When the type of the object is the first type, the determining of the correction method includes the object of recognition in order to group first objects to be recognized in the input image when the objects are grouped. It may include determining a first correction method for correcting region information corresponding to the first object based on the second object excluded from, as the correction method.
상기 입력 영상은 투시도(perspective view) 영상을 포함하고, 상기 객체의 정보를 보정하는 단계는 상기 투시도 영상에서 상기 제1 객체에 대응하는 제1 영역들을 획득하는 단계; 상기 투시도 영상을 조감도(bird’s-eye view) 영상으로 변환하는 단계; 상기 조감도 영상에서 상기 제2 객체에 대응하는 제2 영역들을 획득하는 단계; 상기 투시도 영상과 상기 조감도 영상 사이의 변환 관계에 기초하여, 상기 투시도 영상에서 상기 제2 영역들에 대응하는 제3 영역들을 산출하는 단계; 및 상기 투시도 영상에서 상기 제1 영역들로부터 상기 제3 영역들을 제외함으로써, 상기 제1 영역들을 보정하는 단계를 포함할 수 있다. The input image includes a perspective view image, and the correcting of the object information may include obtaining first areas corresponding to the first object in the perspective view image; Converting the perspective view image into a bird's-eye view image; Acquiring second regions corresponding to the second object in the bird's eye view image; Calculating third areas corresponding to the second areas in the perspective view image based on a conversion relationship between the perspective view image and the bird's eye view image; And correcting the first regions by excluding the third regions from the first regions in the perspective view image.
상기 도로 네트워크를 갱신하는 단계는 상기 투시도 영상에서 상기 보정된 제1 영역들을 기초로, 후보 선분들(line segments) 및 후보 선분들의 연장선들을 생성하는 단계; 서로 교차하는 연장선들에 기초하여, 해당하는 후보 선분들을 그룹핑하는 단계; 상기 그룹핑한 후보 선분들을 이용하여 적어도 하나의 차선을 인식하는 단계; 및 상기 인식된 적어도 하나의 차선에 기초하여, 상기 도로 네트워크를 갱신하는 단계를 포함할 수 있다. The updating of the road network may include generating candidate line segments and extension lines of candidate line segments based on the corrected first regions in the perspective view image; Grouping corresponding candidate line segments based on extension lines intersecting each other; Recognizing at least one lane using the grouped candidate line segments; And updating the road network based on the recognized at least one lane.
상기 객체의 유형이 제2 유형인 경우, 상기 보정 방법을 결정하는 단계는 상기 객체가 도로 시설물의 설치 규정을 만족하도록 상기 객체에 대응하는 위치 정보를 보정하는 제2 보정 방법을 상기 보정 방법으로 결정하는 단계를 포함할 수 있다. When the type of the object is the second type, the determining of the correction method includes determining, as the correction method, a second correction method for correcting the location information corresponding to the object so that the object satisfies the installation regulations for road facilities. It may include the step of.
상기 객체의 유형이 제2 유형인 경우, 상기 보정 방법을 결정하는 단계는 상기 객체가 도로 경계선(boundary line of road)을 기준으로 일정 거리 내에 포함되도록 상기 객체에 대응하는 위치 정보를 보정하는 제2 보정 방법을 상기 보정 방법으로 결정하는 단계를 포함할 수 있다.When the type of the object is the second type, the determining of the correction method includes a second correction of location information corresponding to the object so that the object is included within a predetermined distance based on a boundary line of road. It may include determining a correction method as the correction method.
상기 도로 네트워크를 갱신하는 방법은 상기 입력 영상에 포함된 복수의 프레임들로부터, 상기 객체의 3차원 방향 벡터들을 산출하는 단계; 상기 객체의 3차원 방향 벡터들을 2차원 지도 상에 맵핑하는 단계; 및 상기 맵핑된 방향 벡터들이 상기 2차원 지도 상에서 교차하는 지점의 좌표에 기초하여, 상기 객체의 위치 좌표를 산출하는 단계를 더 포함할 수 있다. The method of updating the road network includes: calculating 3D direction vectors of the object from a plurality of frames included in the input image; Mapping the three-dimensional direction vectors of the object onto a two-dimensional map; And calculating the location coordinates of the object based on coordinates of points where the mapped direction vectors intersect on the 2D map.
상기 객체의 정보를 보정하는 단계는 상기 도로 시설물의 설치 규정에 따라 상기 객체의 위치 좌표를 보정하는 단계를 포함할 수 있다. Correcting the information of the object may include correcting the position coordinates of the object according to the installation regulation of the road facility.
상기 객체의 3차원 방향 벡터들을 산출하는 단계는 프레임 단위로 상기 객체를 촬영한 카메라의 위치 및 자세에 기초하여, 프레임 별 3차원 방향 벡터를 산출하는 단계를 포함할 수 있다. Calculating the 3D direction vectors of the object may include calculating a 3D direction vector for each frame based on a position and posture of a camera photographing the object in a frame unit.
상기 프레임들 각각은 360도 영상을 포함하고, 상기 프레임 별 3차원 방향 벡터를 산출하는 단계는 해당 프레임의 가로축에 대응하는 각도, 상기 해당 프레임의 세로축에 대응하는 각도, 및 상기 해당 프레임 내 상기 객체에 해당하는 픽셀의 위치에 기초하여, 각도 좌표를 획득하는 단계; 및 상기 객체를 촬영한 카메라의 위치 및 자세를 기준으로, 상기 각도 좌표로부터 상기 해당 프레임의 3차원 방향 벡터를 산출하는 단계를 포함할 수 있다. Each of the frames includes a 360-degree image, and calculating a three-dimensional direction vector for each frame includes an angle corresponding to a horizontal axis of a corresponding frame, an angle corresponding to a vertical axis of the corresponding frame, and the object within the corresponding frame. Obtaining angular coordinates based on the position of the pixel corresponding to the s. And calculating a three-dimensional direction vector of the corresponding frame from the angular coordinate based on the position and posture of the camera photographing the object.
상기 도로 네트워크를 갱신하는 단계는 상기 객체와 관련하여 상기 도로 네트워크에 구간 별로 저장된 정보 및 상기 보정된 객체의 정보를 비교함으로써, 상기 도로 네트워크의 갱신 여부를 결정하는 단계를 포함할 수 있다. The updating of the road network may include determining whether to update the road network by comparing information stored in the road network for each section in relation to the object and information of the corrected object.
도 1은 일 실시예에 따른 도로 네트워크를 갱신하는 방법을 나타낸 흐름도.
도 2는 일 실시예에 따른 입력 영상의 예시를 도시한 도면.
도 3은 일 실시예에 따른 객체의 유형이 제1 유형인 경우에 객체의 정보를 보정하는 방법을 설명하기 위한 도면.
도 4는 일 실시예에 따른 객체의 유형이 제1 유형인 경우에 도로 네트워크를 갱신하는 방법을 설명하기 위한 도면.
도 5는 일 실시예에 따른 객체의 유형이 제2 유형인 경우에 객체의 3차원 방향 벡터를 산출하는 방법을 설명하기 위한 도면.
도 6은 일 실시예에 따른 객체의 유형이 제2 유형인 경우에 객체의 정보를 보정하는 방법을 설명하기 위한 도면.
도 7은 일 실시예에 따른 객체의 유형이 제2 유형인 경우에 도로 네트워크를 갱신하는 방법을 설명하기 위한 도면.
도 8은 일 실시예에 따른 도로 네트워크를 갱신하는 장치의 기능 블록도.1 is a flowchart illustrating a method of updating a road network according to an embodiment.
2 is a diagram illustrating an example of an input image according to an embodiment.
3 is a diagram for describing a method of correcting information on an object when the type of the object is a first type, according to an exemplary embodiment.
FIG. 4 is a diagram for describing a method of updating a road network when an object type is a first type, according to an exemplary embodiment.
5 is a diagram for describing a method of calculating a 3D direction vector of an object when the type of the object is a second type, according to an exemplary embodiment.
6 is a diagram for describing a method of correcting information on an object when the type of the object is a second type, according to an exemplary embodiment.
FIG. 7 is a diagram for describing a method of updating a road network when an object type is a second type, according to an exemplary embodiment.
Fig. 8 is a functional block diagram of an apparatus for updating a road network according to an embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다. 아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing indicate the same members. Various changes may be made to the embodiments described below. The embodiments described below are not intended to be limited to the embodiments, and should be understood to include all changes, equivalents, and substitutes thereto.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 입력, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 입력, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used only to describe specific embodiments, and are not intended to limit the embodiments. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, inputs, components, parts, or a combination of one or more other features described in the specification. It is to be understood that the presence or addition of elements or numbers, steps, inputs, components, parts, or combinations thereof does not preclude in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.
도 1은 일 실시예에 따른 도로 네트워크를 갱신하는 방법을 나타낸 흐름도이다. 도 1을 참조하면, 일 실시예에 따른 도로 네트워크를 갱신하는 장치(이하, '갱신 장치')는 입력 영상으로부터 도로 네트워크에 포함되는 적어도 하나의 객체를 검출한다(110). 입력 영상은 예를 들어, 주행 영상, 로드뷰(road view) 영상 또는 스트리트뷰(street view) 영상일 수 있으며, 반드시 이에 한정되는 것은 아니다. 입력 영상은 예를 들어, 촬영 장치를 구비한 차량을 이용하여 촬영한 영상들을 360도의 파노라마 형태로 연결한 거리 곳곳의 실사 영상일 수 있다. 촬영 장치는 예를 들어, 차량의 전면(font view), 양 측면(side view) 또는 후면(rear view) 등에 설치되어 거리 곳곳을 촬영할 수 있다. 입력 영상은 예를 들어, 360도 파노라마 영상일 수도 있고, 아래의 도 2에 도시된 것과 같이 360도 파노라마 영상을 스피어 맵핑(sphere mapping) 또는 큐브 맵핑(cube mapping)한 영상일 수도 있다. 스피어 맵핑 및 큐브 맵핑에 대하여는 아래의 도 2를 참조하여 구체적으로 설명한다. 1 is a flowchart illustrating a method of updating a road network according to an embodiment. Referring to FIG. 1, an apparatus for updating a road network (hereinafter, “update apparatus”) according to an exemplary embodiment detects at least one object included in the road network from an input image (110). The input image may be, for example, a driving image, a road view image, or a street view image, but is not limited thereto. The input image may be, for example, real-life images of various streets in which images photographed using a vehicle equipped with a photographing device are connected in a 360 degree panorama form. The photographing device may be installed, for example, in a font view, side view, or rear view of a vehicle to take pictures of various places in the street. The input image may be, for example, a 360 degree panoramic image, or an image obtained by performing sphere mapping or cube mapping of a 360 degree panoramic image as shown in FIG. 2 below. Sphere mapping and cube mapping will be described in detail with reference to FIG. 2 below.
입력 영상은 하나의 프레임을 포함할 수도 있고, 또는 복수의 프레임들을 포함할 수도 있다. 입력 영상은 해당 입력 영상을 촬영한 촬영 장치의 위치 및 자세를 포함하는 촬영 정보를 포함할 수 있다. 입력 영상이 복수의 프레임들을 포함하는 경우, 입력 영상은 각 프레임에 대응하는 촬영 정보를 포함할 수 있다. The input image may include one frame or may include a plurality of frames. The input image may include photographing information including the position and posture of the photographing device that photographed the input image. When the input image includes a plurality of frames, the input image may include photographing information corresponding to each frame.
'도로 네트워크'는 예를 들어, GPS 좌표와 같은 절대 좌표 상의 위치 정보를 갖는 다수의 노드(node)와 2개의 노드 사이를 연결하는 에지(edge)로 구성될 수 있다. 노드는 예를 들어, 교차로 상에 위치하는 신호등 또는 교차로 인근에 위치하는 횡단 보도에 해당할 수 있다. 에지는 도로의 형상을 따라 배치될 수 있다. 도로 네트워크는 예를 들어, 도로의 차선 및 차로 경계선 등과 같은 도로 노면 표시뿐만 아니라 도로 교통 표지판, 중앙 분리대, 연석, 건물 등과 같이 도로 시설물 또한 포함할 수 있다. The'road network' may include, for example, a plurality of nodes having location information on absolute coordinates such as GPS coordinates and an edge connecting the two nodes. The node may correspond to, for example, a traffic light located on an intersection or a crosswalk located near the intersection. The edges can be arranged along the shape of the road. The road network may include not only road markings such as road lanes and lane boundaries, but also road facilities such as road traffic signs, center dividers, curbs, and buildings.
'적어도 하나의 객체'는 예를 들어, 도로의 차선 및 차로 경계선 등과 같은 도로 노면 표시(road surface marking)일 수도 있고, 또는 도로 교통 표지판 등과 같은 도로 시설물(street furniture)일 수도 있다. The'at least one object' may be road surface marking, such as lanes and lane boundaries of a road, or street furniture such as road traffic signs.
단계(110)에서, 갱신 장치는 예를 들어, 미리 학습된 심층 신경망(Deep Neural Network; DNN), 컨볼루션 신경망(Convolution Neural Network; CNN), 리커런트 신경망(Recurrent Neural Network; RNN) 등과 같은 다양한 형태의 신경망을 이용하여 도로 네트워크에 포함된 적어도 하나의 객체를 검출할 수 있다. 신경망은 입력 영상으로부터 적어도 하나의 객체를 인식 및 검출하도록 학습 데이터에 의해 미리 학습된 것일 수 있다. 이때, 갱신 장치에 의해 검출된 적어도 하나의 객체는 예를 들어, 차선을 포함하는 도로 노면 표시, 및 도로 시설물 이외에도, 도로, 차량, 건물, 나무, 하늘, 보행자, 자전거, 등과 같은 다양한 클래스 별로 구분될 수도 있다. In
갱신 장치는 예를 들어, 시맨틱 세그먼테이션(semantic segmentation) 또는 인스턴스 세그먼테이션(instance segmentation)을 기초로, 도로 네트워크에 포함된 적어도 하나의 객체를 클래스(class) 별로 검출할 수 있다. '시맨틱 세그먼테이션'은 주어진 영상 안에 어느 특정한 클래스에 해당하는 객체가 있다면, 해당 객체를 픽셀 단위로 구분하여 검출할 수 있다. 시맨틱 세그먼테이션은 주어진 영상 내 각 위치 상의 픽셀들을 하나씩 조사하면서, 현재 조사 대상인 픽셀이 어느 특정한 클래스에 해당하는 객체의 일부인 경우, 해당 픽셀의 위치에 그 클래스를 나타내는 '값'을 표기하는 방식으로 적어도 하나의 객체를 검출할 수 있다. '인스턴스 세그먼테이션'은 하나의 영상 내에 등장하는 다양한 객체들을 고유의 객체 감지 기능에 의해 검출할 수 있다. The update device may detect at least one object included in the road network for each class, based on, for example, semantic segmentation or instance segmentation. In the'semantic segmentation', if there is an object corresponding to a specific class in a given image, the object can be detected by classifying the object in pixel units. Semantic segmentation is a method of examining pixels on each location in a given image one by one, and marking a'value' representing the class at the location of the pixel when the pixel currently being investigated is a part of an object corresponding to a specific class. Can detect objects of. 'Instance segmentation' can detect various objects appearing in a single image by using a unique object detection function.
또는 갱신 장치는 예를 들어, 도로 네트워크에 포함된 적어도 하나의 객체를 객체 별 바운딩 박스(bounding box)를 이용하여 검출할 수도 있다. 이때, 바운딩 박스는 예를 들어, 전체 입력 영상에서 바운딩 박스가 차지하는 위치, 다시 말해 바운딩 박스의 좌측 상단의 좌표 (x1, y1)와 우측 하단의 좌표 (x2, y2)에 의해 정의될 수 있다. Alternatively, the update device may detect at least one object included in the road network, for example, using a bounding box for each object. In this case, the bounding box is defined by, for example, a position occupied by the bounding box in the entire input image, that is, the coordinates of the upper left corner (x 1 , y 1 ) and the coordinates of the lower right (x 2 , y 2 ) Can be.
단계(110)에서 검출된 객체의 정보는 예를 들어, 입력 영상 내 객체에 대응하는 영역 정보, 및 입력 영상에 대응하는 3차원 공간 내의 객체에 대응하는 위치 정보 중 적어도 하나를 포함할 수 있다. 여기서, 객체에 대응하는 영역 정보는 예를 들어, 객체에 대응하는 픽셀들의 영역 정보 또는 바운딩 박스로 구분되는 객체의 영역 정보를 포함할 수 있다. 또한, 객체에 대응하는 위치 정보는 예를 들어, 객체의 위치 좌표 또는 객체를 구분하는 바운딩 박스의 위치 좌표를 포함할 수 있다. The information on the object detected in
갱신 장치는 객체의 유형(type)을 식별한다(120). 객체의 유형은 예를 들어, 도로 표지(road signal)의 종류에 따라 구분될 수 있다. '도로 표지'는 안전하고 원활한 도로 교통을 확보하고 도로 구조의 보전을 도모하기 위한 것으로서, 도로의 차로 측에 해당하는 도로 노면 혹은 노측(路側)에 표시된 도로 표시 및 차도(車道)의 위쪽에 설치되는 도로 교통 표지판을 포함할 수 있다. The update device identifies the type of the object (120). The type of object can be classified according to the type of road signal, for example. 'Road signs' are intended to ensure safe and smooth road traffic and to preserve the road structure, and are installed on the road surface corresponding to the lane side of the road or on the road side marked on the road and above the roadway. May include road traffic signs.
도로 표지는 예를 들어, 노선 표지, 경계 표지, 이정 표지, 방향 표지, 및/또는 이들의 내용을 보충하는 보조 표지로 구성될 수 있다. 노선 표지는 주행하는 노선을 안내하는 표지일 수 있다. 경계 표지는 교차점이나 공사 구간, 도로의 굴곡, 차선폭의 감소, 노면 상태 등에 대해 경고하는 표지일 수 있다. 이정 표지는 예를 들어, '부산 30km/h' 등과 같이 목적지의 거리를 안내하는 표지일 수 있다. 방향 표지는 교차로 상의 방향을 안내하는 표지일 수 있다.. The road sign may be composed of, for example, a route sign, a boundary sign, a signpost, a direction sign, and/or an auxiliary sign supplementing the contents thereof. The route sign may be a sign guiding the route to be driven. The boundary sign may be a sign that warns about an intersection or a construction section, a curvature of a road, a decrease in lane width, and a road surface condition. The signpost may be a sign guiding the distance of the destination, such as'Busan 30km/h'. The direction sign may be a sign guiding a direction on an intersection.
도로 표지 중 도로 표시는 도로 노면 부분에 차선과 도로 교통에 관한 규제와 지시를 표시한 것으로서, '도로 노면 표시(road surface marking)'라고도 부를 수도 있다. 도로 표지 중 도로 교통 표지판의 형태와 색상은 도로의 종류와 노선 별로 달라질 수 있다. Among road signs, road markings indicate regulations and instructions for lanes and road traffic on the road surface, and may also be referred to as'road surface marking'. Among road signs, the shape and color of road traffic signs may vary depending on the type of road and route.
일 실시예에 따른 객체의 유형은 예를 들어, 도로 네트워크에 포함된 도로의 차선 및 차로 경계선을 포함하는 도로 노면 표시에 해당하는 제1 유형, 및 도로 네트워크에 포함된 도로 상에 설치된 도로 교통 표지판을 포함하는 도로 시설물에 해당하는 제2 유형 등을 포함할 수 있다. The type of the object according to the embodiment is, for example, a first type corresponding to a road marking including a lane of a road and a lane boundary line included in the road network, and a road traffic sign installed on a road included in the road network It may include a second type, etc. corresponding to the road facility including.
갱신 장치는 단계(110)에서 검출된 객체의 유형이 제1 유형인지 또는 제2 유형인지를 식별할 수 있다. 갱신 장치는 전술한 것과 같이 미리 학습된 신경망을 이용하여 객체의 유형이 제1 유형인지 또는 제2 유형인지를 식별할 수 있다. The update device may identify whether the type of the object detected in
갱신 장치는 단계(120)에서 식별된 객체의 유형에 따라 객체에 대응하는 보정 방법을 결정한다(130). 예를 들어, 단계(120)에서 식별된 객체의 유형이 제1 유형인 경우, 갱신 장치는 인식의 대상에서 제외되는 제2 객체에 기초하여 제1 객체에 대응하는 영역 정보를 보정하는 제1 보정 방법을 보정 방법으로 결정할 수 있다. 이는 객체의 그룹핑 시에 입력 영상 내에서 인식의 대상이 되는 제1 객체들만을 그룹핑하기 위한 것이다. 이때, 제1 객체는 예를 들어, 도로 도면 표시 중 차선, 및 차로 경계선 등과 같이 차량의 주행에 직접적인 영향을 주는 객체일 수 있다. 제2 객체는 예를 들어, 도로 노면 표시 중 제1 객체를 제외한 나머지의 경계 표지, 이정 표지, 또는 방향 표지 등을 포함할 수 있다. 제2 객체는 예를 들어, 도로 노면에 기재된 화살표, 경로 안내 문자일 수 있다. The update device determines a correction method corresponding to the object according to the type of the object identified in step 120 (130). For example, when the type of the object identified in
또는, 단계(120)에서 식별된 객체의 유형이 제2 유형인 경우, 갱신 장치는 객체가 도로 시설물의 설치 규정을 만족하도록 객체에 대응하는 위치 정보를 보정하는 제2 보정 방법을 보정 방법으로 결정할 수 있다. 이때, 도로 시설물의 설치 규정은 도로 시설물의 설치 높이, 도로 시설물의 규정된 설치 위치 등에 대한 규정을 포함할 수 있다. 도로 시설물의 설치 규정은 예를 들어, 도로 시설물을 버스 정류장으로부터 10 M 이상 떨어진 위치에 설치하도록 하는 규정, 주의를 위한 도로 교통 표지판을 노면으로부터 100~210 cm 거리 내에 설치하도록 하는 규정, 지시를 위한 도로 교통 표지판을 노면으로부터 100 cm 이상의 떨어진 위치에 설치하도록 하는 규정 등을 포함할 수 있다. Alternatively, if the type of the object identified in
또는 실시예에 따라서, 단계(120)에서 식별된 객체의 유형이 제2 유형인 경우, 갱신 장치는 객체가 도로 경계선(boundary line of road)을 기준으로 일정 거리 내에 포함되도록 객체에 대응하는 위치 정보를 보정하는 제2 보정 방법을 보정 방법으로 결정할 수 있다. 여기서, '도로 경계선'은 도로와 도로가 아닌 일반 대지 구역의 경계를 구분하는 선에 해당할 수 있다. Alternatively, according to an embodiment, when the type of the object identified in
갱신 장치는 단계(130)에서 결정된 보정 방법에 따라 객체의 정보를 보정한다(140). 갱신 장치가 제1 보정 방법에 따라 객체의 정보를 보정하는 방법은 아래의 도 3을 참조하여 구체적으로 설명한다. 또한, 갱신 장치가 제2 보정 방법에 따라 객체의 정보를 보정하는 방법은 아래의 도 5 내지 6을 참조하여 구체적으로 설명한다. The update device corrects the object information according to the correction method determined in step 130 (140). A method of correcting the information of an object by the update device according to the first correction method will be described in detail with reference to FIG. 3 below. In addition, a method of correcting information of an object by the update device according to the second correction method will be described in detail with reference to FIGS. 5 to 6 below.
갱신 장치는 보정된 객체의 정보에 기초하여 도로 네트워크를 갱신한다(150). 갱신 장치는 예를 들어, 객체와 관련하여 도로 네트워크에 구간 별로 저장된 정보 및 객체의 보정된 정보를 비교함으로써, 도로 네트워크의 갱신 여부를 결정할 수 있다. 갱신 장치가 제1 보정 방법에 따라 보정된 객체의 정보에 기초하여 도로 네트워크를 갱신하는 방법은 아래의 도 4를 참조하여 구체적으로 설명한다. 또한, 갱신 장치가 제2 보정 방법에 따라 보정된 객체의 정보에 기초하여 도로 네트워크를 갱신하는 방법은 아래의 도 7을 참조하여 구체적으로 설명한다. The update device updates the road network based on the corrected object information (150). The update device may determine whether to update the road network by comparing, for example, information stored in the road network for each section in relation to the object and corrected information of the object. A method of updating the road network based on the information on the object corrected by the update device according to the first correction method will be described in detail with reference to FIG. 4 below. In addition, a method of updating the road network based on the information on the object corrected by the update device according to the second correction method will be described in detail with reference to FIG. 7 below.
일 실시예에 따르면, 이미 획득된 거리 영상 또는 도로 영상을 이용하여 객체를 탐지하고, 객체의 위치를 자동으로 배치함으로써 사용자가 직접 현장으로 나가지 않더라도 객체의 정보를 획득할 수 있을 뿐만 아니라 객체의 정보 획득 시에 수작업으로 인해 발생하는 휴먼 오류의 위험성을 최대한 배제할 수 있다. According to an embodiment, by detecting an object using an already acquired distance image or a road image, and automatically arranging the position of the object, not only the object information can be obtained even if the user does not go directly to the site, but also the object information The risk of human error caused by manual operation during acquisition can be eliminated as much as possible.
이 밖에도, 일 실시예에 따르면, 갱신 장치는 데이터베이스의 존재하는 기존 시설물들의 위치 및 클래스 정보를 이용함으로써 객체의 변경된 정보를 쉽게 취득할 수 있다. 갱신 장치는 이러한 과정을 통해 변경된 정보에 대한 최소한의 작업 및 검수를 통해 빠르게 객체의 탐지 및 관리를 수행할 수 있다.In addition, according to an embodiment, the update device can easily obtain changed information of an object by using the location and class information of existing facilities in the database. The update device can quickly detect and manage objects through minimal work and inspection on information changed through this process.
도 2는 일 실시예에 따른 입력 영상의 예시를 도시한 도면이다. 도 2를 참조하면, 일 실시예에 따른 360도 파노라마 영상을 스피어 맵핑(sphere mapping)한 영상(210) 및 360도 파노라마 영상을 큐브 맵핑(cube mapping)한 영상들(전면 영상(220), 후면 영상(230))이 도시된다. 2 is a diagram illustrating an example of an input image according to an exemplary embodiment. Referring to FIG. 2, an
예를 들어, 차량과 같은 이동 장치는 촬영 장치를 탑재하고, 일정 간격으로 주변을 촬영하여 거리 영상을 획득할 수 있다. 촬영 장치는 적어도 하나의 카메라, 카메라의 위치 정보를 수신하는 GPS(Global Positioning System) 장치, 카메라의 자세 정보를 측정하는 적어도 하나의 센서 등을 포함할 수 있다. 적어도 하나의 센서는 카메라의 자세를 측정하는 센서로서, 방위각 정보를 측정할 수 있다. 예를 들면, 센서는 각속도 센서, 자이로 센서, 가속도 센서 등을 포함할 수 있다. 방위각 정보를 기초로 카메라가 어느 방향을 바라보고, 어느 기울기로 영상을 촬영한 것인지가 파악될 수 있다. 또한, 촬영 장치는 GPS 장치 등과 같은 위치 측정 장치를 이용하여, 촬영 지점의 3차원 위치를 측정할 수 있다.For example, a mobile device such as a vehicle may be equipped with a photographing device and photograph the surroundings at regular intervals to obtain a distance image. The photographing device may include at least one camera, a Global Positioning System (GPS) device that receives location information of the camera, and at least one sensor that measures attitude information of the camera. At least one sensor is a sensor that measures the attitude of the camera and may measure azimuth information. For example, the sensor may include an angular velocity sensor, a gyro sensor, an acceleration sensor, and the like. Based on the azimuth information, it can be determined in which direction the camera is looking and at which tilt the image is captured. In addition, the photographing device may measure a three-dimensional position of a photographing point using a location measuring device such as a GPS device.
예를 들어, 촬영 장치가 어느 지점을 촬영하여 영상을 획득했다고 하자. 이 경우, 해당 영상은 촬영 장치의 위치 및 자세(또는 방위각)와 같은 촬영 정보와 함께 저장될 수 있다. 일 실시예에서는 입력 영상이 촬영 정보를 포함하는 360도 파노라마 영상인 경우를 일 예로 들어 설명하지만, 입력 영상이 반드시 이에 한정되는 것은 아니며, 이외의 다양한 영상들이 이용될 수 있다.For example, suppose that the photographing device captures a certain point and acquires an image. In this case, the image may be stored together with photographing information such as the position and posture (or azimuth) of the photographing device. In one embodiment, a case where the input image is a 360 degree panoramic image including photographing information is described as an example, but the input image is not necessarily limited thereto, and various other images may be used.
360도 파노라마 영상은 2차원 영상 내에서 360도를 표현하기 위해 영상(210)와 같이 스피어 맵핑되거나, 또는 전면 영상(220), 및 후면 영상(230)과 같이 큐브 맵핑될 수 있다. The 360-degree panoramic image may be sphere-mapped like the
'스피어 맵핑'은 객체를 포함하는 환경을 무한히 먼 구형 벽으로 생각하여 반사 표면을 근사하는 반사 맵핑의 한 유형이다. '스피어 맵핑'은 '구형 환경 맵핑' 이라고도 불릴 수 있다. 여기서, 환경은 정투영(orthographic projection) 기법을 사용하여 반사된 구가 환경에 배치된 경우에 그 모습을 나타내는 텍스쳐로 저장될 수 있다. 이 텍스쳐는 구의 바로 뒤에 있는 부분을 제외한, 전체 환경의 반사 데이터(reflective data)를 포함할 수 있다. 'Sphere mapping' is a type of reflection mapping that approximates a reflective surface by thinking of an environment containing an object as an infinitely distant spherical wall. 'Sphere mapping' may also be called'old environment mapping'. Here, the environment may be stored as a texture representing the appearance of a sphere reflected using an orthographic projection technique when it is placed in the environment. This texture may contain reflective data of the entire environment, excluding the part immediately behind the sphere.
'큐브 맵핑'은 큐브의 여섯 면을 지도 모양으로 사용하는 환경 맵핑(environment mapping) 방법이다. 여기서, 객체를 포함하는 환경은 큐브의 측면에 투영되고 여섯 개의 정사각형 텍스처로 저장되거나 단일 텍스처의 여섯 개의 영역으로 펼쳐질 수 있다. 큐브 맵은 먼저 각 큐브 면을 나타내는 90도 뷰 프러스텀(view frustum)으로 정의된 뷰(views)에 의해 장면을 시점(viewpoint)에서 6 번 렌더링함으로써 생성될 수 있다. 'Cube mapping' is an environment mapping method that uses six sides of a cube as a map shape. Here, the environment including the object is projected on the side of the cube and saved as six square textures, or can be spread out into six areas of a single texture. The cube map can be created by first rendering the scene six times at a viewpoint by views defined as a 90 degree view frustum representing each cube surface.
360도 파노라마 영상은 차량의 앞, 뒤, 좌, 우 영상을 모두 포함하지만, 도로 네트워크의 구축을 위해서는 차량의 전면 및 후면 부분만 필요하기 때문에 일 실시예에서는 360도 파노라마 영상에서 전면 부분과 후면 부분을 큐브 맵핑한 전면 영상(220) 및/또는 후면 영상(230)을 입력 영상으로 사용할 수 있다. The 360-degree panoramic image includes all of the front, rear, left, and right images of the vehicle. However, since only the front and rear portions of the vehicle are required to establish a road network, in one embodiment, the front and rear portions of the 360-degree panoramic image The
실시예에 따라서, 360도 파노라마 영상이 아니어도 도로 위를 연속적으로 촬영한 영상 혹은 일반적인 블랙박스 영상 또한 입력 영상으로 사용될 수 있다. Depending on the embodiment, an image continuously photographed on a road or a general black box image may also be used as an input image even if it is not a 360 degree panoramic image.
도 3은 일 실시예에 따른 객체의 유형이 제1 유형인 경우에 객체의 정보를 보정하는 방법을 설명하기 위한 도면이다. 도 3을 참조하면 투시도(perspective view) 영상(310), 및 투시도 영상(310)에 대응하는 조감도(bird's-eye view) 영상(330)이 도시된다. 3 is a diagram for describing a method of correcting information on an object when the type of the object is a first type, according to an exemplary embodiment. Referring to FIG. 3, a
투시도 영상(310)은 입력 영상으로서, 전술한 스피어 맵핑을 통해 획득한 전면 영상 또는 후면 영상일 수 있다. 일 실시예에서 인식의 대상이 되는 제1 객체는 투시도 영상(310)으로부터 획득할 수 있다. 하지만, 도로 내에 표시된 제1 객체를 제외한 나머지 도로 노면 표시인 제2 객체는 투시도 영상(310)에서 정확하게 검출되기 어렵다. 다시 말해, 제1 객체와 잘못 검출된 제2 객체를 함께 그룹핑하는 경우, 제2 객체의 영향으로 제1 객체가 잘못 그룹핑될 수 있다. The
따라서, 일 실시예에서는 투시도 영상(310)을 바라보는 시점을 변경하여 재가공한 조감도 영상(330)으로부터 인식의 대상에서 제외되는 제2 객체를 검출하고, 제2 객체를 조감도 영상(330)에서 제거 함으로써 제1 객체의 그룹핑 시에 오류가 발생하는 것을 차단할 수 있다. Accordingly, in one embodiment, the second object excluded from the recognition object is detected from the reprocessed bird's
보다 구체적으로, 갱신 장치는 투시도 영상(310)에서 제1 객체에 대응하는 제1 영역들을 획득할 수 있다. 갱신 장치는 투시도 영상(310)을 조감도 영상(330)으로 변환할 수 있다. 이때, 갱신 장치는 예를 들어, 역원근 변환(Inverse Perspective Mapping; IPM)을 적용하여 투시도 영상(310)을 조감도 영상(330)으로 변환할 수 있다. 갱신 장치는 소실점으로 모이는 도로 영상에 역원근 변환을 적용하여 하늘에서 내려다 본 형태의 조감도 영상으로 변환함으로써 도로 노면 표시가 더 균일하고 명료하게 파악되도록 할 수 있다. 역원근 변환(IPM)은 원근 효과를 가진 입력 영상에서 원근 효과를 제거하고 영상 평면의 위치 정보를 세계 좌표계의 위치 정보로 변환시키는 것이다. More specifically, the update device may acquire first regions corresponding to the first object from the
갱신 장치는 조감도 영상(330)에서 제2 객체에 대응하는 제2 영역들을 획득할 수 있다. 갱신 장치는 투시도 영상(310)과 조감도 영상(330) 사이의 변환 관계에 기초하여, 투시도 영상(310)에서 제2 영역들에 대응하는 제3 영역들을 산출할 수 있다. 갱신 장치는 투시도 영상(310)에서 획득한 제1 영역들로부터 제3 영역들을 제외함으로써, 제1 영역들을 보정할 수 있다. The update device may acquire second regions corresponding to the second object from the bird's
도 4는 일 실시예에 따른 객체의 유형이 제1 유형인 경우에 도로 네트워크를 갱신하는 방법을 설명하기 위한 도면이다. 도 4를 참조하면, 일 실시예에 따른 후보 선분들 간의 법선 벡터 거리를 계산하는 방법(a) 및 연장선들의 내각을 계산하는 방법(b)이 도시된다. FIG. 4 is a diagram illustrating a method of updating a road network when an object type is a first type, according to an exemplary embodiment. Referring to FIG. 4, a method (a) of calculating a normal vector distance between candidate line segments and a method (b) of calculating an inner angle of extension lines according to an exemplary embodiment are illustrated.
전술한 과정을 통해 제1 객체(예를 들어, 차선, 차로 경계선)와 제2 객체(예를 들어, 차선 및 차로 경계선을 제외한 나머지의 도로 노면 표시)는 객체 별로 분리되고, 동일 차선 또한 여러 개의 부분 차선들로 분리될 수 있다. 갱신 장치는 동일 차선에 해당하는 부분 차선들을 하나로 그룹핑할 수 있다. Through the above-described process, the first object (for example, lane, lane boundary) and the second object (for example, road markings other than lanes and lane boundaries) are separated for each object, and the same lane is also divided into several Can be separated into partial lanes. The update device may group partial lanes corresponding to the same lane into one.
보다 구체적으로, 갱신 장치는 도 3을 통해 기술한 투시도 영상에서 보정된 제1 영역들을 기초로, 동일 차선 별로 각 차선의 후보 선분들(line segments)(410, 430) 및 후보 선분들(410, 430)의 연장선들(415, 435)을 생성할 수 있다. 갱신 장치는 후보 선분들 간의 차이를 이용하여 동일 차선을 구성하는 후보 선분들을 차선의 후보 영역으로 그룹핑할수 있다. More specifically, the update device includes
갱신 장치는 도 4에 도시된 것과 같이 서로 교차하는 연장선들(415, 435)에 기초하여, 해당하는 후보 선분들을 차선 후보 영역으로 그룹핑(grouping)할 수 있다. 갱신 장치는 도 4의 (a)에 도시된 것과 같이 연장선들(415, 435) 간의 법선 벡터 거리가 일정 값(예를 들어, 2.5cm) 이내인 경우에 해당 연장선들(415,435)에 대응하는 후보 선분들(410, 430)을 그룹핑할 수 있다. 또한, 갱신 장치는 도 4의 (b)에 도시된 것과 같이 연장선들(415,435) 간의 내각이 일정 각도(예를 들어, 7.5도) 이내인 경우에 해당 연장선들(415,435)에 대응하는 후보 선분들(410, 430)을 그룹핑할 수 있다.As illustrated in FIG. 4, based on the
실시예에 따라서, 갱신 장치는 연장선들(415, 435) 간의 법선 벡터 거리가 일정 값 이내이고, 연장선들(415,435) 간의 내각이 일정 각도 이내인 경우에 해당 연장선들(415,435)에 대응하는 후보 선분들(410, 430)을 그룹핑할 수 있다.According to an embodiment, when the normal vector distance between the
갱신 장치는 그룹핑한 후보 선분들(410, 430)을 이용하여 적어도 하나의 차선을 인식할 수 있다. 갱신 장치는 인식된 적어도 하나의 차선에 기초하여, 도로 네트워크를 갱신할 수 있다. The update device may recognize at least one lane by using the grouped
도 5는 일 실시예에 따른 객체의 유형이 제2 유형인 경우에 객체의 3차원 방향 벡터를 산출하는 방법을 설명하기 위한 도면이다. 도 5를 참조하면, 도 1을 통해 전술한 과정에서 식별된 객체의 유형이 제2 유형인 경우에 갱신 장치는 360도 영상에서 검출된 객체의 각도 좌표를 기초로 3차원 공간 상에서 해당 객체를 향하는 3차원 방향 벡터를 산출할 수 있다. FIG. 5 is a diagram for describing a method of calculating a 3D direction vector of an object when the type of the object is a second type, according to an exemplary embodiment. Referring to FIG. 5, when the type of the object identified in the process described above through FIG. 1 is the second type, the update device is directed toward the object in a 3D space based on the angular coordinates of the object detected in the 360-degree image. A three-dimensional direction vector can be calculated.
입력 영상은 시간의 흐름(혹은 차량의 움직임)에 따라 동일한 객체를 촬영한 복수의 프레임들을 포함할 수 있다. 이 경우, 프레임들 각각은 360도 영상을 포함할 수 있다. 갱신 장치는 프레임 단위로 해당 객체의 3차원 방향 벡터를 산출할 수 있다.The input image may include a plurality of frames photographing the same object according to the passage of time (or the movement of the vehicle). In this case, each of the frames may include a 360 degree image. The update device may calculate a 3D direction vector of a corresponding object on a frame basis.
보다 구체적으로, 갱신 장치는 프레임(510)의 가로축에 대응하는 각도 범위, 프레임(510)의 세로축에 대응하는 각도 범위, 및 프레임(510) 내 객체(515)에 해당하는 픽셀의 위치에 기초하여, 객체(515)의 각도 좌표를 획득할 수 있다. 예를 들어, 프레임(510)의 가로축은 0 ~ 360도로 지정되고, 세로축은 -90 ~ 90도로 지정될 수 있다. 갱신 장치는 프레임(510)의 사이즈 대비 객체(515)에 해당하는 픽셀의 위치를 각도로 환산함으로써, 객체(515)의 각도 좌표를 획득할 수 있다. 객체(515)의 각도 좌표는 카메라 좌표계에 해당하는 공간 상에서 객체(515)를 향하는 벡터(530)일 수 있다.More specifically, the update device is based on the angular range corresponding to the horizontal axis of the
갱신 장치는 객체를 촬영한 카메라의 위치 및 자세를 이용하여, 카메라 좌표계의 각도 좌표를 월드 좌표계에 해당하는 공간 상에서 객체(515)를 향하는 3차원 방향 벡터로 변환할 수 있다. 이후, 갱신 장치는 3차원 방향 벡터를 2차원 지도 상에 맵핑할 수 있다.The update device may convert the angular coordinate of the camera coordinate system into a three-dimensional direction vector facing the
도 6은 일 실시예에 따른 객체의 유형이 제2 유형인 경우에 객체의 정보를 보정하는 방법을 설명하기 위한 도면이다. 도 6을 참조하면, 2차원 지도(600) 및 2차원 지도 상에서 맵핑된 객체의 3차원 방향 벡터들(610, 620)이 도시된다. 6 is a diagram for describing a method of correcting information on an object when an object type is a second type, according to an exemplary embodiment. Referring to FIG. 6, a
갱신 장치는 입력 영상에 포함된 복수의 프레임들로부터 산출된 객체(예를 들어, 도로 교통 표지판)의 3차원 방향 벡터들(610, 620)을 2차원 지도(600) 상에 맵핑할 수 있다. 갱신 장치는 맵핑된 3차원 방향 벡터들(610, 620)이 2차원 지도(600) 상에서 교차하는 지점(630)의 좌표에 기초하여, 객체의 위치 좌표를 산출할 수 있다.The update device may map
이때, 입력 영상에서의 객체의 검출 정확도, 음영 지역, 장애물 등의 영향으로 인해 객체의 위치 좌표가 도 6에 도시된 것과 같이 2차원 지도(600) 상에서 건물 내에 존재하거나, 또는 인도를 크게 벗어나 도로 위에 존재하는 것으로 오맵핑되는 경우가 발생할 수 있다. At this time, due to the influence of the detection accuracy of the object in the input image, the shadow area, the obstacle, etc., the position coordinate of the object exists in the building on the
일 실시예에서는 도로 교통 표지판과 같은 도로 시설물은 도로 시설물의 설치 규정에 따라 설치된다는 점을 고려하여 도로 시설물의 설치 규정에 따라 객체의 위치 정보, 보다 구체적으로는 객체의 위치 좌표를 보정할 수 있다.In one embodiment, in consideration of the fact that road facilities such as road traffic signs are installed according to the installation regulations of road facilities, the location information of the object, more specifically, the position coordinates of the object may be corrected according to the installation regulations of the road facilities. .
일 실시예에서는 도로 시설물 중 인도 혹은 도로의 인접한 위치에 설치되어야 하는 도로 교통 표지판을 고려하여, 2차원 지도(600) 상에서 도로 교통 표지판이 도로 경계선(boundary line of road)을 기준으로 일정 거리 내의 포함되도록 교통 표지판의 위치 좌표를 지점(630)에서 지점(640)으로 보정할 수 있다. In one embodiment, road traffic signs are included within a certain distance based on a boundary line of road on the two-
도 7은 일 실시예에 따른 객체의 유형이 제2 유형인 경우에 도로 네트워크를 갱신하는 방법을 설명하기 위한 도면이다. 도 7을 참조하면, 2차원 지도(700) 상에 표시된 기존 도로 시설물(710) 및 신규 도로 시설물(720)이 도시된다. 7 is a diagram for explaining a method of updating a road network when an object type is a second type, according to an exemplary embodiment. Referring to FIG. 7, an existing
갱신 장치는 예를 들어, 네트워크 데이터베이스(도 8의 833 참조) 혹은 외부 클라우드 서버 등에 기존 도로 시설물(710)에 대한 정보를 저장할 수 있다. 이때, 기존 도로 시설물(710)에 대한 정보는 도로 네트워크의 구간 별로 저장될 수 있으며, 각 구간은 예를 들어, 신호등, 정지선, 혹은 횡단 보도를 기준으로 구분될 수 있다. 각 구간은 예를 들어, 해당 구간 내에 포함된 대표 차선의 개수, 해당 구간에서의 분기 차선의 포함 여부, 해당 구간에서의 버스 전용 차선의 유무, 및 차선 및 차로 경계선을 제외한 도로 노면 표시의 위치 및 종류 등에 대한 정보를 포함할 수 있다. The update device may store information on the existing
예를 들어, 전술한 과정을 통해 보정된 도로 시설물의 위치 정보가 2차원 지도(700) 상에서 신규 도로 시설물(720)의 위치로 표시되었다고 하자.For example, suppose that the location information of the road facility corrected through the above-described process is displayed as the location of the
갱신 장치는 도로 시설물과 관련하여 도로 네트워크에 구간 별로 저장된 기존 도로 시설물(710)에 대한 정보 및 신규 도로 시설물(720)의 정보를 비교함으로써, 도로 네트워크의 갱신 여부를 결정할 수 있다. 갱신 장치는 기존 도로 시설물(710)의 위치 및 신규 도로 시설물(720)의 위치를 비교할 수 있다. 이때, 기존 도로 시설물(710)을 촬영한 카메라의 위치 및 자세 오차, 및/또는 기존 도로 시설물(710)에 대한 검출 정확도 등의 영향으로 인해 기존 도로 시설물(710)의 위치와 신규 도로 시설물(720)의 위치 간에 차이가 발생할 수 있다. The update device may determine whether to update the road network by comparing information on the existing
갱신 장치는 신규 도로 시설물(720)의 위치로부터 일정 반경 내에 동일한 시설물이 존재하는지 여부를 판단함으로써 신규 도로 시설물(720)이 기존 도로 시설물(710)과 동일한 도로 시설물인지 혹은 새로 생긴 도로 시설물인지를 확인할 수 있다. 예를 들어, 신규 도로 시설물(720)의 위치로부터 일정 반경(예를 들어, 5 미터) 내에 기존 도로 시설물(710)이 존재하는 경우, 갱신 장치는 신규 도로 시설물(720)과 기존 도로 시설물(710)을 동일한 것으로 판단하여 도로 네트워크를 갱신하지 않을 수 있다. 이때, 일정 반경은 예를 들어, 도로 시설물에 대한 설치 규정, 또는 동종의 도로 시설물 간의 설치 간격 등에 의해 결정될 수 있다. The update device determines whether the
이와 달리, 예를 들어, 신규 도로 시설물(720)의 위치로부터 일정 반경 내에 기존 도로 시설물(710)이 존재하지 않는 경우, 갱신 장치는 신규 도로 시설물(720)을 새로 생긴 도로 시설물로 판단하여 도로 네트워크를 갱신할 수 있다. In contrast, for example, if the existing
실시예에 따라서, 갱신 장치는 일정 반경을 세분화하여 도로 네트워크의 갱신 여부를 결정할 수도 있다. 갱신 장치는 신규 도로 시설물(720)의 위치로부터 제1 반경(예를 들어, 0 ~ 2 미터) 내에 기존 도로 시설물(710)이 존재하는 경우, 신규 도로 시설물(720)과 기존 도로 시설물(710)을 동일한 것으로 판단하여 도로 네트워크를 갱신하지 않을 수 있다. 또한, 갱신 장치는 신규 도로 시설물(720)의 위치로부터 제2 반경(예를 들어, 2 미터 ~ 5 미터) 내에 기존 도로 시설물(710)이 존재하는 경우, 기존 도로 시설물(710)의 위치가 이동한 것으로 판단하여 도로 네트워크를 갱신할 수도 있다. Depending on the embodiment, the update device may determine whether to update the road network by subdividing a certain radius. When the existing
또는 실시예에 따라서, 갱신 장치는 기존 도로 시설물(710)에 대한 정보를 기반으로 역으로 반경 검색을 수행할 수 있다. 역으로 반경 검색을 진행한 결과, 일정 반경 내에 기존 도로 시설물(710)은 존재하나 새로운 도로 시설물(720)이 존재하지 않을 수 있다. 이 경우, 갱신 장치는 기존 도로 시설물(710)이 삭제된 것으로 판단하여 도로 네트워크에서 기존 도로 시설물(710)을 삭제할 수 있다. Alternatively, according to an embodiment, the update device may perform a radius search inversely based on information on the existing
일 실시예에서는 전술한 과정을 통해 변경 여부가 확인된 도로 시설물에 대한 정보를 반영하여 데이터베이스를 갱신함으로써 데이터베이스의 최신성을 유지할 수 있다. 이때, 새로운 도로 시설물(720)을 검출하기 위해 사용한 영상(또는 프레임)과 해당 영상에서의 객체의 검출 위치는 신경망을 위한 학습 데이터로 이용되어 향후 객체의 검출 정확도를 높이는 데에 활용될 수 있다. In an embodiment, the database may be updated by reflecting information on road facilities that have been confirmed to be changed through the above-described process, thereby maintaining the latest in the database. In this case, the image (or frame) used to detect the
도 8은 일 실시예에 따른 도로 네트워크를 갱신하는 장치의 기능 블록도이다. 도 8을 참조하면, 일 실시예에 따른 도로 네트워크를 갱신하는 장치('갱신 장치')(800)는 프로세서(810), 메모리(830) 및 통신 인터페이스(850)를 포함할 수 있다. 프로세서(810), 메모리(830) 및 통신 인터페이스(850)는 통신 버스(미도시)를 통해 서로 연결될 수 있다. 8 is a functional block diagram of an apparatus for updating a road network according to an embodiment. Referring to FIG. 8, an apparatus ('update device') 800 for updating a road network according to an embodiment may include a
프로세서(810)는 도로 네트워크 탐지부(811), 객체의 정보 결정부(813), 객체의 정보 보정부(815), 및 도로 네트워크 갱신부(817)를 포함할 수 있다. The
도로 네트워크 탐지부(811)는 통신 인터페이스(850)를 통해 수신한 입력 영상으로부터 도로 네트워크에 포함되는 적어도 하나의 객체를 탐지하여 검출할 수 있다. 이때, 적어도 하나의 객체는 예를 들어, 도로 네트워크에 포함된 도로의 차선 및 차로 경계선을 포함하는 도로 노면 표시일 수도 있고, 도로 교통 표지판을 포함하는 도로 시설물일 수도 있다. The
도로 네트워크 탐지부(811)는 객체를 인식 및 검출하도록 학습 데이터(831)에 의해 미리 학습된 신경망을 이용하여 도로 네트워크에 포함된 적어도 하나의 객체를 검출할 수 있다. 이때, 도로 네트워크 탐지부(811)에 의해 추출된 객체는 예를 들어, 도로, 차량, 건물, 나무, 하늘, 보행자, 자전거, 도로 시설물 등과 같은 객체의 다양한 클래스 별로 구분될 수 있다. The road
객체의 정보 결정부(813)는 도로 네트워크 탐지부(811)가 검출한 객체의 유형을 식별하여 객체의 정보를 결정할 수 있다. 객체의 정보는 예를 들어, 입력 영상 내 객체에 대응하는 영역 정보, 및 입력 영상에 대응하는 3차원 공간 내 객체에 대응하는 위치 정보 중 적어도 하나를 포함할 수 있다. 이때, 객체의 정보 결정부(813)는 도로 네트워크에 포함된 적어도 하나의 객체의 촬영한 카메라의 위치 및 자세를 획득할 수 있다. 객체의 정보 결정부(813)는 객체를 촬영한 카메라의 위치 및 자세를 기초로, 객체 별 3차원 방향 벡터를 산출할 수도 있다. The object
객체의 정보 보정부(815)는 객체의 정보 결정부(813)에서 결정된 객체의 유형에 따라 객체에 대응하는 보정 방법을 결정하고, 결정된 보정 방법에 따라 객체의 정보를 보정할 수 있다. The object
도로 네트워크 갱신부(817)는 보정된 객체의 정보에 기초하여 도로 네트워크를 갱신할 수 있다. The road
갱신 장치(800)는 보정된 객체의 정보, 및/또는 보정된 객체의 정보에 기초하여 갱신된 도로 네트워크에 대한 정보를 반영하여 네트워크 데이터베이스(833)를 갱신할 수 있다. 또한, 보정된 객체의 정보 및 보정된 객체의 정보에 대응하는 영상(또는 프레임)은 신경망을 위한 학습 데이터(831)로 이용되어 향후 신경망에서의 객체의 검출 정확도를 높이는 데에 활용될 수 있다. The
메모리(830)는 통신 인터페이스(850)를 통해 수신한 입력 영상을 저장할 수 있다. 메모리(830)는 프로세서(810)에 의해 보정된 객체의 정보 및/또는 보정된 객체의 정보에 기초하여 갱신된 도로 네트워크에 대한 정보를 저장할 수 있다. 메모리(830)는 학습 데이터(831) 및/또는 네트워크 데이터베이스(833)를 저장할 수 있다. 실시예에 따라서, 학습 데이터(831) 및/또는 네트워크 데이터베이스(833)는 별도의 저장 장치 혹은 클라우드 서버 등에 저장될 수도 있다. The
네트워크 데이터베이스(833)는 도로 네트워크에 대한 정보 및/또는 도로 네트워크에 대응하는 2차원 지도 정보를 저장할 수 있다. The
통신 인터페이스(850)는 입력 영상을 획득한다. 입력 영상은 도로 네트워크에 포함되는 적어도 하나의 객체를 포함할 수 있다. 입력 영상을 예를 들어, 로드 뷰(road view) 영상, 또는 360도 파노라마 영상 등과 같이 지상을 운행하며 취득한 영상일 수 있다. 통신 인터페이스(850)는 입력 영상을 촬영한 촬영 장치의 위치와 자세를 입력 영상과 함께 수신할 수 있다. The
통신 인터페이스(850)는 갱신된 도로 네트워크에 대한 정보를 갱신 장치의 외부로 출력할 수 있다. The
프로세서(810)는 도 1 내지 도 7을 통해 전술한 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(810)는 프로그램을 실행하고, 갱신 장치를 제어할 수 있다. 프로세서(810)에 의하여 실행되는 프로그램 코드는 메모리(830)에 저장될 수 있다.The
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기된 하드웨어 표시 장치는 실시예의 입력을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The above-described hardware display device may be configured to operate as one or more software modules to perform an input of an embodiment, and vice versa.
이상과 같이 비록 한정된 도면에 의해 실시예들이 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 표시 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described by the limited drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as the described system, structure, display device, circuit, etc. are combined or combined in a form different from the described method, or a different configuration Appropriate results can be achieved even if substituted or substituted by elements or equivalents. Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.
Claims (14)
상기 객체의 유형(type)을 식별하는 단계;
상기 객체의 유형에 따라 상기 객체에 대응하는 보정 방법을 결정하는 단계;
상기 보정 방법에 따라 상기 객체의 정보를 보정하는 단계; 및
상기 보정된 객체의 정보에 기초하여 상기 도로 네트워크를 갱신하는 단계
를 포함하는, 도로 네트워크를 갱신하는 방법.Detecting at least one object included in the road network from the input image;
Identifying the type of the object;
Determining a correction method corresponding to the object according to the type of the object;
Correcting the information of the object according to the correction method; And
Updating the road network based on the corrected object information
Including, how to update the road network.
상기 객체의 정보는
상기 입력 영상 내의 상기 객체에 대응하는 영역 정보; 및
상기 입력 영상에 대응하는 3차원 공간 내의 상기 객체에 대응하는 위치 정보
중 적어도 하나를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 1,
The information of the object is
Area information corresponding to the object in the input image; And
Location information corresponding to the object in the 3D space corresponding to the input image
A method for updating a road network, comprising at least one of.
상기 객체의 유형은
상기 도로 네트워크에 포함된 도로의 차선 및 차로 경계선을 포함하는 도로 노면 표시(road surface marking)에 해당하는 제1 유형; 및
상기 도로 네트워크에 포함된 도로 교통 표지판을 포함하는 도로 시설물(street furniture)에 해당하는 제2 유형
중 적어도 하나를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 1,
The type of the object is
A first type corresponding to road surface marking including lanes and lane boundaries of roads included in the road network; And
A second type corresponding to street furniture including road traffic signs included in the road network
A method for updating a road network, comprising at least one of.
상기 객체의 유형이 제1 유형인 경우,
상기 보정 방법을 결정하는 단계는
상기 객체의 그룹핑 시에 상기 입력 영상 내에서 인식의 대상이 되는 제1 객체들을 그룹핑하기 위하여, 상기 인식의 대상에서 제외되는 제2 객체에 기초하여 상기 제1 객체에 대응하는 영역 정보를 보정하는 제1 보정 방법을 상기 보정 방법으로 결정하는 단계
를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 1,
If the type of the object is the first type,
The step of determining the correction method
In order to group the first objects to be recognized in the input image when the objects are grouped, a second object for correcting region information corresponding to the first object based on a second object excluded from the recognition target 1 determining a correction method as the correction method
Including, how to update the road network.
상기 입력 영상은 투시도(perspective view) 영상을 포함하고,
상기 객체의 정보를 보정하는 단계는
상기 투시도 영상에서 상기 제1 객체에 대응하는 제1 영역들을 획득하는 단계;
상기 투시도 영상을 조감도(bird's-eye view) 영상으로 변환하는 단계;
상기 조감도 영상에서 상기 제2 객체에 대응하는 제2 영역들을 획득하는 단계;
상기 투시도 영상과 상기 조감도 영상 사이의 변환 관계에 기초하여, 상기 투시도 영상에서 상기 제2 영역들에 대응하는 제3 영역들을 산출하는 단계; 및
상기 투시도 영상에서 상기 제1 영역들로부터 상기 제3 영역들을 제외함으로써, 상기 제1 영역들을 보정하는 단계
를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 4,
The input image includes a perspective view image,
Correcting the information of the object
Obtaining first regions corresponding to the first object in the perspective view image;
Converting the perspective view image into a bird's-eye view image;
Acquiring second regions corresponding to the second object in the bird's eye view image;
Calculating third areas corresponding to the second areas in the perspective view image based on a conversion relationship between the perspective view image and the bird's eye view image; And
Correcting the first regions by excluding the third regions from the first regions in the perspective view image
Including, how to update the road network.
상기 도로 네트워크를 갱신하는 단계는
상기 투시도 영상에서 상기 보정된 제1 영역들을 기초로, 후보 선분(line segment)들 및 후보 선분들의 연장선들을 생성하는 단계;
서로 교차하는 연장선들에 기초하여, 해당하는 후보 선분들을 그룹핑(grouping)하는 단계;
상기 그룹핑한 후보 선분들을 이용하여 적어도 하나의 차선을 인식하는 단계; 및
상기 인식된 적어도 하나의 차선에 기초하여, 상기 도로 네트워크를 갱신하는 단계
를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 5,
The step of updating the road network
Generating candidate line segments and extension lines of candidate line segments based on the corrected first regions in the perspective view image;
Grouping corresponding candidate line segments based on extension lines intersecting each other;
Recognizing at least one lane using the grouped candidate line segments; And
Updating the road network based on the recognized at least one lane
Including, how to update the road network.
상기 객체의 유형이 제2 유형인 경우,
상기 보정 방법을 결정하는 단계는
상기 객체가 도로 시설물의 설치 규정을 만족하도록 상기 객체에 대응하는 위치 정보를 보정하는 제2 보정 방법을 상기 보정 방법으로 결정하는 단계
를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 1,
If the type of the object is a second type,
The step of determining the correction method
Determining, as the correction method, a second correction method for correcting location information corresponding to the object so that the object satisfies the installation regulations for road facilities
Including, how to update the road network.
상기 객체의 유형이 제2 유형인 경우,
상기 보정 방법을 결정하는 단계는
상기 객체가 도로 경계선(boundary line of road)을 기준으로 일정 거리 내에 포함되도록 상기 객체에 대응하는 위치 정보를 보정하는 제2 보정 방법을 상기 보정 방법으로 결정하는 단계
를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 1,
If the type of the object is a second type,
The step of determining the correction method
Determining, as the correction method, a second correction method for correcting location information corresponding to the object so that the object is included within a predetermined distance based on a boundary line of road
Including, how to update the road network.
상기 입력 영상에 포함된 복수의 프레임들로부터, 상기 객체의 3차원 방향 벡터들을 산출하는 단계;
상기 객체의 3차원 방향 벡터들을 2차원 지도 상에 맵핑하는 단계; 및
상기 맵핑된 방향 벡터들이 상기 2차원 지도 상에서 교차하는 지점의 좌표에 기초하여, 상기 객체의 위치 좌표를 산출하는 단계
를 더 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 7,
Calculating 3D direction vectors of the object from a plurality of frames included in the input image;
Mapping the three-dimensional direction vectors of the object onto a two-dimensional map; And
Calculating the location coordinates of the object based on coordinates of points where the mapped direction vectors intersect on the 2D map
The method further comprising, updating the road network.
상기 객체의 정보를 보정하는 단계는
상기 도로 시설물의 설치 규정에 따라 상기 객체의 위치 좌표를 보정하는 단계
를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 9,
Correcting the information of the object
Correcting the location coordinates of the object according to the installation regulations of the road facility
Including, how to update the road network.
상기 객체의 3차원 방향 벡터들을 산출하는 단계는
프레임 단위로 상기 객체를 촬영한 카메라의 위치 및 자세에 기초하여, 프레임 별 3차원 방향 벡터를 산출하는 단계
를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 9,
The step of calculating the three-dimensional direction vectors of the object
Calculating a three-dimensional direction vector for each frame based on the position and posture of the camera photographing the object in frame units
Including, how to update the road network.
상기 프레임들 각각은 360도 영상을 포함하고,
상기 프레임 별 3차원 방향 벡터를 산출하는 단계는
해당 프레임의 가로축에 대응하는 각도, 상기 해당 프레임의 세로축에 대응하는 각도, 및 상기 해당 프레임 내 상기 객체에 해당하는 픽셀의 위치에 기초하여, 각도 좌표를 획득하는 단계; 및
상기 객체를 촬영한 카메라의 위치 및 자세를 기준으로, 상기 각도 좌표로부터 상기 해당 프레임의 3차원 방향 벡터를 산출하는 단계
를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 11,
Each of the frames includes a 360-degree image,
The step of calculating the three-dimensional direction vector for each frame
Obtaining angular coordinates based on an angle corresponding to a horizontal axis of a corresponding frame, an angle corresponding to a vertical axis of the corresponding frame, and a position of a pixel corresponding to the object in the corresponding frame; And
Calculating a three-dimensional direction vector of the frame from the angular coordinate based on the position and posture of the camera photographing the object
Including, how to update the road network.
상기 도로 네트워크를 갱신하는 단계는
상기 객체와 관련하여 상기 도로 네트워크에 구간 별로 저장된 정보 및 상기 보정된 객체의 정보를 비교함으로써, 상기 도로 네트워크의 갱신 여부를 결정하는 단계
를 포함하는, 도로 네트워크를 갱신하는 방법.The method of claim 1,
The step of updating the road network
Determining whether to update the road network by comparing information stored in the road network for each section in relation to the object and information of the corrected object
Including, how to update the road network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190069413A KR102316818B1 (en) | 2019-06-12 | 2019-06-12 | Method and apparatus of updating road network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190069413A KR102316818B1 (en) | 2019-06-12 | 2019-06-12 | Method and apparatus of updating road network |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200142315A true KR20200142315A (en) | 2020-12-22 |
KR102316818B1 KR102316818B1 (en) | 2021-10-25 |
Family
ID=74086447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190069413A KR102316818B1 (en) | 2019-06-12 | 2019-06-12 | Method and apparatus of updating road network |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102316818B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113343858A (en) * | 2021-06-10 | 2021-09-03 | 广州海格通信集团股份有限公司 | Road network geographic position identification method and device, electronic equipment and storage medium |
KR102642165B1 (en) * | 2023-02-15 | 2024-03-04 | 아주대학교산학협력단 | Method for updating sidewalk on map, server and system using the same |
CN118154688A (en) * | 2024-05-11 | 2024-06-07 | 擎翌(上海)智能科技有限公司 | Pose correction method and device based on multi-source data matching and electronic equipment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100123737A1 (en) * | 2008-11-19 | 2010-05-20 | Apple Inc. | Techniques for manipulating panoramas |
KR20120079341A (en) * | 2011-01-04 | 2012-07-12 | 팅크웨어(주) | Method, electronic device and recorded medium for updating map data |
JP2017009553A (en) * | 2015-06-26 | 2017-01-12 | 日産自動車株式会社 | Vehicle location determination device and vehicle location determination method |
KR20190036844A (en) * | 2017-09-28 | 2019-04-05 | 삼성전자주식회사 | Method and apparatus of identifying driving lane |
-
2019
- 2019-06-12 KR KR1020190069413A patent/KR102316818B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100123737A1 (en) * | 2008-11-19 | 2010-05-20 | Apple Inc. | Techniques for manipulating panoramas |
KR20120079341A (en) * | 2011-01-04 | 2012-07-12 | 팅크웨어(주) | Method, electronic device and recorded medium for updating map data |
JP2017009553A (en) * | 2015-06-26 | 2017-01-12 | 日産自動車株式会社 | Vehicle location determination device and vehicle location determination method |
KR20190036844A (en) * | 2017-09-28 | 2019-04-05 | 삼성전자주식회사 | Method and apparatus of identifying driving lane |
Non-Patent Citations (1)
Title |
---|
이진형 외 3인, 수치지도 갱신을 위한 3차원 일반화와 논리적 오류수정, 한국측량학회 학술대회자료집, 2009.4, 29-34페이지. 1부.* * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113343858A (en) * | 2021-06-10 | 2021-09-03 | 广州海格通信集团股份有限公司 | Road network geographic position identification method and device, electronic equipment and storage medium |
CN113343858B (en) * | 2021-06-10 | 2024-03-12 | 广州海格通信集团股份有限公司 | Road network geographic position identification method and device, electronic equipment and storage medium |
KR102642165B1 (en) * | 2023-02-15 | 2024-03-04 | 아주대학교산학협력단 | Method for updating sidewalk on map, server and system using the same |
CN118154688A (en) * | 2024-05-11 | 2024-06-07 | 擎翌(上海)智能科技有限公司 | Pose correction method and device based on multi-source data matching and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
KR102316818B1 (en) | 2021-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11085775B2 (en) | Methods and systems for generating and using localisation reference data | |
US10437252B1 (en) | High-precision multi-layer visual and semantic map for autonomous driving | |
US11670087B2 (en) | Training data generating method for image processing, image processing method, and devices thereof | |
US10794710B1 (en) | High-precision multi-layer visual and semantic map by autonomous units | |
EP3842754A1 (en) | System and method of detecting change in object for updating high-definition map | |
CN105512646B (en) | A kind of data processing method, device and terminal | |
CN111492403A (en) | Lidar to camera calibration for generating high definition maps | |
JP2018533721A (en) | Method and system for generating and using localization reference data | |
KR20210061722A (en) | Method, apparatus, computer program and computer readable recording medium for producing high definition map | |
EP3842751B1 (en) | System and method of generating high-definition map based on camera | |
KR102167835B1 (en) | Apparatus and method of processing image | |
CN112346463B (en) | Unmanned vehicle path planning method based on speed sampling | |
KR102316818B1 (en) | Method and apparatus of updating road network | |
CN111754388B (en) | Picture construction method and vehicle-mounted terminal | |
CN114969221A (en) | Method for updating map and related equipment | |
KR102441100B1 (en) | Road Fingerprint Data Construction System and Method Using the LAS Data | |
JP5435294B2 (en) | Image processing apparatus and image processing program | |
KR20220151572A (en) | Method and System for change detection and automatic updating of road marking in HD map through IPM image and HD map fitting | |
WO2022133986A1 (en) | Accuracy estimation method and system | |
WO2022030033A1 (en) | Planimetric feature data generation system, planimetric feature database updating system, and planimetric feature data generation method | |
KR102516450B1 (en) | Method of generating map and visual localization system using the map | |
US11189082B2 (en) | Simulated overhead perspective images with removal of obstructions | |
NL2016718B1 (en) | A method for improving position information associated with a collection of images. | |
KR102675138B1 (en) | Method for calibration of multiple lidars, and computer program recorded on record-medium for executing method therefor | |
KR102626574B1 (en) | Method for calibration of camera and lidar, and computer program recorded on record-medium for executing method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |